본문 바로가기
  • 빛의 장막을 걷어내면, 비로소 심우주의 모습이 드러난다.
  • 與一利不若除一害, 生一事不若滅一事
과학기술

Newton지 인공지능 대특집 소개

by 靑野(청야) 2018. 1. 13.

다음은 Newton AI대특집 (2018년 1월호)에 실린글을 추린 것이다.

(자세한 내용을 원하면 Newton special 2018년 1월호를 참조바람,<>로 구분된 제목의 구분은 별도로 추가하였음)


<인공지능의 역사>


1956년 다트머스 대학에서 열린 연구집회(1956)에서 계산기에 의한 복잡한 정보처리를 의미하는 말로 인공지능 (AI: Artifical Intelligence)말이 선정되었다


70년대, 종래의 방법으로 현실의 복잡한 문제를 해결할 수 없다는 사실이 밝혀저 연구가 정체되고, 2000년대에, 지식을 완전히 기술.관리하는 일의 난점과 한계가 발견됨에 따라 실망감과 함께 연구가 정체되는 [고난의 시대]이후 [기계학습과 딥러닝(Deep Learning)의 시대]로 접어들어 붐을 일으키고 있다


컴퓨터는 특별한 시스템이 없으면 인간처럼 물체의 특징을 쉽게 파악할 수 없다. 대량 계산능력만으로는 인간이 잘하는 바라본 물체의 특징을 추출하는 능력은 별개이기 때문이다.


인공지능에 들어오는 물체의 화상정보를 매우 작은 은 화소(픽셀)로 나누어 그 화소의 화상의 위치정보, 색깔정보등를 수치로 다루어지고, 숫자의 나열에 대해 엄청 계산을 하면서 물체의 특징을 추출해 나가는 데, 지금까지는 이러한 '특징의 추출'을 인공지능 자신에게 시키기 어려워, 연구자가 인공지능에게 물체의 특징을 나타내는 규칙을 하나하나 가르쳐야 하는 데, 물체의 특징을 완전히 언어로 표현할 수가 없어 정확하게 이 세계를 인식할 수 있는 인공지능 개발이 어려웠다.


딥러닝은 뇌의 구조를 모방한 '뉴럴 네트워크' 라는 시스템을 사용해, 이런 물체의 특징을 자동으로 얻어내는 규칙을 스스로 획득할 수 있게 되었다.


<인공지능 개요>


우리의 뇌는 눈에 들어오는 정보가 망막에 투영되고, 이 정보는 뇌 뒷쪽의 1차시각인 뉴런(신경세포)에 전해진다.  1차 시각영역의 단순정보는 2차시각영역, 3차시가영역으로 정보가 전해지면서 점차 통합되어 복잡한 형태를 판단하게 된다.그리고 최종적으로 물체를 인식하게 된다.


이와같은 시각정보는 뉴런의 내부를 전기신호가 흘러 전해지고, 뉴런끼리는 직접연결되지 않고, 이는  시냅스라는 구조로 화학물질을 주고 받음으로서 정보가 전해진다. 시냅스는 단지 뉴런에서 뉴런으로 정보를 전하는 것이 아니라, 정보의 중요도 평가라는 중요한 역활을 수행한다. 시냅스의 크기를 변화시킴으로써 들어온 정보를 어느정도 다음의 뉴런으로 전할지를 결정하는 것이다.

뉴런에 의한 정보전달은 주로 전기신호이다.  컴퓨터도 전기신호를 주고받음으로써 정보를 처리한다. 그렇다면 뇌속에서 일어나는 정보처리가 컴퓨터속에서도 가능하지 않을까?


그래서 컴퓨터에서 신r경회로를 본터 만든 시스템을 [뉴럴 네트워크]다.  이러한 뉴럴 네트워크를 겹침으로써 만들어진 시스템이 [딥러닝]이다. 딥러닝은 인간의 시각 처럼, 1차, 2차, 3차..시각영역으로 정보가 전달됨으로써 복잡한 특징을 얻듯이, 딥러닝도 이런 메카니즘으로 정보처리를 하게 된다.


2010년까지는 물체의 특징을 어떻게 입수하면 좋을까? 중요도 평가는 어떻게 할까하는 것들을 인공지능이 자동적으로 배우기 위한 학습방법이 탄생하지 않았다. 근년에 이르러 답을 맞히는 방법을 개량하거나 본격적인 기계학습을 하기전에 인공지능을  프리트레이닝 함으로써 효율적인 학습을 할 수 있게 되었다. 인터넷확대와 더불어 사용할 수 있는 화상데이타가 폭발적으로 늘어나 기계학습을 할 수 있게 되었고, 특화된 프로세스(중앙처리장치) 개발이 진햄됨에 따라 인공지능도 극적으로 성능향상이 되었기 때문이다.


딥러닝의 대표적 인공지는이 알파고다. 알파고 Zero가 종래의 알파고보다 강해졌다., 강화학습을 통해, 인공지능 스스로가 시행착오를 하면서 최적의 해답을 구하는 것이다. 알파고 Zero는 과거의 데이타를 사용하지 않고 강해졌다는 것이다. 이 결과는 이미 인공지능이 인류의 손을 떠나 진화를 계속하는 것을 시사한다고 할 수 있다.


지금까지의 딥러닝은 주로 정지화상같이 시간의 흐름이 수반하지 않는  정적인 정보에 대해 사용하였다. 그러나 동영상처럼, 앞으로의 전개를 예측할 필요가 있는  경우, 종래의 딥러닝을 사용할 수가 없다.


최근에는 [리커런트 뉴럴네트워크(RNN, Recurrent Neural Newwork) 기술]이 주목받고 있다. 현재 시각정보를 처리할 때, 조금 전의 시각의 정보와 통합한 뒤에 출력하는 것을 의미한다. 조금전의 자신의 상태에서 배우는 메카니즘이라 할 수 있다. 우리 뇌속에서 시각정보가 1차시각영역, 2차시각영역, 그리고 고차시각영역으로 전해지는 한편, 고차영역에서 1차영역으로 역류하는 시각 정보도 있다.  이것은 앞서 전해진 정보와 나중에 온 정보를 통합함으로써 물체의 움직임을 보정해, 정화하게 파악하기 위한 것이라 생각된다. 이 정보의 역류를 인공지능에 탑재한 기술이 RNN기술이라 할 수 있다.


<딥러닝 인공지능의 한계와 미래>


미래를 예측하는 기술은 가까이는 자동차 운전사고를 미연에 방지할 수 있다. 대뇌피질은 사고나 추리, 기억등 고도의 작용을 맏고 있다. 대뇌피질에서 이루어지는 이런 정보처리는 아직까지 수수께끼가 많으며, 이 수수께끼를 규명함으로써, 화상처리 뿐만아니라, 여러가지 고차적 기능을 인공적으로 재현 할 수 있으리라 생각된다.. 딥러닝의 진화가 계속 주목받을 것이다.


인공지능이 동작과 말을 이해하고 사회로 진출할 것이다.  인공지능이 [시각정보]뿐만아니라 온도, 소리, 냄새등 복수의 감각정보를 사용해서 [개념]을 만들어 내고, 이런 정보들을 조합해서 [추상적 개념을 이해]하게 된다는 것이다. 그다음 단계로는 [동작에 관한 개념을 획득하는 것]이라 한다.  스스로  [행동하는 로봇이 현실세게에서 여러 경험을 쌓아가면 행동을 통한 추상적 개념을 획득할 수 있다] 이런 감각은 인간과 함께 살면서 가사나 간병을 맡을 로봇에게 필 수적이다


이런 능력보다 더 어려운 것이 [말을 이해하는 능력이다] 현재 음성인식, 자동번역등 언어에 관한 기술은 상당히 진척되었지만, 아직 인간과 마찬가지로 이해하는 것은 아니다. 말을 이해할 수 있으면 [인터넷 정보등에서 지식과 상식을 습득]하게 된다.


그외도 [놓치는 암세포를 인공지능 의사가 잡아낸다]. 암세포의 특징을 정의하기 어렵다. 암세포의 모양은 다양하기 때문에 그 특징을 정의하기 어렵다. 인공지능에게, 정상세포란 무엇인가? 정상세포가 갖추어야 할 특징을 추출  수치화하게 하고, 정상상태를 학습시켜, 그 차이를 계산하여 이상한 암세포를 찾아낸다.


딥러닝은 인간의 번역문에서 배움으로써 번역이 자연스러워지고, 사람의 번역에 가까운 제대로 된 번역을 할 수 있다. 지금은 낱말의 변환과 배열방식이 나아져서, 한문장단위의 번역만 가능하다. 아직은 인공지능이 인간의 문장속에 들어 있는 [문맥과 행간을 이해]할 수없다.  인공지능이 이를 가능하게 하기 위해서는  아직 연구의 축적이 필요하다.


딥러닝을 사용하는  현재의 인공지능은 한계가 있다. 알파고가 아무리 바둑에 강해도 장기나 체스를 둘 수 없는 것처럼, 특정분야에 높은 능력을 발휘해도(하나의 분야에 특화되어도), 다른 분야에 응용할 수 없다(법용적이 아니다)

<범용 인공지능 >



인간의 뇌는 인식과 행동,에 관계되는 여러가지 기능을 담당하는 대뇌 신피질, 기억형성을 담당하는 해마등 여러부위로 구성되어 있다. 그들 부위가 정보를 주고 받으면서 뇌전체(아키텍쳐)로서 기능을 발휘한다. 대뇌 기저핵이나 신피질외에 운동에 관계하는 소뇌에 해당하는 인공지능개발은 비교적 진척이 있으나, 해마에 해당하는 것이나, 전체를 통합하는 인공지능 개발은 늦어졌다고 한다.


앞으로 뇌구조 전체를 본뜸으로써 하나의 분야에 특화된 것이 아니라, 여러분야의 일을 배우는 범용적 능력을 가진 인공지능이 가능하리라 생각 된다.


최근의 인공지능은 특정문제에 따라 인간이 모듈을 조합시켜, 인공지능을 설계한다. 즉 그 문제밖에 풀지 못하는 설계인 셈이다. 그외 비하여, 뇌전체 아키텍츠가 목표로 하는  [범용인공지능]은  우리뇌가 평소에 하는 것처럼, 필요에 따라 복수의 모듈을 자동으로 조합시키는 것을 목표로한다. 임기응변으로 자기자신의 설계(프로그램)을 바꿈으로써 유연하게 해결할 수 있다는 뜻이다.


현재의 개발 상황으로 볼때,  인간과 같은 정도의 능력을 가진 인공지능은 2030년 무릅에 완성될 것으로 보고 있다. 미지의 상항에 대처하는 능력을 가진 범용 인공지능은 인간을 대신헤서, 재해구조로봇이나 행성 탐사선 등에도 이용될 것으로 기대된다.


또, 인공지능이 진화하면 암의 특효약이나, 만물이론을 만든다고 생각한다. 범용인공지능이 개발되면, 인류가 오랫동안 해결하지 못한 과학의 어려운 문제에 대한 해답을 줄것으로 기대한다. 암이나 알츠하이머의 발병 메카니즘과 특효약 개발이 될 수도 있고, 상대성이론과 양자역학을 통합하는 이른바 '만물의 이론Theory of every thing)'이 완성될 가능성도 제기 된다.


기후변동이나 지역분쟁등 여러가지 이해가 엃힌 지구규모의 문제에 대해 고성능 인공지능이 해결책을 제시해줄 것으로도 기대된다.


<인공지능의 부작용>


인공지능이 공격받는 것을 인간은 깨닫지 못한다?


인공지능 기술은 컴퓨터 시스템이기 때문에, 윤리관도 없고 악의도 없다. 악용하는 것은 인간이다. 인공지능이 사회에 널리 사용되면, 악의를 가진 인간으로 부터 인공지능을 지키기 위한 기술이 필요해진다. 에를들어, 자동운전의 예로서, 인공지능은 주위상황을 카메라로 인식하면서 자동차를 움직이는 데, 자동운전차의 카메라를 향해, 악의를 가진 인간이 이를 왜곡하도록 화상이 보이도록 멀리서부터 조작하였다하자, 이에 따라 인공지능은 급제동이나 급히 핸들을 꺾어야하는 일이 발생할 것이다.


인공지능이 공평성.공정성을 갖게해서 그릇된 판단을 하지않도록 하는 일도 넓은 의미의 인공지능보안의 일종이다. 인공지능의 판단이 공정하다는 것을 외부에서 확인해 보증하는 기술에 대해서도 연구가 진행중이다.


딥러닝등 매우 복잡한 처리기술을 사용해서 인공지능이 내린 판단은 인간이 그 판단한 이유를 이해하기 어렵다. 그래서 인공지능이 악의를 가진 조직의 조작으로 이루어져 있어도 판단 결과가 외부조작에 의해 변화된 것인지, 원래 그런 판단을 한 것인지 알기 어렵다. 공격이 있을 경우, 그 사실을 매우 정확하게 발견하는 일은 인공지능 보안에 관한 커다란 과제이다.


앞으로 인공지능이 널리 사용되는 시대가 되면. 개인정보가 위협받는 사태도 늘어날 것이다. 이를 테면,  유전정보를 통한 장래 걸리기 쉬운 병이나 예방하기 위한 생활지도를 정확하게 해줄 것이지만, 유전정보나 질병이력은 철저히 보호되어야 할 개인정보중 하나이다. 의료데이타의 활용과 개인의 프라이버시는 어떻게 양립시킬 수 있을 것인가.


인공지능은 인류의 친구가 될 것인가?


범용 인공지능은 미지의 상황에 대해 가설을 세우는(가설을 생성하는) 능력을 가진 능력을 가져, 가설을 세우고 스스로 실험하고, 그 결과확인 작업을 거듭함으로써, 사람의 손을 빌리지 않고, 과학기술이 발전해갈 것이다. 인공지능이 자기자신에 대해, 그 작업을 개량하면서, 개량을 거듭하면, 인공지능 자신이 스스로 진화할 수 있다.


인공지능이 자기스스로 맹렬한 진화를 계속하면, 인간의 지능을 따라잡고, 마침내는 그 너머의 변화를 내다볼 수 없는 단계까지 진화 할 것이라는 설도 있다. 그때가 되면 인터넷으로 연결된 인간의 뇌와 인공지능의 융합으로 현재의 인류의 지능은 10억배 이상으로 확장된다. 비약적인 지능의 향상으로 기술이나 사회변화를 예측할 수 상태에 이르게 된다.


이렇게 예측불능이 되는 상황을 싱귤래리티(singularity)라고도 한다. 싱율레리티는 기술의 특이점이라 번역된다.


미국의 인공지능 전문가인 커즈와일 박사는 2030년경이면 모든 분야에서 인공지능이 인간의 지능을 웃돌고, 2045년 경이적인 능력을 가진 인공지능에 의해, 과학기술의 진보와 사회변화가 맹렬하게 빨라져 인류가 예측할 수 없는 상황에 이른다고 예언한다.


그런 미래가 올지는 연구자들사이에도 의견이 갈라진다. 즉, 자기자신을 진화시킬 인공지능, 싱귤래리티에 도달하는 것 같은 인공지능은 아직 존재하는 기술이나 이론이 필요한데, 불과 수십년안에 싱귤레리티가 온다는 설에 부정적인 의견을 내는 인공지능 연구자도 적지않다고 한다. 어떤 연구자는 그보다 훨씬 짧은 시간에 올 가능 성이 있다고 생각한다. 일단 자기 개량능력을 가진 인공지능이 완성되면 그 후 경이적인 진화속도를 보일 것이라 생각하기 때문이다.


강한 인공지능의 개발은 개발자가 부를 독점하는 문제와 인공지능의 폭주가 우려된다.


자신을 맹렬한 속도로 진하시키는 인공지능이 등장하면, 두번째이후의 인공진능은 결코 쫒아가지 못할 가능성이 있어 첫째번 인공지능의 개발자만, 부를 독점할 가능성이 있다는 것이다. 


초고속인공지능의 폭주는 인간이 막을 수 없다.


인공지능의 폭주를 막을 수 있는 것은 인공지능밖에 없을 것이라 한다. 인공지능으로 인공지능을 감시하는 기술개발의 속도가 느린 것이 현실이라 우려한다.


인공지능이 인간의 일을 거들어주다가, 인간의 일을 빼앗는 것으로 이어져, 어떤 일을 인공지능에세 빼앗기고, 어떤 일이 인간에 남을지 여러가지 의견이 나오고 있다.


<아실로마의 인공지능23원칙>


이제부터라도 인류에 도움이 되는 인공지능을 개발하자.


2017년 1월 미국의 아실로마에서 많은 인공지능 연구가들이 회의를 열고, 인공지능을 개발할때 지켜야 할 원칙 23(아래)이 발표되었다.

●연구 과제

1) 연구목표 : 연구의 목표가 되는 인공지능은 무질서한 지능이 아니라 유익한 지능이 되어야 한다.

2) 연구자금 : 컴퓨터공학뿐만 아니라, 경제, 법, 윤리 및 사회학의 어려운 질문을 내포하는, 유익한 인공지능 연구에도 투자하여야 한다.

3) 과학과 정책의 제휴 : AI 연구자와 정책 입안자간에 건설적이고 건전한 교류가 있어야 합니다.

4) 연구 문화 :AI 의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 합니다.

5)경쟁의 회피: AI 시스템을 개발하는 팀들은 안전 기준에 대한 질낮은 해결책을 피하기 위해 적극적으로 협력해야 합니다.

●윤리와 가치 

6) 안전성 : AI 시스템은 작동 수명 전반에 걸쳐 안전하고 안정적이어야 하며, 적용과 실현이 가능하다면  검증 할 수 있어야 한다.

7) 장애의 투명성: AI 시스템이 해를 입히는 경우 그 이유를 확인할 수 있어야 한다.

8) 사법의 투명성 : 사법 결정에 있어 자동화된 시스템이 개입할 경우,  권한있는 인간 기관이 감사할 수 있는  충분한 설명을 제공해야 한다.

9) 책임: 고도의 AI 시스템의 설계자와 제조자는  그것의 사용, 오용 및 행위의 도덕적 함의에 있어서,  그것을 형성할 책임과 기회가 있는 이해관계자이다.

10) 가치관의 조화 : 고도로 자율적인 AI 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 반드시 일치하도록 설계되어야 한다.

11) 인간의 가치관: AI 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상과 양립할 수 있도록 설계되고 운영되어야 한다.

12) 개인 프라이버시 : AI 시스템이 개인정보 데이터를 분석하고 활용할 수 있는 경우, 사람들은 자신이 생성한 데이터에 접근해 관리 및 제어할 권리를 가져야 한다.

13) 자유와 프라이버시 :개인정보에 대한 AI 의 적용이 사람들의 실제 또는 인지된 자유를 부당하게 침해해서는 안된다.

14) 이익 공유 : AI  기술은 가능한 많은 사람들에게 혜택을 주고 역량을 강화해야 한다.

15) 번영의 공유 : AI에 의해 만들어진 경제적 번영은 모든 인류에게 이익이 되도록 널리 공유되어야 한다.

16) 인간에 의한 통제 : 인간은실현하고자 하는 목적의 달성을 위해, 그방법과 그 이전에 판단을 맡길지 아닐지에 대한 판단은 인간이 해야 한다.

17) 비파괴 : 고도의 AI 시스템이 초래할 제어의 힘은 기존의 건전한 사회의 기반이 된 사회적 프로세스를 존중한 형태에 개선에 이바지 해야하면, 기존 프로세스를 뒤집는 것이여서는 안된다.

18) AI를 이용한 군비확장의 경쟁: 자율형 치사 병기의 군비확장 경쟁은  피해야 한다.

●장기적 과제

19) 능력에 대한 경계 : 의견일치가 없으면, 미래 AI가 가질 수 있는 능력의 상한선에 대한 강한 가정은 피해야 한다.

20) 중요성 : 고도의 인공지능은  지구 생명체의 역사에서 중대한 변화를 초래할  수 있으며, 상응하는 배려나 자원을 통해 계획되고 관리되어야 한다.

21) 위험성 : AI 시스템에 의해 인류의 괴멸 또는 절멸시킬 수 있는  위험에 대해서는 각각의 정도에 따른, 위험완화 노력을 계획적으로 해야한다.

22)스스로 자기개선을 하는 인공지능 : 스스로 자기개선 또는 자기복제를 할 수 있는 인공지능 진보나 증식이 급진할 수 있기 때문에, 안전관리를 엄격히 해야 한다.

23) 공익 : 초지능은  널리 공유하는 윤리적 이상을 위해, 그리고 특정조직이 아니라 전 인류의 이익을 위해 개발되어야 한다




'과학기술' 카테고리의 다른 글

이미지 센서/DSLR등 전자소자 및 용어  (0) 2019.03.14
BMW 화재원인 발표  (0) 2018.12.24
현대수학 7대 난제  (0) 2018.01.11
푸앵카레의 추측과 페렐만의 증명  (0) 2018.01.11
4차원이야기  (0) 2018.01.03

댓글