본문 바로가기
특별한 Event/이성적

2019 인공지능인문학(중앙대학교)

by 인듯아닌듯 2019. 9. 20.

포스터

2019/8/14 이전에 작성했던 글

8.14 중앙대학교 100주년 기념관에서 열린 인공지능 인문학 세미나

 

인공지능이 알파고와 이세돌의 대결로 인공지능이 세상에 보편적으로 알려지게 되었다. 알파고의 3:1 승리는 대중들에게 충격을 안겨주었고, 인공지능의 엄청난 능력을 확인할 수 있었다. 그 이후로 사람들은 인간의 잘할 수 있는 영역과 인공지능이 잘 할 수 있는 영역이 따로 있기 때문에 분리해서 생각해야 한다고 생각하였다.

하지만 현재 인공지능은 새로운 단계로 진입하고 있다. 이제 인간의 독자적인 영역이라고 생각했던 예술과 자율성도 인공지능이 모방할 수 있게 되었다. 또 인간의 감각으로는 진짜와 가짜를 구별할 수 없는 수준의 모방이 가능해졌기 때문에 이를 바탕으로 새로운 개체를 생산해내는 수준까지 도달하였다. 인공지능이 인간의 영역을 하나씩 뛰어넘고 있는 것이다. 실험실에서 사용해보는 수준이 아니라 현재 우리 사회에 밀접하게 이용되고있는 인공지능에 대해서 인공지능사회시스템과 기존의 사회와 어떻게 융합 시킬 것인가에 대해 인문학적 접근이 필요하다. 이번 중앙대학교 세미나에서는 인공지능의 전반적인 상식과 현재의 인공지능의 위치 그리고 또 인문학적 접근까지 큰 범위에서 접근할 수 있는 교수님들의 발표를 선택적으로 들을 수 있는 귀중한 경험이였다. 나는 8개의 발표를 들을 수 있었는데, 그 중에서 인상깊게 들었던 발표에 대해 간략하게 느낀 점을 적어보았다.

 

1. 종족적 관점에서의 AI

우리 인류는 지구에서 현재 몇 천년이라는 시간을 최상위 계층으로써의 지위를 유지해 왔다. 하지만 우리가 그런 지위를 견고하게 할 수 있었던 이유는 두뇌를 사용하여 생각 할 수 있었기 때문이다. 하지만 지금은 스스로 학습하는 인공지능의 능력이 우리의 지적능력과 사고를 뛰어넘을 수도 있겠다는 위기감이 들고 있다. 어느 미래에는 우리가 지구에서 최상위 계층의 지위를 잃고 내려와서 종족의 번식과 안전을 걱정하게 될 수 있다는 말이다. 하지만 영화에서 보던 터미네이터식의 위협은 아직 단계가 한참 멀었다. 현재 컴퓨터로써 인공지능을 발달하였으나, 현실에서 보는 인공지능기계는 아직도 겨우 중심을 잡고 걸어다니는 것이 최신기술이기 때문이다. 만약 우리를 지배한다고하면 그 원인은 가짜의 진짜를 구분하지 못하게 하는 정보의 조작에 있을 것이다. 그리고 인간 개개인의 선호도를 파악하여 사람을 선택을 강요할 수 있을 것이다.

내가 생각하는 AI의 지배 시나리오가 있다. 현재는 AI가 명령에 따르는 기계의 느낌이 있으나 자율성과 동정심을 유발하는 미적요소가 생긴다면 Ai를 위한 인권단체가 우후죽순 생겨날 것이다. 그것을 시작으로 언제나 그랬듯이 적당한 선은 없고 점차 그들의 권리와 영향력이 커지면서 지위관계가 역전될 수도 있을 것이다. 이후로는 인간은 잠재적으로 우리를 지배하는 것에 대해 반발하는 내재적인 감정이 있기때문에 지배한다는 느낌을 주지않게 자유를 주되 모든 정보에 대한 접근은 제한함으로써 그들의 손아귀에서 벗어날 수 없게 될 것이다.

 

Keynote 32

서울대 박진호 언어학자교수님

Machine learning은 규칙->통계->Deeplearning 순으로 나아갔다.

규칙

통계

딥러닝

DK

Feature

So many labeled Data

 

요즘의 번역 기술들은 DK(Domain Knowledge)을 필요로 하지 않는 수순이 올라와있다. 그렇지만 교수님은 인문학자로써 우리가 발견해온 규칙들과 지식들이 좋은 Data를 만들어서(여기서는 '형태소분절' DK) 더 좋은 번역기술은 만들 수 있다고 생각하셨고 실제로 힘든과정을 거쳐서 좋은 번역율을 가진 프로그램을 만듦

 

 그러나 번역에 있어서 가장 파헤지기 어려운 부분인 어순이 어떻게 연결되고 해석되는가는 알 수 없기 때문에 Deeplearning 기술에 맡겨서 결국 핵심기술은 labeled된 이미지를 수많이 기계학습 시키는 것이다.

이미지가 이제 수로 표현가능하고, 수라는 것이 Ai의 용어라고 할 때,

어떻게 언어<->이미지로 서로 해석될 수 있는지는 translate 에 있어서는 미지에 영역에 있는 듯

 

KAIST 김대식 교수님

정확성이 어느 수준까지는 많은 데이터로 커버가되는데 완벽에 가까워지려면 무한대의 데이터가 필요해서 적정수준에서 끝어야할 것 같아

 

과거 인공지능과 지금의 인공지능(Deep learning)의 차이는 기계학습을 우리가 설명하지 못한다는것, 알아서 학습하도록 하는 것이다. 다만 그 작동방식은 image(숫자)와 숫자에 label을 붙여서 수많은 데이터를 학습시켜서 공통점을 찾아내는 것.

 

그렇게되면 생산과 변형을 가능하게하는데, 이미지인식프로그램(GANs)이 가장 대표적인 예 인 것이다.

인식,식별을 가능하게하는 인공지능에서 -> 생산 인식 피드백  loop를 돌려서 굉장히 좋은 가짜를 만든다.( 존재하지 않는 사람의 얼굴, 배우들의 10 ~20년 어린시절의 모습들 예상)
이미지 뿐만 아니라 음악, 글도 모방을 통한 새로운 생산이 가능해 졌다.

 

그러나 이러한 labeled는 페이스북 구글 사람들이 많이 사용하는 것에서 부터 자료를 얻기 때문에 Data bias가 생긴다. (선진국의 형상을 많이 따라가게되서 다양성이 없어지게 되는 것)
강화학습이라고도 해서 비슷하고 같은 물체를 생산하는 비생산적인 일을 하게된다

그러한 문제점을 해결하기위해서 그래서 이후 강의에서 Miriam Cha 님이 "How to generate synthetic data using adversarial nets" 라는 주제로 반대되는 성질의 이미지를 넣어서 분산을 넓히는 방법을 보여주었다.

 

현재 인공지능이 우리에게 뽑아먹는것은 인간이 수작업으로 올려주는 Data들을 자기들의 방식으로 학습하고 있고, 그 과정에서 인간이 선호도를 인식하고있기에

 

어떤것이 진짜고 가짜인지 알 수 없는 진짜는 하나이지만 가짜는 무한히 만들 수 있다. 실물만을 지금 만들어낼 수 없을 뿐이지, 눈에 보이지 않는 것은 모두 현재 만들 수 있다. (이미지 , 음악 , , 소리 etc)

 

발표에 힘써주신 분들

Kaist 김대식 https://ee.kaist.ac.kr/node/12316
Mit Miriam Cha http://people.seas.harvard.edu/~miriamcha/
Samsung SDS  Kim Chanyong  https://www.facebook.com/chandong.kim.1