왜 그렇게 판단했지? 궁금한 ‘인공지능 블랙박스’

본문 작성자뉴스기술서클/장수

“판단의 이유를 자세하게 설명하는 인공지능”이라는 명령어를 입력하자 미드저니가 생성한 이미지.
“판단의 이유를 자세하게 설명하는 인공지능”이라는 명령어를 입력하자 미드저니가 생성한 이미지.

‘딥러닝의 아버지’ 제프리 힌턴은 2018년 12월12일 미국 잡지 ‘와이어드’ 인터뷰에서 폭탄 발언을 했다. 만일 규제당국이 인공지능의 작동 방식을 설명할 수 있어야 한다고 요구한다면 완전한 재앙이 닥칠 것이라는 얘기였다. 힌턴이 보기에 사람들도 자신이 하는 일의 대부분에 대해 제대로 설명할 수 없으니, 인공지능에 설명 가능성을 요구할 이유도 별달리 없고, 인공지능의 작동 결과를 사후적으로 평가해서 얼마나 믿을 만한 것인지를 따지면 족하다고 봤다. 사람 운전자보다 자율주행 인공지능이 사망 사고를 덜 내면, 자율주행 인공지능을 계속 사용하는 식으로 사후에 판단하면 된다는 입장이었다.

‘포브스’는 8일 뒤 이를 반박하는 기사를 보도했다. 인공지능 개발자, 국방 연구 책임자, 글로벌 컨설팅 회사 관계자, 윤리학자 등 8명의 입을 통해서였다. 이들의 논거는 제각각이었지만 인공지능의 설명 가능성을 거부하면 안 된다는 주장만큼은 같았다.

지난해 5월 힌턴은 구글 부사장직을 사임했다. 구글을 떠나기 전 인터뷰에서 그는 인공지능이 가져올 미래에 대한 생각이 정반대로 바뀌었고, 발전 속도가 너무 빠르기 때문에 두렵다고 했다. 나아가 화학무기금지협약 같은 국제적 조처를 언급하기도 했다. 5년 사이에 규제에 대한 생각이 뒤집힌 것이다. 종종 위대한 과학기술자들도 대책 없이 빗나간 주장을 펼치는 안타까운 일이 벌어지기도 한다. 힌턴도 그런 현상의 희생자인지는 미래에나 판별 나겠지만 한가지 분명하게 어긋난 점은 있다. 2010년대 이후 ‘설명 가능한 인공지능’(XAI·eXplainable AI) 기법들이 다양하게 등장하고 있다. 과연 어느 정도나 만족스러운 설명이 궁극적으로 가능할지는 여전히 미지수이지만, 설명 가능한 인공지능에 대한 요구가 재앙을 초래할 것이라는 생각은 찾아보기 힘들게 되었다.

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *