안민하 기자

언젠가 인공지능이 인류를 지배할지도 모른다는 막연한 불안감은 꽤 보편적인 것이 됐다. 이미 다양한 분야에서 인공지능이 기존 인간의 역할을 대신하고 있는 현재, 모든 분야에서 인간을 초월한 초인공지능이 등장하는 순간 인류는 언제까지고 ‘가장 고등한 존재’가 될 수 없기 때문이다.  

인공지능은 문자 그대로 인공적으로 만든 지능으로 사고, 학습 등 인간의 지적 능력으로 가능한 것들을 컴퓨터가 모방할 수 있도록 한 것을 말한다. 가장 친근한 예시로는 바둑 인공지능 프로그램 ‘알파고’가 있다.

제아무리 연산이 빠른 인공지능이라도 경우의 수가 많은 바둑 경기에서만큼은 인간을 이길 리 없다 생각하던 사람들은 알파고가 대한민국 최고의 기수 이세돌을 4-1로 꺾자 충격에 빠졌다. 그 충격은 인공지능이 인간을 추월했다는 두려움 혹은 불쾌감으로 이어졌다. 불유쾌함을 느끼면서도 인간이 인공지능을 발전시키고자 하는 이유는 뭘까?

“컴퓨터가 사람을 이기면 어떻고 안 이기면 어떻습니까. 이세돌을 이기는 컴퓨터가 나오면 어떻고, 안 이기면 무슨 도움이 됩니까?”

최근 대전 한밭도서관에서 열린 한 인문학 강의에서 채석용 대전대학교 교수가 한 말이다. 사람은 욕망 때문에 새로운 것, 인공지능을 개발하고자 하는 것이라 그는 설명했다. 

일례로 AI 기술을 통해 만들어진 가상모델 ‘로지’는 출연료를 지급할 필요도, 사회적 물의를 빚을 만한 문제를 일으킬 염려도 없다. 또 모든 의학정보를 담은 의료용 로봇이 나온다면 인간 기억력의 한계가 낳는 실수들도 방지할 수 있다. 사익을 위해서건, 공익을 위해서건 인간이 인간을 위해 인공지능을 만든다는 점 하나는 확실하다. 

그러나 임계점에 달한 인공지능의 개발은 윤리의 문제에 반드시 부딪히게 된다. 자율주행 자동차의 윤리 문제를 보자. 직진 시 다수를 치게 되지만 방향을 꺾을 시 한 명만을 칠 수 있다. 직진 시 보행자를 치게 되나 급격히 방향을 바꿀 시 운전자 1명만 피해를 입는다. 직진 시 여러 사람이 죽거나 다치고 급격히 방향을 틀 경우 차에 탄 본인만 피해를 입는다. 이 경우 자율주행 자동차가 어떤 판단을 내리도록 프로그래밍하는 것이 옳을까? 이것이 인공지능에 관해 단순히 효율성만 따져서는 안 되는 이유다. 

채석용 대전대학교 교수가 '철학으로 미래를 이야기하다' 강연을 진행하고 있다. 안민하 기자
채석용 대전대학교 교수가 '철학으로 미래를 이야기하다' 강연을 진행하고 있다. 안민하 기자

인공지능이 인간의 가치에 등급을 매기게 된다면, 다시 말해 인간의 목숨을 저울질하게 된다면 얼마나 끔찍한 일이 벌어질까. 채 교수는 우리가 개를 위해 시키는 것들을 개들이 이해하지 못하듯 인공지능이 인간들에게 방법을 제시할 때 그게 인간의 전통적 사고방식이나 윤리에 부합하지 않는 경우가 생긴다면 문제가 발생한다고 봤다. 더 나아가 인공지능이 인간의 말을 듣는 것이 도움이 우리가 개를 길들이듯 인간을 지배하려 들 수도 있다는 것이다. 지금까지의 사례들을 봤을 때 아주 현실과 유리된 이야기는 아닌 듯하다. 

방법은 인공지능에게 인간을 이해시키는 것이다. 간단하지만 쉽지는 않은 일이다. 인간도 정규 교육과정과 수년 동안의 사회화를 통해 규율과 상식을 습득하는 마당에 인공지능에게 윤리를 단기간 만에 올바르게 발아시키는 것이 가능할까? 설령 성공한다 해도 학습시킨 윤리가 절대적으로 옳다고 단언할 수 있을까? 결국 인공지능의 개발은 딜레마와 함께 나아갈 수밖에 없는 문제인 것이다. 

더 나아간 미래에는 인공지능과 인간의 경계가 흐릿해지는 지점이 올 것이란 의견도 있다. 기계가 인간의 신체를 대신하고 기계가 인간의 감정을 학습할 날이 올 것이란 전망이 존재하기에 그렇다. 결국 인공지능을 이해하려면, 또 인공지능을 이해시켜 문제없는 상호작용을 이어가고자 한다면 인간의 윤리가 무엇인지 고민할 수밖에 없다는 점이 아이러니하다. 어쨌거나 윤리학자만큼은 기술의 발전에 밥그릇을 빼앗길 일은 없을 듯하다.

저작권자 © 뉴스앤북 무단전재 및 재배포 금지