인간의 삶을 바꾼 AI. 하지만 AI가 포스트휴먼의 도우미가 아니라 주인이 된다면 인간은 결국 AI의 종속물로 자리 잡는 꼴이다. 잘못 설계된 AI의 손을 잡은 포스트휴먼이 괴물로 변태하지 않으려면 어떻게 해야 하나. AI의 잘못은 누가 단죄할 수 있을까. 인간이 만든 AI가 인간을 잡아먹지 않는 세상을 기대한다.
앞선 장에서 살펴봤듯 AI는 인간의 삶을 획기적으로 바꿔놓았다. 컴퓨터 연산을 바탕으로 한 정확성, 이를 통해 한 치의 오차도 없을 거란 기대가 포스트 휴먼의 길잡이 역할로 AI를 선택했다.
하지만 AI의 뼈대를 만드는 것은 아직까지 인간이다. 사람이 '편견'을 갖듯 인간이 만드는 AI도 생각처럼 완전무결하지는 않다. 파죽지세를 올리던 알파고가 이세돌에게 한 판을 내줬던 2016년. 그 한 판이 주는 의미는 생각보다 크다. 통계를 바탕으로 수억개의 상황을 연습했을 알파고. 하지만 이세돌이 생각지 못한 수를 던졌을 때, 철옹성 같던 알파고도 '멘붕'이 왔다. 사람이었으면 임기응변으로 버텼겠지만 '이긴다'가 절대 목표였던 알파고에게 '예상치 못한 상황에 돌을 던진다'는 선택지 말고 다른 옵션은 없었다. 바꿔 말하자면 승리를 추구한다는 프로그래밍이 장애물을 만나니 포기라는 결과를 낳고 말았다.
시계를 지금으로 돌려볼까. 코로나19가 덮친 탓에 취업문은 더 좁아진 상황. 감염을 막기 위한 비대면 채용 프로세스로 도입된 AI 면접은 더 이상 낯선 풍경이 아니다. AI 면접관이 지원 서류를 기계적으로 평가하고 인간 면접관의 ‘시선’을 대신한다. 프로그래밍된 인재상을 바탕으로 지원자가 보낸 소개 영상에 담긴 표정, 음성, 몸짓, 사소한 버릇을 분석한다.
많은 사람이 AI는 가치 중립적이라고 생각하지만 그렇지 않다. 규칙 기반의 AI는 그 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다. ... 그래서 AI 시스템이 차별하지 않는지, 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다. 어떻게 그런 판단을 했는지 들여다보고, 분석해보지 않고 'AI 시스템이니까 중립적'이라고 답하는 것은 잘못된 이야기. — 다음 창업자 이재웅 전 쏘카 대표
2014년 아마존은 지난 10년 동안 제출된 이력서를 바탕으로 개발된 알고리즘을 통해 AI 채용을 진행했다. 결론적으로 이 선택은 실패했다. 이전 구직자 대부분이 남성이었고, 여성의 능력을 제대로 판단할 수 있는 데이터는 부족했다. 이 데이터로 만든 평가 알고리즘을 벗어난 여성 구직자들은 불이익을 받았다. 지금 아마존은 AI를 통한 채용을 중단한 상태다.
IBM은 안면인식 사업에서 손을 떼고 있다. 인종차별적 도구로 쓰일 것을 걱정해서다. 아마존을 비롯해 IBM의 안면인식 기술도 백인 남성을 식별하는 데는 괜찮지만 동양인이나 라틴계, 흑인 등 백인이 아닌 인종이나 여성 식별 능력은 떨어지는 것으로 전해졌다.
혹여 백인 남성이 이 AI를 설계했다면 설명이 더 쉬울까. 의도적이든 무의식적이든 백인 남성에게 최적화된 정보를 AI에 심었을 가능성이 크다. 인간이 입력한 정보가 비뚤어진 게 잘못이지 AI는 이를 빠르게 계산해 전달한 죄밖에 없다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 IBM이 더는 안면인식 소프트웨어를 제공하지 않을 것이라고 했다.
그럼 AI에게 양보해서는 안 되는 인간만의 가치는 무엇일까. 그리고 지켜야 하는 가치는 무엇일까. 이를 지키고자 편향성을 '無'로 만드는 게 답일까.
첫 번째 답은 '윤리', 두 번째 답은 '아니오'일 것 같다. 첫 번째 답 부연을 먼저 하자면 포스트휴먼. 여기서 휴먼이 빠져서는 안 된다. 사람이 짐승과 구별되는 건 도덕이라는 장치가 있어서다. 사람은 햄스터처럼 부모를 잡아먹지 않는다. 어려운 사람을 돕는 연민이 있다. 관계를 생각하는 감정이 있다. 인륜(人倫)이라는 단어를 보자. 사람이 사람으로서 걸어야 할 길을 뜻하는 이 단어의 '륜'은 윤리(倫理)에 쓰이는 '윤'과 같은 말이다. 반인륜적인 행동이 지탄받는 것처럼 윤리적이지 못한 AI도 비판받아야 한다.
한국과학기술원(KAIST) 4차산업혁명정책센터가 펴낸 '인공지능의 윤리·정책·사회·이슈' 보고서는 "인공지능의 작동으로 인간사회가 위협받는 일이 없어야 한다는 점을 공고히 할 필요가 있다"고 제언했다. 그러면서 "인공지능 윤리의 출발점은 사회 구성원들이 인식하는 당위성이 돼야 한다"고 했다.
도덕성은 지역이나 나이, 성별, 인종 등 인간이 놓여있는 위치마다 다르다. 식인(食人)은 반인륜적인 행위지만 어떤 원주민에게는 오래 지켜 내려온 문화일 수도 있다. 여건에 따른 상대성이 있어 맞고 틀리다로 양분할 수 없는 게 도덕성이다.
하지만 AI라면 알고리즘 설계로 어떤 기대치를 설정할 수 있다. 일종의 '선한 편향성'이다. 개발 단계부터 윤리 규범을 정해놓고 설계하면 혹시 모를 AI의 오용 가능성을 줄일 수 있다. 보고서는 "인간의 존엄성이나 완전성 그리고 자유를 침해해서는 아니 되고, 사적 영역(privacy)을 보호하며 문화와 성적 다양성을 존중하고 인권 침해가 되지 않도록 노력하라고 명령하는 것이 보다 더 명확한 인공지능 윤리"라고 짚는다. 다시 말하면 상식에 반하는 반인륜적인 범죄나 만행이 손가락질받듯 사람이 설계하는 AI도 윤리를 지켜내야 한다는 이야기다.
그래도 AI가 잘못 설계돼 윤리를 지켜내지 못하면 어떻게 해야 하나. 혼쭐을 내서 바로잡을까. 사실상 불가능한 이야기다. 만약 AI가 문제를 일으키면 누구를 비난해야 하나. 그리고 어디서부터 고쳐나가야 할까. 여기서도 주체는 사람이다.
법학에는 '법인격'이라는 개념이 있다. 사전적 뜻은 '권리와 의무의 주체가 될 수 있는 능력'이다. 법적으로 민형사상 책임을 지우기 위해서는 자연인이나 법인 같은 법인격이 있어야 한다. AI 로봇이 사람을 죽였다? 아님 사람한테 손해를 끼쳤다? 그래도 AI는 법인격체가 아니라서 감옥에 가둘 수도, 손해배상을 청구할 수도 없다.
논란이 됐던 이루다를 예로 들어볼까. 한 스타트업이 출시한 AI 챗봇 이루다는 스무살 여성으로 설정된 챗봇 '루다'가 동성애나 성차별, 장애인 혐오를 학습한 것으로 보이는 문제가 나와 서비스가 중단됐다. 근데 이건 루다의 잘못일까. 폭탄은 또 누가 맞을까.
서비스가 중단돼 손해를 본 곳은 제작사다. 여론의 포화도 회사가 맞았다. 이루다는 개인의 SNS 메신저 대화를 데이터로 사용했다. 입력된 정보를 바탕으로 말했다고 루다를 혼낼 순 없다. 배운 대로 말한 것뿐이다. 결국 책임은 사람에게 돌아간다. 루다는 죄가 없다.
사람도 억울할 수 있다고? 인간사에서도 실수를 하는데 이를 100% 완벽하게 AI에 심어놓을 수도 없는 건 맞다. 하지만 노력은 해봐야 한다. 그리고 노력하다 잘못했으면 책임을 져야 한다. 인간에게는 법인격이 주어졌고 의무의 주체가 되기 때문이다.
예컨대 사과로 만든 애플파이를 먹고 식중독에 걸렸다 치자. 사과가 썩어서 그랬다면 빵집 사장은 뭐라 말할까. 애플파이를 만들 때 썩은 사과밖에 없어서 이를 바로 구워냈다고 할까. 바로 또라이 취급을 받을 테다. 적어도 "신선한 사과라고 생각했는데 제가 찾아내지 못한 상한 부분이 있었습니다. 죄송합니다"라고 말해야 도리다.
중요한 건 죄송하다고 말하는 게 사과가 아닌 사람이라는 점이다. 데이터 자체가 아니라 이를 만들어낸 사람이 책임을 지는 것처럼 말이다. AI의 가치는 결국 사람이 만든다. 이재웅 전 대표의 말처럼 사람의 생각이 반영될 수밖에 없는 만큼 편향 없는 데이터를 잘 가공해 AI에 밀어 넣어야 한다.
AI로 인해 일어난 문제에 책임 소재를 묻는 논의는 현재진행형이다. 우리나라 정부는 AI가 문제를 일으켰을 때 책임을 지울 수 있도록 법체계 개편을 검토하고 있다. AI가 일으킨 손해나 범죄에 대해 구제가 가능하도록 법을 고치고 행정처분 조항 신설 여부 등도 2023년까지 함께 검토하기로 했다.
앞서 실제 페널티를 물린 사례도 있다. 공정거래위원회는 네이버가 쇼핑·동영상 검색 알고리즘을 조작했다는 이유로 267억원의 과징금을 물렸다. 자사 플랫폼인 스마트스토어 상품을 위로 올리거나 네이버 TV테마관에 입점한 동영상에 가점을 줘 사람들의 믿음을 깼다는 것이다. 공정거래위는 앞으로 전자상거래법을 고쳐 쿠팡이나 네이버쇼핑 같은 온라인 거래 플랫폼의 상품 추천 알고리즘을 공개하기로 했다. 사람(운영사)에 책임을 지워 조금씩이나마 올바른 AI 사용에 가까워지고 있다.
IBM은 지난 2월 3대 AI 개발 준칙을 발표했다. ▲비즈니스 언어를 이해하는 AI ▲AI로 자동화 체계 구축 ▲투명하고 설명가능한 AI가 골자다. IBM은 AI를 개발할 때 사람을 대체하기보다는 보완하는 데 초점을 맞추기로 했다. AI의 행동을 인간이 예측할 수 있어야 한다는 거다. 세스도브린 IBM 부사장은 "(개발사는) AI에 내재한 편견을 감지할 능력, 위험을 인지할 능력, 편견을 개선해 더 정확한 결과를 도출할 능력이 필요하다"고 말했다.
공정거래위로부터 과징금을 먹었던 네이버도 'AI 윤리 준칙'을 공개했다. 네이버가 AI를 활용할 때 지킬 5가지 원칙은 ▲사람을 위한 AI개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호와 정보보안이다.
가장 눈에 띄는 건 사람을 위한 개발과 다양성의 존중 파트다. 네이버는 "AI가 우리의 삶을 편리하게 만들어줄 수 있는 기술이지만, 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고 있다"며 AI를 개발할 때 인간 중심의 가치를 최우선에 둔다고 했다. 또 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용하겠다는 게 이들의 주장이다. 알고리즘 조작으로 페널티를 받았던 이들이지만 역설적으로 사람을 괴롭히니(과징금 부과) AI가 바뀌는 결과로 이어진 셈이다.
알파고 이야기를 다시 해볼까. 데이터로 메꾸지 못하는 장애물을 만났을 때 알파고는 돌을 던졌다. 여기서 빠진 변수가 하나가 있다. 바로 '목표'다. 알파고는 1920개의 CPU와 280개의 그래픽 프로세서를 돌리며 열을 뿜었지만 '아름다운 바둑'을 펼쳤다는 평가는 받지 못한다. 승리가 절대 목표로 잡혀 있어서였다. 만약 재미있는 바둑을 펼치겠다거나 지더라도 자신만의 수를 놓는다는 식으로 프로그래밍됐다면 다른 기보가 펼쳐졌을 테다.
이를 AI로 가져와 보면 사람이 알고리즘을 설계할 때 어떻게 목표를 설정하느냐에 따라 생존만 추구하는 '냉혈한’이 될 수도 있고, 윤리적인 '성자'가 될 수도 있다. AI가 보급되면 보급될수록 삶의 패러다임도 바뀐다. 역설적으로 사람의 잘못된 편견이 그대로 데이터화된 알고리즘은 편견을 그대로 프로그래밍된 사회를 만든다. 삶이 편견 속에 갇히게 되는 셈이다.
AI는 인간의 위험은 줄이고, 장점은 살리는 방향으로 개발돼야 한다. 지난해에만 우리나라서 860명의 노동자가 중대재해로 목숨을 잃었다. 반대로 말하면 AI가 '포스트 휴먼에 도움을 준다'는 목표가 흔들리지 않고 제대로 개발된다면 더 많은 사람의 목숨을 살릴 수 있다는 이야기다. AI는 비단 정확하고 편리하게 기능하는 것만이 목표는 아니다. 꼭 필요한 좋은 일을 하는 데 도움이 돼야 하고, 우리는 AI의 주체로서 주도권을 잡아야 한다.
특히 '자기학습'하는 AI를 휘어잡으려는 노력이 필요하다. 200년 전 소설 <프랑켄슈타인>에서 우리는 이미 배웠다. 프랑켄슈타인은 사람의 시체에 생명을 불어넣어 인간의 모습을 본뜬 피조물을 만들었다. 하지만 이 피조물은 흉측한 모습으로 모두에게 버림받았고, 숨어서 다른 가족의 일상을 훔쳐보며 스스로 언어와 인간의 생활양식을 습득했다. 스스로 생각하는 능력을 갖추자 이를 자신을 버린 세상에 '복수'라는 형태로 분출하기 시작했고, 사람들의 목숨을 빼앗기 시작한다.
현재 AI에 이를 대입해보자. 프랑켄슈타인이 만든 괴물은 감정과 행간을 느끼는 AI, 이른바 '감성 컴퓨팅'(Affective Computing)으로 볼 수 있다. 스스로 학습하고 단점을 보완하고 데이터를 분석해 감정을 가진다. 괴물이 스스로 "난 두려움이 없어 강력하다"는 자신감을 내비친 것처럼 감정과 자가발전 능력을 갖춘 AI가 재앙이 되지 말라는 법이 없다.
전쟁은 어떨까. 사람의 목숨을 지키기 위해 표적을 설정하는 무기 체계나 핵시스템처럼 전쟁에 쓰이는 AI를 관리하지 못하면 이를 만든 인간이 표적이 될 수 있다. 냉전은 끝났지만 군축 경쟁은 여전하다. 특히 강인공지능이나 초인공지능의 머리를 인간이 따라가지 못한다면 우리가 공격대상이 되는 일도 일어날 수 있다. 이렇게 잘못된 청출어람이 일어나지 않으려면 더욱 목표가 중요하다.
네이버나 IBM이 밝힌 AI 준칙도 마찬가지다. "이렇게 가르치겠다"는 말보다는 "어떻게 가르쳐왔다"고 공개해야 한다. IBM의 '투명하고 설명가능한 AI', 네이버의 '사람을 위한 AI'란 수사가 거짓일지 핑계일지 어떻게 아나. 핵심은 알고리즘이다. 알고리즘이 영업비밀이라는 업계 반발은 여전하지만 AI를 포스트휴먼을 위해 올바르게 사용하겠다면 투명히 공개해 증명해야 한다. 괴물이 된 후 "우리는 이렇게 알고리즘을 설계했어"라고 말하면 무엇하나. 후회할 땐 늦다.
포스트휴먼은 건강이나 수명, 인지능력, 정서 등과 같은 일반적 능력에서 한 발 더 나가 새로운 기술을 통해 현재를 훨씬 능가하는 능력을 보유한 존재를 말한다. AI가 인간을 지배하는 괴물이 되는 미래는 암울하다. 지금까지 그래왔던 것처럼 포스트휴먼은 AI의 종속물이 돼선 안 된다.
흔히 인성 좋은 인간이 되려면 어릴 때부터 가정교육을 잘 받아야 한다고 말한다. AI도 결국 시작은 인간으로부터 비롯된다. AI를 설계하는 인간은 감정과 도덕성이 있다. AI가 괴물로 변하지 않도록 설계해 AI의 역습을 막아야 한다. 과학의 눈부신 발전이 자살골이 되지 않으려면 AI가 우리를 잡아먹기 전에 먼저 '룰'을 정해야 한다.
전문가들이 강인공지능의 출현 시기로 보는 때는 2050년. 그때까지 우리는 어떤 룰을 만들어야 할까. 편견 없는 데이터 주입? 투명한 알고리즘 공개? 판단은 각자의 몫이지만 이것 하나만은 잊지 말자. 시간은 생각보다 빨리 흐른다. 각종 콘퍼런스에서 나오는 기술 자랑, 아니면 '최초' '최다' '최신'이라는 수사에 현혹되지 말고 얼마나 사람을 위해 만들어진 AI인지 조목조목 뜯어보는 노력, 이 작은 움직임이 진정 포스트휴먼을 돕는 미래 AI 기술을 옳은 방향으로 인도할 수 있다.
대중문화 속 AI는 우리에게 미래의 모습을 알려주는 스포일러 역할을 했다.
1989년작 국산 애니메이션<2020년 우주의 원더키디>에는 날아다니는 자동차가 등장했고, 인간을 돕는 휴머노이드 로봇이 나왔다. 광선총을 핑핑 쏘는 것도 주인공 일행의 일상이었다.
영화 <터미네이터>에서는 아놀드 슈왈제네거가 스마트 글래스로 상대방의 전투력을 측정했고, <마이너리티 리포트>의 톰 크루즈는 허공의 홀로그램에 손을 뻗어 범죄자들의 정보를 추렸다.
대중문화 속에 담긴 4차 산업혁명 기술과 AI는 지금 우리 현실에서 얼마나 구현됐을까. 아직도 미래일까 아니면 이미 현실이 됐을까. 영화는 역시 영화인지 아직 완벽하게 구현된 기술은 없는 듯하다. 그래도 이만큼이 어딘가. 작품 속 소개된 기술의 현재를 들여다본다.
2029년 타임머신을 탄 터미네이터가 1984년의 LA로 보내진다. 터미네이터는 상징과 같은 검은 선글라스를 끼고 상대의 전투력이나 정보를 확인하고 공격한다. 보기만 해도 눈앞에 정보가 펼쳐지는 모습에 30여년 전 관객들은 경악을 금치 못했다. 지금으로 치면 AR(증강현실·Augmented Reality) 기술을 활용한 스마트 글래스다.
지금 스마트 글래스는 여러 종류가 개발됐지만 아직 너른 보급까지는 이뤄지지 않았다. 구글이나 마이크로소프트(MS) 같은 거대 기업이 개발에 뛰어들고 시제품도 만들었지만, 무거운 무게나 뚜렷하지 못한 이미지 구현, 느린 정보전송 속도로 인한 딜레이 등 한계가 있다.
하지만 5G 기술이 상용화되면서 스마트 글래스 기술경쟁이 다시 치열해질 듯하다. 애플이 1~2년 내로 AR 글래스 제품을 내놓을 것으로 알려졌고, 삼성이 만든 제품의 시연영상이 웹에 돌아다니는 등 다시 스마트 글래스 열풍이 불 기세다.
원더키디 하면 가장 먼저 떠오르는 게 '코보트'다. 주인공과 함께하는 휴머노이드 로봇 코보트는 비행선이나 오토바이로 자유롭게 모습을 바꾼다. 하지만 아직 현실은 반 스텝 모자란 것 같다.
지금 로봇 기술은 2족 자율보행이 가능한 정도다. 미국 보스턴 다이내믹스에서 개발한 2족 보행 로봇 '아틀라스'는 가장 인간의 모습에 가까운 모습으로 평가받는다. 울퉁불퉁한 노면을 걷는 게 가능하고 어떤 모델은 앞구르기까지 할 수 있다.
하지만 코보트 같이 하늘과 땅을 자유롭게 거니는 로봇은 조금 기다려야 할 듯하다. 그래도 서빙 로봇이나 로봇 청소기 같이 삶에 도움을 주는 AI 로봇이 등장한 점은 원더키디가 그린 미래와 아주 다르지는 않다. 근데 원더키디는 어디서 만나지?
2002년 개봉작 <마이너리티 리포트>는 예언자가 범죄 장소나 범죄를 저지를 사람을 예측해내는 미래의 모습을 그려냈다. 홍채인식으로 출입문을 열거나 지하철 요금을 내는가 하면 주인공 톰 크루즈가 허공에 홀로그램으로 구현된 정보를 손으로 휙휙 넘기는 모습에 관객들은 열광했다.
영화가 나온 뒤 20년이 흐른 지금 이같은 모습은 어느 정도 현실이 됐다. 은행 ATM이나 스마트폰에 홍채인식 기능이 적용됐다. 특히 홀로그램 디스플레이는 최근 급격한 발전을 이뤘다. 2019년 MS는 MR(혼합현실·Mixed Reality) 헤드셋 '홀로렌즈2'를 출시했다. 하지만 이는 전쟁에서 가장 먼저 효과를 거둘 것으로 보여 우려가 남는다. 미군은 홀로렌즈2를 바탕으로 한 MR 헤드셋을 개발해 군인들에게 씌우기로 했다.
AI는 보통 고도화된 기술개발이나 편리함에 초점을 맞춰 분석돼 왔다. 어떻게 하면 더 정확하고 신박한 분석을 할 것인지, AI가 인간보다 어떻게 더 뛰어난 능력을 보일 수 있을지에 주목한 것. 하지만 이 책은 조금 다르게 '공존'을 이야기한다. 일본에서 주로 활동하는 저자는 AI 정치인을 가져와 희망과 한계를 동시에 이야기한다. AI 정치인은 이해관계에 휘둘리지 않아 공정할 수 있지만 상생이 필요한 게 또 정치라 한계 역시 존재한다는 것. 저자는 AI 가이드라인에 대한 관심, 민주적인 신뢰 관계를 AI가 괴물이 되지 않도록 하는 핵심 열쇠로 꼽는다.
참고한 자료
도서
<인공지능과 어떻게 공존할 것인가>, 고선규 지음, 타커스, 2019.
<계간 문화/과학 105호>, 편집부 지음, 문화과학사, 2021.
보고서
<인공지능의 윤리·정책·사회·이슈>, 양종모, KAIST 4차산업혁명정책센터, 2019.
뉴스
뉴스1
'사람 중심의 인공지능 시대 실현'…정부, AI 법·제도·규제 로드맵 공개
연합뉴스
네이버 "차별 없고 안전한 AI 만들겠다"…AI 윤리 준칙 발표
AI타임스
IBM, 3대 AI개발 준칙 발표... ‘신뢰 가능한 AI’ 화상 브리핑 통해
영상