2016년 알파고의 등장으로 ‘인공지능’이라는 개념이 우리 일상 곁에 훨씬 가까이 다가왔다. 이 기술은 구글의 나우와 같은 개인 비서부터 자율주행자동차, 의료, 교통, 물류, 안전, 환경 거의 모든 분야에서 빠르게 확산되고 있다. 또한 차세대 지식정보 사회를 이끌어 갈 새로운 부가가치 창출 분야로 주목받고 있기도 하다. 하지만 긍정적 측면만 있는 것은 아니다. 인공지능 기술이 가져올 부정적 효과도 만만치 않다. 새로운 연재를 통해 인공지능 기술이 우리사회 전반에 미치는 영향에 관해 알아보는 그 네 번째로 AI와 사회o윤리적 문제에 대해 알아본다. (편집자 주)
지금으로부터 2년 전인 2015년 11월 미국 캘리포니아주 팔로알토의 교통경찰은 황당한 경험을 한다. 도로에서 지나치게 저속운행을 하는 자동차를 발견하고 스티커를 발부하기 위해 차를 세웠는데 그 차 안 운전석에는 운전자가 없었기 때문이다. 인류 역사상 최초로 운전자가 없는 자동차에게 스티커를 발부하는 사례가 된 것이다. 당시 이 운전자 없는 무인 자동차가 바로 구글 자동차이다.
만약 무인 자동차가 운행 중 차량의 오작동으로 인한 사고가 발생했을 경우 그 책임 소재를 누구에게 물어야 할까? 현재 우리나라 현행법 체계에서는 ‘사람’과 ‘법인’만을 권리의무의 주체로 하가에 그 행위책임을 묻기 위해서는 어떤 경우에도 ‘사람’의 행위가 있어야만 한다. 따라서 인공지능알고리즘 판단과 제어에 의한 자율 운행 차량의 사고는 그 책임 소재가 불분명하다.
또 다른 경우는 비록 영화 이야기이지만 ‘아이로봇’에서 나왔듯 인간이 만든 인공지능 로봇이 스스로 사고를 하고 그들이 군대화 되어 인간과 전쟁을 하는 상상도 가능하다. 따라서 인공지능이 진화하면 할수록 인공지능을 시스템적인 요소로 선택하고 받아들여 통제하고 권한의 부여 문제는 결국 인공지능을 만든 인간에게 달려있는 것이다. 인공지능의 사회적, 윤리적 문제가 아주 먼 이야기라고 미루고 관망하기보다는 지금부터 이를 대비하는 것이 중요하다는 목소리가 점점 설득력을 높이고 있다.
이유로 규제할 것인가, 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가 등등 고민해야 할 과제들이 한둘이 아니다. 이러한 문제들은 결코 간단하지 않으며 지금의 법 토대하에서는 명쾌하게 답을 낼 수도 없는 예상치 못하던 범주로 법적 해석은 물론 이론적 토대도 거의 없는 수준이다. 로봇의 법적 지위에 대한 의문, 그 행위책임을 묻기 위한 이론적 토대부터 다시 정의해야 하는 사안들이 대부분이다.
이제 때가 되었다. 인공지능의 오작동, 악용, 남용 등으로 인한 문제를 해결하기 위해서는 우선 인공지능의 권한 설정과 결과에 대한 책임 소재 문제 등에 대한 명확히 가이드라인을 만들 필요가 있다. 인공지능에게 인간 사회의 또 다른 구성원으로서의 권한을 부여하고 인간처럼 권한에 따른 책임의 범주를 만들어야 한다.
아직까지는 인공지능 기술이 사람이 생각하는 수준의 자율성 부여가 불가능하기 때문에 어느 정도는 설계한 사람의 통제 하에 있는 상황이다. 하지만 기술 발달로 복잡도와 자율도가 점점 증가하고 활용 범위가 넓어지게 될수록 인간이 인공지능을 통제할 수 있는 수준은 점차 줄어들 것이고 인공지능이 자율적으로 내린 의사결정이 인간에게 해를 끼치는 등의 사회적 안전에 대한 위협은 증대될 수도 있다.
이를 방지하기 위해서는 최초 연구개발 단계에서부터 사회적, 윤리적 가이드라인을 마련해 개발자들에게 명확한 기준을 제시해 주고 기계의 윤리 모듈에 대한 승인과 인증 과정에 대한 법적o제도적 체계를 준비할 필요가 있다. 인공지능 기술의 악용과 오용을 방지하기 위해서 엄격한 법적 장치나 이를 지키지 않았을 때의 처벌 등에 대한 사회적 논의와 합의, 법률 및 제도 연구 등이 마련되어야 할 것이다.
미국의 사베인스 옥슬리(SarbanesOxley) 법은 인공지능 기기의 사용자들을 권익을 보호하기 위한회사경영의 책임과 의무 등을 부여하기 위해 제도적 장치가 마련되어 있는 점을 참조할 필요가 있다.
한편 인공지능이 자율적 판단에 의해 인명의 살상을 결정하고 실행할 수 있는 LAWS 개발에 대한 윤리적 타당성 검토가 필요하다. 또한 이와 관련한 국제 논의 동향 파악과 대응전략 마련에 이르기까지 인간의 존엄성에 대한 침해 가능성과 국가 안보 등에 대한 고려도 필요하다. 더욱이 LAWS는 핵문제처럼 인류에 해를 끼칠 수 있기 때문에 국제적 논의를 통해 규제가 정해질 수 있으며, 화학무기나 집속탄처럼 국제적 사용 금지를 결의할 수도 있을 것이다.
인공지능 기술의 발전과 규범적 대응이 필요한 영역 자율주행 차량, 인공지능형 로봇, 워드스미스(Wordsmith) 등 로봇 저널리즘, 인공지능을 이용하여 정보 비대칭을 줄여주는 비즈니스 모델, 로봇 수술, 개인 맞춤형 투자자산 관리를 하는 로보 어드바이저, 렉스마키나(Lex Machina) 등 인공지능을 이용한 법률 정보 분석 플랫폼은 미래 신산업의 기반기술로 기대감을 높이고 있다. 친근한 사회성을 갖추고 대화를 나누는 감정인식 로봇은 일본에서 선풍적 인기를 끌고 있기도 하다.
인공지능의 적용분야는 스팸 필터링부터 감성 컴퓨팅, 주행 통제, 진료, 상황인식, 전략적 판단, 생명공학 연구 등 다양한데 법적, 윤리적, 규범적 검토란 인공지능 기술의 연구개발을 금지시키거나 강력한 규제가 필요하다.
일부 윤리학자들과 과학자들은 장기적으로 인공지능이 인류의 존속을 위협할 수 있다고 경고하고 있다. 2015년 5월에 게재된 ‘로봇공학: 인공지능의 윤리’는 LAWS(Lethal Autonomous Weapon Systems)를 우려하는 인공지능 선구자 스튜어트 러셀(Stuart Russell)의 주장을 담고 있다. UN 특정재래식 무기의 사용금지 및 제한에 관한 협약(CCW)은 LAWS를 회의 의제로 삼고 있다. 나아가 휴먼라이트워치(HRW) 등이 포함된 단체 ‘스톱킬러로봇’은 사전에 설정된 기준에 따라 목표물을 찾아내 공격하는 살상용 로봇의 개발과 배치o운용에 제동을 걸 수 있는 수단으로 국제 규제를 마련해야 한다고 주장한다.
로봇이 화재 진압용, 재난 구조용으로는 이용될 수 있지만 비용 대비 효율 성과 산업적 유용성만을 중시하여 로봇 인공지능이 군사적 대량 살상 목적으로 사용된다면 인류의 비극이라는 것이다. 자동적으로 살상을 하도록 프로그램된 킬러 로봇이 전장을 누비는 문제는 인권 침해 소지가 있으므로 적절한 시점에서 국제 규범이 성립될 확률이 크지만 그 우려를 인공지능 연구분야 전체로 확대하는 것은 무리가 있다.
스티븐 호킹, 일런 머스크, 빌게이츠, 스튜어트 러셀은 공통적으로 인공지능 발전을 인류안보의 차원에서 접근하고 인공지능의 잠재적 위험을 기후변화, 핵무기와 동일선상에 놓고 있는데 인공 지능 연구개발이 전면화되는 시점에서 인류안보를 잊어서는 안된다는 점을 선언적으로 밝혀둔 것이라고 보는 편이 적절하다. (“인공지능 시대의 법적o윤리적 쟁점” 최은창)
인공지능 개발자들과 인공지능 활용자들이 모두 동의하는 부분은 인간 본위의 사회적 윤리적 문제를 우선하자는 것이다. 그러나 어떤 방식으로 활용이나 금지되어야 하는가를 판단할 수 있는 기준은 아직은 존재하지도, 동의조차 할 수도 없는 것이 현실이다. 하지만 인공지능의 활용과 법을 주제로 삼은 인공지능 공학자, 정책입안자, 법학자들의 논의는 활발하게 이루어 지고 있다. ‘Artificial Intelligence & Law’, ‘We Robot’ 등 국제 컨퍼런스와 법정보학 (legal informatics)에 집중하는 스탠포드 로스쿨의 ‘Code X’ 프로그램에서의 논의 등이 그것이다.
또한 앞서 구글자동차의 경우에서 나타난 문제 해결을 위해 미국 네바다, 플로리다. 캘리포니아, 미시간, 워싱턴DC, 버지니아는 자율운행 차량의 주행을 허용하도록 법제화를 마쳤지만 알고리즘 오작동에 따른 교통사고에서 어떻게 과실, 예견 가능성이 인정되고 손해와의 인과관계가 판단될 것인지에 대한 법적 문제도 마련되고 있다. 이 문제에 대해 볼보(Volvo)는 인공지능을 채용한 자율주행 차량의 사고는 회사가 모든 책임을 지겠다는 방침을 발표 하기도 했는데 이는 사람이 운전하는 차량보다는 무인자동차 사고는 드물 것이라는 확신에서 이다. 우리나라도 무인 자동차가 등장하고 있는 시점인데 이와 비슷한 정책을 채용할지, 자동차 보험과 소송의 가이드를 어떻게 만들 것인지 관심을 가지고 지켜 볼 일이다.
인공지능 로봇의 경우도 사람을 헤치거나 물건을 파손했을 때 그 책임을 로봇 소유주가 져야 하는지, 알고리즘을 설계한 제작자가 져야 하는지도 정리해야 할 과제이다. 한편 인간의 사이보그화에 대한 사이보그 법도 과제이다. 사이보그(cyborg, cybernetics+ organization)는 인간과 기능적으로 결합하여 결여된 신체기능을 보완하거나 아니면 특정 부분을 강화하는 기능적 조직을 말한다.
인공지능 시대가 발전해 바로 눈 앞에 까지 와있음에도 불구하고 사회적 윤리적 법제도 등의 준비는 묘연하다. 현재 우리나라도 ‘지능형 로봇 개발 및 보급 촉진법’이 이미 제정되어 있고 다양한 ‘인공지능 산업법안’이 논의 중이지만 앞서 언급한 문제들의 대비는 전혀 이루어 지지 않고 있어 이제라도 논의의 장으로 올려 준비가 필요하다.
(참고자료) “인공지능 기술 발전이 가져올 미래 사회 변화”, 김윤정_KISTEP 부연구위원 유병은_KISTEP 연구원, 04 R&D InI“인공지능 시대의 법적o윤리적 쟁점” 과학기술정책연구원, 최은창(Free Internet Project 연구원), 미래연구 포커스“위키피디아”