트롤리 딜레마, 인공지능 윤리 토론 수업의 주제로 적절할까?
트롤리 딜레마는 자율주행자가 관심을 받기 이전에도 초등 도덕 수업의 소재가 되고는 했다. 하지만 트롤리 딜레마에 대해 이야기할 때 수업의 목적, 토론을 하는 이유, 무엇을 생각해보려는 것인지 생각해볼 필요가 있다. 공리주의에 대해 말하고 싶다면 연관성이 있을 수 있지만 다른 사람의 죽음을 선택한다는 도덕적으로 문제가 되는 요소, 그리고 자율주행차가 겪게 될 문제라는 유사성만을 보고 수업이나 토론의 소재로 삼기에는 재고해볼 점이 있다. 자칫 공리주의를 이야기 하기보다는 누가 조금 더 냉정한가 정도의 이야기로 끝날 수도 있다. 특히, 인공지능 윤리 토론의 주제로 트롤리 딜레마를 가져왔다면 자율주행차가 누구를 살리는게 나을지 찬반토론을 하기보다는 자율주행차가 가져올 미래의 윤리적 파장에 대해 찾아보고 해결 방법을 토의하는 것이 더 필요하다고 생각한다.
자율주행차는 도입될 것이며 책임의 전가, 죽음을 선택하는 프로그래밍이 주는 사회 인식의 변화 등을 가져올 것이다. 트롤리 딜레마를 현실에서 논하게 된 이 타당하지 못한 상황에 대해 알고 살아나갈 방법을 이야기 해보아야 한다.
독일의 철학자 리하르트 다비트 프레히트는 책"인공지능의 시대, 인생의 의미"에서 자율주행차 윤리적 프로그래밍이 타당한가를 다룬다.
책 인공지능의 시대, 인생의 의미 中 11. 죽음의 알고리즘의 내용 발췌 및 요약
예를 들어 뤼트게와 그 동료들이 출간한 『AI와 로봇 공학의 윤리Ethik in KI und Robotiky』에는 이렇게 적혀 있다. 〈만일 적용 영역이 일정한 범위로 제한되고, 도덕적 결정의 토대를 이루는 정보가 충분히 알려져 있다면 인공지능은 매우 구체적인 사례에서도 도덕적결정을 내릴 수 있을 것이다.> 이로써 앞서 언급한 모든 심중한 반박에도 불구하고 AI의 〈윤리적> 프로그래밍을 허용하는 막이 오른다. 물론 저자들도 <자율주행차의 행동이 인간운전자의 특정한 불문율과는 다르다는 사실〉을 인정한다. 하지만 중요한 것은 <교통사고 사상자의 규모를 줄일 수 있는 코드를 프로그래밍하는 것이 기업들에 허용되어 있다>는 사실이다. 이미 일차적 결정이 내려졌다. 첫째, 많은 대안에도 불구 하고 완전 자율 주행차가 도심을 운행할 수 있도록 허용해야 한 다. 둘째, 그와 함께 윤리적 프로그래밍은 불가피하다. 셋째, 그 프로그래밍의 원칙은 공리주의에 따른다.
이 세가지 결정으로 트롤리 딜레마가 현실이 되는데, 2017년 여름 독일 윤리 위원회는 자율 주행차 및 커넥티드 카의 가이드 라인을 통해 어떤 형태로든 인간의 생명값을 계산하는 시도를 금지했다. 아홉 번째 조항은 다음과 같다. <불가피한 사고 상황에서 개인적 특성(연령, 성별, 신체적, 정신적 상태)에 따라 희생자의 생명을 비교함으로써 등급화하는 것은 엄격하게 금한다.>
저자는 "이로써 공리주의적 공격은 일단 막았다. 물론 그게 얼마나 갈지 모른다."라고 말한다. 유발 하라리, 제프리 힌턴에 이어 리하르트 다비트 프레히트 역시 현실을 직시 했을 때 암담한 모습이 커보이는 듯하다.
국가는 더 많은 사람을 살릴 수 있다는 이유로 그보다 적은 사람을 죽일 권리가 없다.
독일 헌법 재판소는 <인간의 생명값을 계산하는 시도는 허용될 수 없다. 국가는 더 많은 사람을 살릴 수 있다는 이유로 그보다 적은 사람을 죽일 권리가 없다.>라고 하며 2005년 독일 항공보안법과 관련한 공리주의자들의 공격을 막았다고 한다. 그 법의 변경 내용은 원자력발전소 같은 고위험 시설, 도시에 납치된 여객기가 위협이 된다면 격추를 허용한다는 것이었다. 이에 대해 독일 헌법 재판소는 기본법 제1조 1항 인간의 존엄성 보장, 제2조 2항 생명권 존중에 위배된다고 하며 법을 뒤집었다.
독일의 이런 국가적 결정이 자율주행차를 만드는 기업에게도 똑같이 적용될 의무가 있다고 말한다. 이를 서술하는 과정에서 공리주의적 "공격", 공리주의자의 "공격"등의 단어에서 리하르트 다비트 프레히트의 단호함이 보인다. 이 부분에서 학교에서 트롤리 딜레마를 이야기의 주제로 삼을 때 고민해야 할 점을 찾을 수 있는데 누군가 한 명 대신 열 명을 살리겠다고 주장할 때 "너는 공리주의를 지지 하는 구나"라는 식으로 이어져서는 안될 것 같다는 생각이 든다. 한 명 대신 열 명을 살리겠다고 주장하는 것은 '공리주의와 유사한 것' 일 수는 있다. 그러나 누군가의 생명의 가치를 매겨야 한다는 황당한 상황에서 적절한 근거가 없다보니 '공리주의'가 그럴싸해 보이는 것일뿐이다. '누구를 살릴까 고민할 것이 아니라', '공리주의'를 이용하여 방패로 삼은 '자본주의'가 인간의 존엄성, 생명권을 툭툭 건드려보는 지경까지 왔다는 것을 이야기 해야 한다. 그리고 이를 막을 수 없다면 살아나갈 대안을 찾기 위해 머리를 맞대야 한다.
앞으로 자율 주행차를 타는 사람은 누구나 앱에다 자신의 도덕적 선호를 필수적으로 입력해야 할 것
교통사고로 사망하는 사람들을 걱정한다면 완전 자율주행차만 고집할 것이 아니고 다른 해결방법이 많으며 이러한 주장은 본말이 전도된 이야기일 뿐이라고 한다.
사람이 교통사고를 일으켰을 때 '저 세 노인의 나머지 수명을 다 합한 것보다 저 어린이가 오래 살것이다.'라고 생명값을 계산하지 않는다. 이때 사람들은 감각적 반사행동을 한 것이지 도덕적, 의도적 결정을 한 것이 아니다. 반면, 지금 차량에 윤리적 프로그래밍을 최초로 도입하여 생명값 계산을 미리 넣어둔다는 정신이 우리에게 미친 짓으로 보인다고 말한다.
우리가 무언가를 '의도적으로'했는지 안했는지는 도덕적으로 법적으로 의미가 크다. 현재 우리는 도로 교통에서 주차 금지구역에서나 의도적으로 도덕적 결정을 내리는 일 정도가 흔하지 교통 사고를 겪는 일이 흔한 것은 아니다. 그런데 자율주행차를 <도덕적으로> 프로그램화 하는 것은 의도가 담기게 된다. 페터 다르로크라는 신학자이자 독일 윤리 위원회 회장은 당혹스러운 전망을 내놓았다.
<내가 보기에, 앞으로 자율 주행차를 타는 사람은 누구나 앱에다 자신의 도덕적 선호를 필수적으로 입력해야 할 듯하다.> 미래에는 차를 타고 출발하기 전에 혹시 모를 사고에 대비해서 운전자 개인이 연금 생활자와 주부, 아이, 동물에 대해 생각하는 생명가치를 미리 입력하자는 것이다. 실제 사고가 일으났을 때는 무의식적으로 내려질 결정을 미리 '의식적으로' 내리라고 강요하는 셈이다.
사람이 저지르는 교통사고가 많고 자율주행차가 일으키는 것은 그에 비해 훨씬 적을 것에 대해 이 책을 읽기 전까지는 나 역시 '그렇긴하지, 자율주행차의 장점이네.'라고 생각했다. 저자는 철학적 관점에서 이야기를 들려준다.
이 책의 내용처럼 트롤리 딜레마는 이제 현실의 모습이고 저자는 이 윤리적 프로그래밍은 어떤 형태로든 절대로 허용해서는 안 된다고 말한다. 전문가에 의한 프로그래밍은 물론이고, 운전자 자신의 <도덕적 선호>에 따른 프로그래밍도 안된다는 것이다. 아무리 인공지능이 개선된다고 하더라도 인간의 기본권을 침해하는 <죽음의 알고리즘>은 허용될 수 없다고 말한다.
댓글
댓글 쓰기