트롤리 딜레마, 인공지능 윤리 토론 수업의 주제로 적절할까? 트롤리 딜레마는 자율주행자가 관심을 받기 이전에도 초등 도덕 수업의 소재가 되고는 했다. 하지만 트롤리 딜레마에 대해 이야기할 때 수업의 목적, 토론을 하는 이유, 무엇을 생각해보려는 것인지 생각해볼 필요가 있다. 공리주의에 대해 말하고 싶다면 연관성이 있을 수 있지만 다른 사람의 죽음을 선택한다는 도덕적으로 문제가 되는 요소, 그리고 자율주행차가 겪게 될 문제라는 유사성만을 보고 수업이나 토론의 소재로 삼기에는 재고해볼 점이 있다. 자칫 공리주의를 이야기 하기보다는 누가 조금 더 냉정한가 정도의 이야기로 끝날 수도 있다. 특히, 인공지능 윤리 토론의 주제로 트롤리 딜레마를 가져왔다면 자율주행차가 누구를 살리는게 나을지 찬반토론을 하기보다는 자율주행차가 가져올 미래의 윤리적 파장에 대해 찾아보고 해결 방법을 토의하는 것이 더 필요하다고 생각한다. 자율주행차는 도입될 것이며 책임의 전가, 죽음을 선택하는 프로그래밍이 주는 사회 인식의 변화 등을 가져올 것이다. 트롤리 딜레마를 현실에서 논하게 된 이 타당하지 못한 상황에 대해 알고 살아나갈 방법을 이야기 해보아야 한다. 독일의 철학자 리하르트 다비트 프레히트는 책"인공지능의 시대, 인생의 의미"에서 자율주행차 윤리적 프로그래밍이 타당한가를 다룬다. 책 인공지능의 시대, 인생의 의미 中 11. 죽음의 알고리즘의 내용 발췌 및 요약 예를 들어 뤼트게와 그 동료들이 출간한 『 AI 와 로봇 공학의 윤리 Ethik in KI und Robotiky 』 에는 이렇게 적혀 있다 . 〈 만일 적용 영역이 일정한 범위로 제한되고 , 도덕적 결정의 토대를 이루는 정보가 충분히 알려져 있다면 인공지능은 매우 구체적인 사례에서도 도덕적결정을 내릴 수 있을 것이다 .> 이로써 앞서 언급한 모든 심중한 반박에도 불구하고 AI 의 ...