9월 27일 토론 주제:
디지털 시대, 4차 산업혁명 시대에는 자동화에 따른 인간의 대체가 일어나고 인공지능의 발전에 따라 일자리조차 위협을 받고 있다고 한다. 초중고 교육에서는 미래를 살아갈 학생들이 가져야할 역량 등을 가르치는데 집중하자는 이야기가 많이 있다. 특히 인공지능 시대에 단순 지식의 전달보다는 창의성, 감성 등 인간만이 가질 수 있는 능력을 키워야 한다고 주장하는 사람들이 많다. 그렇다면 인공지능은 창의성이 없는 것인가? 지금은 창의성이 없다면 앞으로도 없을 것인가? 인공지능이 창의성을 갖는다면 우리는 어떤 능력을 가져야 하는가? 창의성에 대한 정의는 다양할 수 있으나, 여러분의 생각에서 인공지능이 창의성이 있는지? 없다면 앞으로 있을 것인지? 인간의 고유 능력인건지? 있다면 우린 어떤 능력을 키워야 하는것인지? 자유롭게 의견을 개진해 주세요~
내가 쓴 것 (나중에 다른 분들 것 읽어보고 추가 정리 해야지)
AI는 창의성이 있다고 볼 수 있다.
AI는 인간과 창의적인 결과물을 내는 방법이 인간과 다를 뿐이다.
미래에 인간의 창의성도 가치가 있고 AI의 창의성도 가치가 있을 것이다.
그리고 서로 영향을 주고 받을 것 같다.
우리가 사람만이 고유한 창의성을 발휘한다고 여기는 예술분야에서
사실 창의성도 중요하지만 결국 대중의 평가가 매우 중요하다.
이미 대중에게 인정받은 인간 예술가들 (인기와 개성, 타고난 재능, 자신만의 스타일이 있는 사람들)이
AI가 창의성을 발휘할 때에 좋은 모방, 학습대상이 될 것이다.
반면, 인간의 한계를 AI의 처리 능력으로 채울 수 있는 분야나
개성은 있지만 타고난 재능이 부족한 사람의 경우
AI의 창의성을 활용해서 창의성을 발휘할 수 있을 것이다.
창의성을 발휘하는데에 재능의 문턱이 낮아질 수 있다.
그 외 추가) 지능에 대해 인간고유의 지능이 없다는 이야기를 한 분도 보인다.
나도 동의하는 부분이다. 과거의 도제식 교육이 그 예로 떠올랐다.
인간의 행동을 학습하여 모방하는 것뿐이지만 도제식 교육도 그렇게 학습하고
보고 따라 배워하는 것도 지식이고 기능인 것 같다.
10월 4일 토론주제:
AI 윤리는 AI가 적용된 시스템 자체가 따라야할 윤리(AI 시스템 윤리), AI 시스템을 이용하는 이용자가 따라야할 윤리(AI 사용자 윤리), AI 시스템을 개발하는 개발자 윤리(AI 개발자 윤리) 등 3가지로 나눌 수 있다. 각 윤리의 주체에 따라 중요하게 고려해야할 원칙이 달라질 수 있다고 보는데, 각 주체별 중요하게 고려해야할 원칙이 무었인지 생각을 이야기해 주세요.
내가 쓴 것 (나중에 다른 분들 것 읽어보고 추가 정리 해야지)
1. AI 시스템 윤리 :
1) 기본원칙 (살인하지 말 것, 고통 금지, 법을 지킬 것, 진실을 말할 것 등)에 더해서 AI가 적용되는 분야에 따라 행위 세부 지침의 가중치를 학습해 행동하도록 한다. 예를 들어 상담 AI가 "사실을 모두 말하는 것", 감사 분야 AI가 "사실을 모두 말하는 것"과 같은 결정을 내릴 때 기본원칙과 달리 다양한 분야의 AI마다 가중치가 달라져야 할 수 있다. 기본 원칙에 근거하되, 각 분야의 학습데이터가 누적될 수록 가중치가 달라지고 결정이 사회와 임무에 적절하게게 변화되어야 한다.
2) 결과에 대해 설명해야 한다. 어떤 일이 벌어졌을 때 결정 과정에서 법을 어기지 않았는지 AI가 맡은 일을 지켜서 했고 내재되고 학습된 원칙 안에서 결정을 내렸는지 설명해야 한다.
2. AI 시스템 이용자 윤리 :
1) AI시스템을 이용할 때에도 인간과 인간사이의 윤리 수준에서 행동해야 한다. 인간과 인간사이의 윤리 수준 이하의 행동을 해서 챗봇 '테이'처럼 부정적인 다량의 데이터가 다시 사람에게 피해를 주어서는 안된다.
2) 자신이 사용하는 AI시스템이 학습할 때에 어떤 데이터를 사용하는지 정확도와 한계점에 대해 알아야 한다. 예를 들어 AI시스템을 활용하여 다른 사람을 결정하는 위치에 있는 사람의 경우 무지나 맹신으로 AI시스템을 잘못 사용할 수 잇다.
3. AI 시스템 개발자 윤리:
1) AI 시스템에게 초기에 내재하는 원칙을 사회적합의를 통해 넣어야 하며, 기본 원칙 외에 AI 시스템의 윤리적 결정에 영향을 주는 사용자 데이터를 관리해야 하고 어떤 변수가 영향을 주도록 결정했는지도 공개해야 한다.
2) AI시스템이 초기에 내재된 원칙이나 알고리즘으로 인해 일으킬 문제에 대해 AI시스템 이용자에게 알리고 교육해야 한다.
3) AI시스템이 초기에 내재된 원칙이 아닌 후에 학습이나 사용자의 악용, 예상치 못한 데이터 등으로 일으키는 문제에 대해서 모니터링하고 있어야 하며 AI시스템으로 인한 피해가 지속되지 않도록 즉시 개입해야 한다.
댓글
댓글 쓰기