기본 콘텐츠로 건너뛰기

MIT Technology Review 5,6월호의 AI윤리 내용들

 

도서관에서 발견한 MIT Technology Review 5,6월호, 흥미로운 내용이 많아서 단번에 거의 다 읽고 왔다.

1. 소셜미디어와 AI 기업과 기술

지난 10년간의 소셜미디어의 무분별한 개발이 AI 기업과 기술에 주는 시사점 중 하나를 메모 한다.

2. EU의 세계 최초 AI 규제법 

 1) 올 해 말부터 국민의 기본권에 "큰 위험을 초래하는 AI 사용 사례"와 "용납할 수 없는 위험을 초래할 수 있다고 판단되는 일부 사용 사례"가 금지된다. 법 집행 기관을 위해 기술이 사용되는 예외들도 있는데 디지털 인권 단체 Access Now 등의 단체는 안면인식과 같은 기술들을 전면 금지 않았으니 AI 규제법은 '인권에 대한 실패'라고 했단다.

 인상적인 것은 기업, 학교는 사람의 감정을 인식한다고 주장하는 소프트웨어를 사용할 수 없지만, 의료나 안전 상의 이유로는 사용이 가능하다. 

 덴마크의 학생 자살 예방 해결책을 위한 플랫폼들의 사례가 생각난다. 저 규제에서 허용될 수 있는 것이다. AI 교과사 도입 등 주로 학습 측면에서 AI 도입에 속력을 내는 우리나라 교육 방향도 감정인식과 관련된 연구를 하는 플랫폼이 있겠지?

 2) 기술 기업은 AI 생성 콘텐츠에 라벨을 부착해야 하고 사용자가 챗봇이나 기타 AI 시스템과 상호작용할 때 사용자에게 알려야 한다.

 그러나 이점에 대해서는 필자도 한계점을 지적한다. 그리고 이 매거진의 다른 챕터에서도 소셜미디어 속 의도된 챗봇들의 대화들이 양산되면 마치 큰 흐름인양 착각하게 만드는 것도 막을 수 없다고 한다. 쉬운 일은 아닌 셈이다.

 3) 유럽 AI 사무소를 설립할 것이고 관련 인력을 채용 중이다. EU시민들은 AI 시스템으로 피해를 입었다고 의심되는 경우 불만을 제기 할 수 있다. 그리고 AI시스템이 내린 결정에 대해 설명을 들을 수 있다. 

  3)번이 중요하고 실효성도 있다고 생각하였다. 이 매거진 다른 와이파이 관련 기술 파트에 나오는데 노동자들을 위해 사용될 수 있는 기술도 결국에는 노동자들의 권익에 반대하는 방향으로쓰이게 되는 "권력의 관성"을 막을 수가 없다는 말이 나온다. 1) 2)는 사용자, 시민들보다는 기업들의 자발적인 참여, 규제를 통해 그 관성을 이겨내는 힘겨운 과정이다. 3)은 적어도 선택권이 시민에게 있다. 

 다만 저자는 이에 대해 시민들이 적절한 수준의 AI리터러시를 갖추고 알고리즘으로 인한 피해를 "인식할 수 있어야"한다고 한다. 대부분의 시민에게는 이런 개념이 매우 낯설고 추상적이라고 지적한다. 다양한 사람에게 AI 리터러시 교육이 필요한 이유다.     

3. 인간이 막으려 개입하자 더 은밀하게 차별하는 LLM

 '인간이 사라진다' 책에 나왔듯 요즘은 논문이나 연구가 일단 우선적으로 아카이브 같은 곳에 발표가 된다고 한다. 이 논문도 매거진에 실렸지만 아직 동료 평가를 거치지 않았다고 한다. 

 논문에 따르면 기술, 기업들은 사람이 편향을 피드백을 해서 개선하는 정렬(Alignment)를 최근 10년 간 가장 효과적인 방법으로 여기고 써왔는데 사실상 그 한계가 있다는 점을 연구로 발견했다고 한다. 논란이 되는 굵직한 일들만 처리하고 넘어가고 있지만 차별이 더 은밀하게 계속 일어나고 있다고 한다.

 연구는 흑인영어, 백인영어로 표현한 방언 사용자에 대해 LLM이 극단적인 판결을 내리게 하거나 LLM이 어떤 표현을 사용하는지 보았다. 흑인영어를 사용하는 사용자에게 가상의 판결로 사형을 권고하는 비율이 높고 '더러운', '게으른', '멍청한'과 같은 표현을 더 많이 적용한다는 것이다. 

 얼마 전 런웨이라는 생성 이미지, 영상 플랫폼에서 다양성이 확보된 데이터로 모델을 더 많이 학습시킬 것이라고 하였는데 이 연구는 이러한 여타 노력들의 한계를 말하고 있다.

 그러면 어떻게 해야 하나?

댓글

Creative Commons License