기본 콘텐츠로 건너뛰기

책) 무자비한 알고리즘


무자비한 알고리즘 왜 인공지능에도 윤리가 필요할까


여름방학 때 도서관에서 빌렸는데 

연체비를 내면서까지 읽고 있다.

책이 진짜 괜찮다. 

실제 사례도 많고 흥미진진하다.

---메모 시작---

1. 알고리즘과 휴리스틱은 여기서 야누스적인 역할을 한다.

    기존의 편향을 발견을 공표할 수 있고

    적절한 조치를 도입해서

    부당한 차별을 해소시킨다면, 

    데이터과학은 사회가 더 정의로워지는 데

   기여하게 될 것이다.

    그러나 학습된 결정규칙을 그 안에 담긴 편향과 

   더불어 순진하게 계속 사용한다면, 사회적으로 

   달갑지 않은 차별이 유지되거나 

   심지어 더 강화될 수 있다.    

----------------------------------------------------

2021. 10. 13.

1. 역동적 학습을 통한 차별 (230~231p)

챗봇 테이로 사례를 예로 들 수 있는 

AI의 역동적 학습을 통한 차별 (차별에 대한 내용파트여서)


다큐멘터리 영화 <검열자들>

페이스북이나 트위터 같은 회사가 저임금국가 인력을 고용해서

경계선에 있는 데이터 들을 필터링하는 모습.

약 10만명의 검열자들을 클리너라고 부르는데 숫자가 충격적이다.


표현의 자유, 인권이라는 가치 등이 단순한 규칙으로 해결 되지 못한다.

가능했다면 대기업이 오래전에 자동화 했겠지.

물론 이게 대기업이 아무 이미지나 정보를 보여줘도 된다는 면죄부는 

아니긴 한데 하여간 완벽한 업로드 필터는 불가능하다고 한다.

업로드 필터에 대해서 유럽에서는 많은 토론이 이루어지고 있다고 한다.

(궁금하군..)


2. 차별이 어떻게 컴퓨터로 들어가는가 (232~233p)

이 책은 이렇게 챕터마다 정리해서 다시 이야기해준다. 너무 좋다.

연체비를 더 내느지 사게 될 지도 모르겠네.


1) 차별이 데이터 안에 명시적 혹은 암시적으로 포함되어 있고,

   알고리즘이 그와 상관되는 변수들을 확인하게 될 때

2) 인구집단의 행동에 차이가 나는데, 

   이중 몇몇 혹은 많은 사람들에 대한 전체 데이터가 부족할 때

   (엘리베이터에서 스코틀랜드 사람이 11층을 외치는 영상)

3) 인구집단의 행동에 차이가 있는데, 알고리즘이나 머신러닝

   휴리스틱에 민감한 정보가 누락될 때

   (따라서 모든 사람들에 대한 일부 데이터가 부족할 때)

4) 인구집단의 행동에 차이가 있는데, 머신러닝 기법이 서로 다른 맥락을

   구별할 수 없을 때

5) 시스템이 '역동적으로'학습을 하는데, 잘못된 학습이 이루어질 때,

   여기서는 인풋데이터를 통제하는 것이 중요


하여간 그래서 대부분의 차별문제가 데이터와 연관되고

데이터를 면밀히 처음에 살펴보고도 나중에 차별이 또 들어와 학습될 수 있으므로

점검이 이루어지는데 블랙박스 기법으로 차별분석을 한단다.

댓글

댓글 쓰기

Creative Commons License