기본 콘텐츠로 건너뛰기

인공지능 윤리 교육 중 편견, 이미지 생성 AI, Runway, 네이버 소프트웨어야 놀자 교재 관련

# 인공지능 윤리 교육 중 "편견"
# 이미지 생성 AI, 기업의 노력 사례 (Runway)
# 네이버 소프트웨어야 놀자 교재 배포 관련한 오픈 클래스를 할 때에 교재 설명 외에도 좋은 자료를 제공하고 싶어서 공부하고 있다.

How AI Image Generators Make Bias Worse



영상 도입을 미드저니로 생성한 더빙으로 시작하며 바비이미지 생성에서 나왔던 차별 사례가 나온다. 실제 직업에서의 성비보다 더 과장되게 편향이 나오는 경우가 있다고 한다. 이를 Representational Harms라고 한다. 그런데 이를 개선하여 비교적 정확하게 사실을 반영한다면 과장이 매우 적어도 문제가 있다는 점을 지적한다. 미국 대통령, 수감자 비율을 실제로 남성이 매우 높은데 사실을 그대로 반영할 것인가, 완전히 랜덤이 옳은 것은 아닐까? 

Bias in AI and How to Fix It | Runway

(https://www.youtube.com/watch?v=5zLxoiBdG2U)

Runway는 기업의 노력 사례라고 볼 수 있다.
인종, 성별 등의 데이터를 다양하게 만들어서 이미지 생성AI 모델을 다시 훈련하는 방법하는 작업에 착수했다고 한다. 


두 영상 모두 댓글의 갑론을박을 보는 재미도 있다.

댓글

Creative Commons License