기본 콘텐츠로 건너뛰기

알렉스 넷, 딥러닝과 GPU 그리고 제프리 힌턴의 경고

알렉스 넷, 딥러닝과 GPU 

 2012년 이미지 넷의 ILSVRC(ImageNet Large-Scale Visual Recognition Challenge), 쉽게 말해 이미지 분류 인공지능 올림픽에 알렉스 넷이 경이적인 기록으로 우승하게 된다. 

 알렉스 넷의 성능이 다른 모델들에 비해 매우 뛰어났으며 알렉스 넷 연구에서 핵심은 "컴퓨터 비전 모델의 깊이가 뛰어난 성능을 위해 필수적이며 (인간이 배우는 것 같이 인공지능을 학습시키자는 딥러닝이 효과적이라는 것), 딥러닝을 위해서는 GPU를 활용하면 된다"였다.

 전 세계 사람들에게 "중력이 있어 물체가 땅에 떨어진다." 만큼 익숙해진 "딥러닝과 GPU"의 관계가 이 논문에서 나왔다. 

그리고 제프리 힌턴의 경고

 제프리 힌턴은 구글의 석학 연구원을 겸임하다가 2023년에 인공지능의 위험성을 경고하며 퇴사하였다. 그는 AI를 혁신시킨 "딥러닝"기법의 개척자이며 그 발견이 지금의 생성형 AI 챗봇들을 탄생하게 만든 셈인데 이제는 위험성에 대해 말하며, "디지털 지능이 생물학적 지능을 대체할 것이 거의 확실하다."라고 말한다. 23년의 유튜브 영상에 이어 24년 2월 22일 기사와 3월 기사를 보며 그의 주장을 정리하면 다음과 같다.

 제프리 힌튼의 주장

 " 점점 강력해지는 AI모델들이 집단 지성으로 작용하며 서로 학습한 내용을 공유할 수 있고 이는 인간보다 큰 이점을 가진 것이다. 따라서 인간보다 더 나은 지능일 수 있다고 생각한다."

 인공지능 모델 중 하나가 학습하면 배운 내용을 거의 즉시 다른 모델과 공유할 수 있다. 

 일종의 하이브 마인드, 집단지성이다.

인공지능이 위험하다는 제프리 힌턴의 주장 2가지

 1. 나쁜 사람들이 나쁜 목적으로 AI 사용하는 것

 예를 들어 대규모 허위 정보 유포, 생물 테러, 사이버 전쟁, 킬러 로봇을 생각할 수 있고 특히 메타가 Llama를 오픈 소스 AI 모델로 공개하는 것이 나쁜 사람들에게 강력한 힘을 손에 쥐어주는 완전히 미친 짓이라고 생각한다.

 오픈 소스는 일반적으로 좋은 것이지만 대규모 모델은 오픈 소스화 할 때 그 안에 배우는 방법을 아는 프로그래밍이 있다는 것을 생각해야 한다. 학습 내용이 데이터로 결정되고 무엇을 배울지 모르는 것이다. 사이버 범죄자가 모델을 처음부터 훈련하지 않고 오픈 소스 모델을 선택해서 범죄나 피싱 공격을 수행하도록 미세 조정을 할 수 있다.

 2. AI 모델들이 위험한 방식으로 진화하는 것 (인간 통제)

 대규모 언어 모델, 에이전트 AI 시스템에 이미 자율성이 부여되고 있다. 어떤 일을 달성하려면 하위 목표를 스스로 만들 수 있어야 하니 이에 대해 현재 작업 중인데 의도하지 않은 하위 목표가 생성될 수 있으며 이는 정렬 문제라고 한다. 

 예를 들자면, 기후 변화 위기 해결을 위해 가장 좋은 방법을 인간 제거라고 판단하는 상황 말이다.

 물론 앤트로픽과 같이 도덕원칙을 챗봇이 이해하도록 하고 있는 시도는 한가지 방법이 될 수 있다.

  보다 실존적인 위협에 관해서도 말하는데 기계와 인간 사이의 권력 투쟁에 대해서도 언급한다. AI 모델들이 자율적으로 행동하거나 독립적인 의도를 가지게 되어 인간의 행동이나 결정을 지배하려는 능력을 발전시킬 수 있다는 것이다. 

 

제프리 힌턴의 제안

 제프리 힌턴은 해결책으로 연구원들은 정렬 문제를 연구해야 하고 정부는 법안을 마련해야 한다고 말한다. 다만, 아주 불쾌한 일이 일어나기 전까지는 입법이 불가능할 것이라고 말한다.

댓글

Creative Commons License