이더리움 공동 창립자 비탈릭 부테린이 초인공지능(ASI) 위험성을 논하며, 전 세계의 컴퓨팅 자원을 1~2년간 제한하는 방안을 제시했다. 이는 AI 개발에 대비해 시간이 필요하다는 ‘소프트 중단’ 조치로 설명된다. 초인공지능은 인간의 모든 인지적 능력을 뛰어넘는 AI를 말한다.
부테린은 1월 5일 자신의 블로그에 이러한 제안을 발표했다. 2023년 11월에 제안한 ‘방어적 가속주의(d/acc)’ 개념을 보완하며, 초인공지능이 5년 이내 등장할 가능성을 언급했다. 그는 초인공지능의 결과가 긍정적일 것으로 예단할 수 없다고 경고했다.
부테린은 글로벌 컴퓨팅 자원을 최대 99%까지 제한하는 ‘소프트 중단’이 효과적일 수 있다고 주장했다. 이를 통해 인간이 초인공지능의 위험에 더 잘 대비할 시간을 확보할 수 있다고 설명했다. AI 하드웨어 관리 방안으로 △AI 칩 위치 파악 △칩 등록 의무화 등을 제안했다.
부테린의 d/acc 개념은 기술 발전에 신중히 접근하자는 입장이다. 이는 무분별한 기술 가속화를 주장하는 효율적 가속주의(e/acc)와 대비된다. 부테린은 AI 개발에 제한 없는 변화가 장기적으로 더 큰 위험을 초래할 수 있다며, 균형 잡힌 접근의 중요성을 강조했다.
* 이 기사는 2025년 01월 06일, 13:45 게재된 것으로, 요약해 재전송합니다. 원문 보기 ⇒