[서울=뉴시스] 최현호 기자 = 샘 올트먼이 복귀하면서 미국 기술산업계를 떠들썩하게 한 오픈AI 사태가 일단락 됐지만, 이번 일로 인공지능(AI) 기술과 관련한 표준 등이 없고 기술의 소수 의존성도 강하다는 점이 드러났다는 목소리가 나온다. AI기술은 인류를 위협할 수 있을 정도로 위험한데, 관련 기준이나 내부 투명성이 부족하다는 점 등이 이번 사건으로 드러났다는 것이다.
23일(현지시간) 영국 가디언은 이번 오픈AI 내부의 갈등이 AI기술의 안전성 등과 관련한 여러가지 과제를 낳았다고 보도했다.
미국 카네기멜론대의 레이드 가니 기계학습·공공정책학 교수는 이런 오픈AI 사태와 관련해 “지금 우리가 보고 있는 AI는 미성숙한 AI다. 표준도 없고, 전문 기관도 없고, 인증도 없다”고 지적했다. 그러면서 “만들어지는 AI는 그것을 만든 소수의 사람들에 의존하며, 이 소수의 사람들이 미치는 영향은 불균형적이다”라고 덧붙였다.
이번 오픈AI의 샘 올트먼 해임 사태는 지난 17일 이사회의 일방적인 발표로 알려졌다. 오픈AI에 130억 달러를 투자한 최대주주인 마이크로소프트(MS)조차 알지 못한 상태였다.
이후 혼란스러운 상황이 이어졌고, 올트먼이 복귀하게 되는 과정도 일정한 절차 등에 의하기보다는 관련자들의 즉흥적인 움직임에 따라 전개됐다. 약 750명의 오픈AI 직원 중 95% 이상이 ‘올트먼이 복귀하지 않으면 퇴사해 MS에 합류하겠다’는 연판장에 서명했고, 이것이 올트먼 복귀에 큰 영향을 미친 것이다.
가디언은 AI를 개발하는 회사들에 대한 실질적인 규제가 없는 상황에서, AI기술 개발자들의 개성 등은 지나치게 중요해진다고 언급했다.
이번 오픈AI 사태가 AI회사의 투명성이 부족하다는 점을 보여줬다는 것도 거론된다. 최신 AI의 개발은 비공개로 활동하는 소규모 간부들의 손에 달려있다는 것이다.
가니 교수는 “우리는 오픈AI의 이사진 교체가 챗GPT나 달리(Dall-E·이미지생성 AI)의 성격을 어떻게 바꿀지 전혀 알지 못한다”고 짚었다. 이어 “현재로썬 챗GPT 같은 프로그램들을 테스트하는 공공기관이 없으며, 회사들은 업데이트에 대해 투명하지 않다”면서 “아이폰 또는 안드로이드의 소프트웨어 업데이트와 비교해 보라”고 덧붙였다.
오픈AI 사태가 올트먼의 복귀로 일단락됐지만, 아직까지도 올트먼이 어떤 이유로 이사회와 갈등을 빚었는지 뚜렷하지 않다는 점도 있다.
앞서 이사회와 올트먼이 AI의 위험성이나 수익성 등을 두고 이견을 보였다는 등의 언급은 지속적으로 나왔다. 하지만 이날 파이낸셜타임스(FT)는 올트먼과 이사회에 대해 직접적으로 알고 있는 한 관계자의 말을 인용, 이사회의 올트먼 해임 결정이 AI연구 진전 등에 대한 우려에서 나온 것은 아니라고 말했다고 보도했다. 그러면서 이 관계자는 이사회와 올트먼 사이의 신뢰 상실에 대해 언급했다.
뉴욕대 경영대학원 비즈니스·인권센터의 폴 바렛 부소장은 “오픈AI의 통제권에 대한 싸움은 회사의 권력 다툼에 의해 비교적 미성숙한 분야의 변동성, AI 시스템을 어떻게 보호할 것인지에 대한 중요한 결정이 영향을 받을 수 있다는 위험성을 상기시켜준다”고 말했다.
그러면서 “예측할 수 없는 AI 시스템이 언제 대중에게 공개되는 것이 안전한지에 대한 판단은 이런 요소들에 의해 통제돼서는 안 된다”고 덧붙였다.
◎공감언론 뉴시스 wrcmania@newsis.com
같이 보면 좋은 기사