[서울=뉴시스] 강영진 기자 = 오픈AI의 챗GPT나 구글의 제미나이 등 인공지능(AI) 챗봇은 질문에 답을 하고 글과 시를 쓰고 기사를 요약하고 영상을 생성하는 능력이 있다. 그러나 전혀 엉뚱한 답을 내는 환각 현상이 종종 발생한다.
이는 인간의 미래를 근본적으로 바꿀 것으로 기대되는 AI 기술에 한계가 있으며 위험하기까지 하다는 회의론의 가장 큰 근거가 된다.
이와 관련 미 뉴욕타임스(NYT)는 23일(현지시각) 하모닉(Harmonic)이라는 실리콘 밸리 스타트업 기업이 AI의 환각 현상을 해결하는 기술을 개발하고 있다고 보도했다.
하모닉은 현재 수학문제에 관해 AI가 단순히 답을 내는 것을 넘어 증명과정까지 제시하는 아리스토텔레스(Aristotle)라는 AI를 개발하고 있다.
예컨대 “가로 세로 10칸에 숫자가 입력돼 있는 표에서 가로줄의 가장 작은 숫자와 세로줄의 가장 큰 숫자를 선택할 경우 가장 작은 수 가운데 가장 큰 숫자가 가장 큰 숫자 가운데 가장 작은 숫자보다 큰 수일 수가 있느냐”는 질문을 아리스토텔레스에게 입력했다.
아리스토텔레스는 즉시 “없다”는 맞는 답을 내놨다. 챗GPT와 제미나이도 똑같이 “없다”는 답을 내놓을 수 있지만 아리스토텔레스는 답이 옳다는 증명과정을 상세하게 제시한 점이 달랐다.
아리스토텔레스는 현재 수학 관련 문제에 대해서만 증명과정을 제시하고 있다. 하모닉은 이 기술을 개발하면서 세콰이어 캐피털 등 투자자들로부터 7500만 달러(약 1002억 원)을 투자받았다.
구글의 딥마인드도 최근 아리스토텔레스와 유사한 방식으로 작동하는 알파프루프라는 AI를 공개했다. 알파프루프는 국제수학 올림피아드 최우수 고등학생 부문에서 6개 문제풀이에서 4개의 정답 풀이과정을 제시하면서 “은메달”을 차지했다. AI가 처음으로 올린 우수한 성적이었다.
데이비드 실버 구글 딥마인드 책임연구원은 “환각 문제를 넘을 수 있는 방법”이라며 “증명이 사실을 뒷받침한다”고 강조했다.
일부 연구자들은 이 기술을 활용해 수학에서 사람보다 낳은 AI를 만들 수 있을 것으로 기대한다.
실버 책임연구원은 수학을 넘어 물리학 등 다른 분야에서도 사실 증명 과정을 제시하는 것이 가능하다고 본다.
챗GPT 등 대언어모델(LLM) 방식의 AI는 인터넷에서 각종 문장을 받아들여 학습하는 방식으로 작동한다. 문장의 패턴을 찾아낸 뒤 뒤에 이어질 문장을 예측하는 방식으로 학교 리포트, 시, 컴퓨터 프로그램 등을 생성하며 토론까지 이어간다.
그러나 인터넷에서 습득한 문장이 옳은 것인지 틀린 것인지, 실제인지 아니면 지어낸 것인지를 분간하지 못하는 탓에 종종 터무니없는 답을 내놓고 없는 것을 지어내기도 한다.
◆추론 과정 추가한 새 버전의 챗GPT 여전히 환각 문제 극복 못해
오픈AI는 최근 추론 과정이 추가된 새 버전의 챗GPT를 공개했다. 옳은 답을 내기 위해 “생각”하는 시간을 갖도록 하는 새로운 방식이다. 그러나 챗GPT는 여전히 틀린 답을 내고 답을 지어내고 있다.
아리스토텔레스 AI는 10년 전 수학자들을 위해 개발된 린(Lean)이라는 프로그램 언어를 사용한다.
튜더 아킴 하모닉 CEO는 “수학문제의 정답을 내기까지 반드시 거쳐야하는 풀이과정이 있다. 내놓은 답이 틀렸을 경우 다른 풀이과정을 거치는 것을 반복하면 정답을 내놓을 수 있다”면서 아리스토텔레스가 제시하는 답은 기본적으로 옳다는 것이 입증된 것이라고 강조했다.
아리스토텔레스가 옳음을 보증하는 디지털 데이터들이 축적되고 이를 AI 학습에 활용하면 AI의 환각 문제가 해결될 가능성이 열릴 수 있게 된다.
연구자들은 AI 훈련용으로 AI가 생산한 데이터를 “종합 데이터(synthetic data)”라고 부른다. 많은 연구자들이 AI 개발의 핵심이 될 것으로 보는 개념이다.
나아가 수학 논리에 따라 작성하는 컴퓨터 프로그램 생성이 가능하고 이를 인터넷에 적용할 수 있다. 연구자들이 AI요원(AI Agent)라고 부르는 개념이다. 이런 식으로 AI 체계가 발전하면 대부분의 디지털 업무를 AI가 수행할 수 있게 된다.
다만 이런 방식에도 한계는 있다. 린이 생산한 프로그램은 수학 공식과 컴퓨터 프로그램을 증명할 수 있지만 그밖의 다른 일상생활의 입출력을 처리할 능력은 없기 때문이다.
안젤라 팬 메타사 연구과학자는 “수학 이외의 영역은 크게 다르다”며 절대적인 옳고 그름이 없어 AI가 학습할 수 없는 경우가 많다고 지적했다.
딥마인드의 실버 박사는 그러나 현실 세계에서도 증명이 가능한 분야가 있음을 강조했다. 바위를 바위라고 증명할 수 있다는 것이다. 음속은 초속 343m라는 것, 태양이 서쪽으로 진다는 것 등등도 마찬가지다. 물리적 현상에 대한 정보가 입력되면 AI가 그 정보가 사실인지를 증명할 수 있다는 것이다.
실버 박사는 “현실 세계에서 사실임이 입증되는 일이 반복되면서 (AI)도 계속 발전할 수 있다”고 강조했다.
◎공감언론 뉴시스 yjkang1@newsis.com
같이 보면 좋은 기사