오픈AI가 생성형 인공지능(AI) 챗봇 ‘챗GPT(ChatGPT)’의 답변 오류를 줄이기 위해 AI 학습 방식을 개선한다.

오픈AI가 개발한 인공지능 챗봇 ‘챗GPT’ 로고. / 뉴스1
오픈AI가 개발한 인공지능 챗봇 ‘챗GPT’ 로고. / 뉴스1
1일(현지시각) 외신에 따르면, 오픈AI는 지난달 31일 보고서를 통해 최첨단 모델조차도 불확실한 정보를 사실인 것처럼 답하는 경향이 있다며 이같이 밝혔다. 보고서는 AI가 질문의 답을 모를 때 사실과 다르게 내용을 창조해 제시하는 경향이 있으며 이를 ‘환각(hallucinating)’이라고 설명했다.

이 같은 할루시네이션 또는 ‘AI 환각’ 현상은 생성형 AI가 급부상하면서 문제로 지적되고 있다. 출처가 불분명한 데이터까지 수집한 후, 존재하지 않는 정보를 사실인 것처럼 교묘하게 답변하기 때문이다. 보고서는 특히 이런 환각이 다단계 추론이 필요한 영역에서 특히 문제가 된다고 지적했다. 하나의 논리적 오류가 해결책을 얻기 위한 올바른 추론에서 벗어나게 한다는 것이다.

이에 오픈AI는 결과보다 과정에 개입해 AI가 거짓 답변을 내놓는 것을 막는다는 계획이다. AI 모델이 인간과 유사한 사고방식 접근을 따르도록 유도한다는 것이다. AI 모델이 올바른 최종 결론에 도달했을 때 보상하는 기존 방법 대신, 각 추론 단계에 대해 보상하도록 AI 모델을 교육한다. 다만 해당 보상 기능을 챗GPT에 언제 도입할지는 밝히지 않았다.

김경아 기자 kimka@chosunbiz.com