오히려 혼란을 야기하는 인공지능 환각

챗GPT 웹사이트
챗GPT 웹사이트

기술의 혁신이라 불리는 생성 인공지능(AI) 챗GPT는 물리적으로 인간이 학습할 수 없는 양의 텍스트를 학습했다. 이를 바탕으로 광범위한 분야에 전문성을 갖춘 답변을 내놓는다. 대화의 흐름을 따라가고 질문의 오류를 지적하기도 한다. 이처럼, 챗GPT는 인간의 지적 능력을 위협하는 ‘똑똑한’ AI다. 

그런데 최근 미국의 변호사들이 이 ‘똑똑한’ 챗GPT 때문에 벌금을 물게 되었다. 미국 CNBC에 따르면 피터 로두카, 스티븐 슈워츠 두 변호사는 챗GPT를 사용해 변론서를 작성해 제출했고 결과적으로 큰 재앙을 가져왔다. 문제는 챗GPT가 변론서를 존재하지 않는 판례들과 거짓 문구들로 채웠다는 것이다. 

챗GPT는 생성형 인공지능이다. 즉, 존재하는 정보를 그대로 전달하는 개념이 아니라 새롭게 창작을 하고나 재생성을 하는 개념이다.  인공지능이라는 타이틀 덕에 인간의 주관적인 창작보다 훨씬 확실한 정보를 주는 것처럼 보인다. 그러나 심각한 오류들이 등장하고 일명 가짜뉴스를 생성하는 식의 활동도 한다. 심지어는 거짓말을 그럴듯하게 굉장히 단호한 어조로 전달한다.

이 현상을 인공지능 환각(ai illution) 또는 인공지능 할루시네이션(ai hallucination)이라고 부른다. 

출처 : 셔터스톡
출처 : 셔터스톡

인공지능 환각이 나타나는 이유는 무엇일까? 정확히 밝혀지지는 않았으나 전문가들을 몇 가지 후보들을 꼽고 있다. 그 중, 정보의 부족을 가장 유력한 범인으로 보고 있다. 정보가 없으면 답변을 하지 못하는 시리(Siri)나 빅스비(Bixby)와는 다르게 챗GPT는 정보가 부족해도 답변을 무조건 생성해낸다. 이는 관련된 정확한 정보가 많이 생성된다면 해결될 문제로 보인다. 또 다른 이유로는 정보의 편향성을 꼽을 수 있다. 같은 문제에 대해서도 어떠한 단어를, 어떠한 언어를 사용하느냐에 따라 답변이 달라지기도 한다. 대표적인 예로 ‘독도’와 ‘다케시마’가 있다. 모두 같은 영토에 관한 문제이지만 독도라는 단어를 사용해 질문을 하면 한국 측의 정보를 답하고 다케시마라는 단어로 질문을 하면 일본 측의 정보를 전한다. 아무래도 독도라는 단어를 사용한 자료들을 한국 측의 입장일 것이고, 다케시마라는 단어를 사용한 자료들은 일본 측의 입장을 담고 있기 때문이다. 편향성의 문제는 쉽게 해결되지 않을 것으로 보인다. 예방책은 다양한 언어와 단어들로 자료를 찾고 비교하며 객관적인 정보를 얻는 방법이다.

혁신이라는 수식어를 달고 등장한 챗GPT에게는 부족한 점이 자주 보이고는 한다. 허나, 출시된 지 1년도 채 되지 않았기에 이러한 시행착오를 겪는 것은 당연한 수순이다. 앞으로의 수정과 업데이트를 거쳐 더욱 정교해질 것으로 기대된다. 사용자들도 선택적이고 비판적인 태도로 정보를 수집하고 사용하면서 챗GPT의 성장을 지켜보는 것이 어떨까?

저작권자 © 소비자평가 무단전재 및 재배포 금지