2023 법무사 9월호

모든 지식의 원천인 것처럼 포장해 소개했고, 거기서부터 대중의 오해가 시작되었다. 언론에서도 챗GPT를 두고 “지식을 물어보면 즉답하 는 인공지능”이라 소개했고, 검색 엔진 “구글의 종말”이라 는 자극적인 키워드까지 등장하는 등 대중의 오해를 공고 히 했다. 그러나 사실 챗GPT를 비롯한 언어 모델 AI는 지 식을 체계적으로 습득하고 공부한 적이 없다. 그렇기 때문 에 지식과 정보에 대한 질문에서 문맥은 그럴싸하지만 내 용은 엉뚱한 답변을 할 수 있고, 이는 언어모델로서 자연스 러운 현상이다. 인공지능이 잘못된 정보를 마치 진짜인 것처럼 내놓 는 현상을 ‘할루시네이션(hallucination 환각)’이라고 부른 다. 현재 인공지능의 할루시네이션에 대한 우려가 전 세계 AI산업의 발목을 잡고 있는 상황으로, 한국형 GPT 제품의 출시를 자꾸만 늦추고 있는 원인이기도 하다. 이 ‘할루시네이션’에 대해 조금 더 살펴보도록 하자. 02 할루시네이션, 챗GPT가 엉뚱한 답변을 하는 이유 AI가 지식을 공부한 적이 없다면, 그럼 무엇을 공부했 을까. 그들은 단지 ‘주어진 문장 뒤에 이어질 단어로 올바른 것을 고르는’ 퀴즈를 풀었을 뿐이다. 물론 천문학적인 분량 의 문장을 대상으로 이런 퀴즈를 풀어나가다 보면, 사람들 이 단어를 나열하는 패턴을 익히기는 할 것이다. ‘Examples’로 소개되던 예문은 모두 “AI에게 전문지식을 물어보면 유용하다.”는 내용을 담고 있다. 아울러 ‘Limitations’에 는 “2021년 이후의 지식과 사건에 대해서는 잘 모른다”는 안내문이 기재되어 있다. 이는 챗GPT의 유용함과 한계가 동시 에 존재한다는 것인데, 이런 모순이 함께 존 재하게 된 데는 ‘챗GPT’ 서비스의 공개 자 체가 ‘GPT-4’의 홍보를 위한 일종의 마케 팅 수단이었기 때문이다. 마케팅을 위해 제 작사가 최대한 효용성이 있어 보이도록 챗 GPT를 일종의 ‘만물박사 인공지능’, 혹은 사실 챗GPT를 비롯한 언어모델 AI는 지식을 체계적으로 습득하고 공부한 적이 없다. 그렇기 때문에 지식과 정보에 대한 질문에서 문맥은 그럴싸하지만 내용은 엉뚱한 답변을 할 수 있고, 이는 언어모델로서 자연스러운 현상이다. 인공지능이 잘못된 정보를 마치 진짜인 것처럼 내놓는 현상을 ‘할루시네이션 (hallucination 환각)’이라고 부른다. 67 ┃ 현장활용 실무지식 유비무환, 인공지능 이야기 2023. 09 vol.674

RkJQdWJsaXNoZXIy ODExNjY=