공지능을 대중에 공개하기로 했다. 당시 구 글은 ‘람다(LaMDA)’라는 인공지능을 개발 해 연구하고 있었고, 그 성능은 챗GPT의 뼈 대인 GPT-3보다 월등히 뛰어났다. 챗GPT보다 더 고성능인 인공지능을, 더 큰 기업인 구글에서 공개한다는 소식에 전 세계의 이목이 집중되었다. 마침내 지난 2 월, 구글은 의기양양하게 새로운 인공지능 플 랫폼 ‘바드(Bard)’의 시연 연상을 공개했다. 그러나 구글도 OpenAI와 같은 문제 를 피하지는 못했다. 그 시연 영상에 소개된 여러 사용 시나리오 중에서 할루시네이션 이 발견되었기 때문이다. 충격을 받은 사람 들은 “구글도 이제 끝났구나.”라며 구글 주 식을 매도하기 시작했고, 불과 수일 만에 구 글 시가총액 150조 원이 공중분해 되었다. 구글 내부에서도 경영진이 너무 성급했다는 비판이 쏟아졌고, 이 이슈는 한동안 미국 사 회를 흔들었다. 사실 OpenAI가 애초 LLM이 정말 잘 할 수 있는 분야인 논리적 사고나 창조적인 작문 활동, 코딩 같은 작업을 예시로 들었더 라면 아주 큰 기회를 잡았을지도 모른다. 하 필이면 ‘검색 엔진’이라는 정체성과 “챗GPT 는 척척박사”라는 마케팅 전략으로 악수를 둔 것이다. 04 한국형 GPT, 포털 입장에서는 독이 든 성배 미국뿐 아니라 아시아 권역에서도 비 슷한 상황이 벌어졌다. 중국 최대의 검색 포 털인 바이두 역시 중국형 GPT인 ‘어니봇 (ERNIE Bot)’을 발표했으나, 할루시네이션 을 제대로 잡지 못해 점유율이 급락했다. GPT 인공지능은 척척박사일 것이라 는 대중의 기대와 기술의 실제 작동원리 사 이의 괴리가 아직도 메워지지 않은 관계로, AI가 잘못된 답 변을 생성할 경우 사용자들의 직접적인 반감을 사는 현상 이 심화된 것으로 해석된다. 사실 국내에서도 연초부터 “우리도 챗GPT와 비슷한 것을 만들겠다”던 국산 IT기업들이 조금씩 주춤하기 시작 했다. 특히 네이버는 “챗GPT보다 압도적으로 많은 분량의 한글을 학습한 한국형 GPT, ‘서치 GPT’”의 출시를 예고했 으나 계속해서 공개 예정일이 늦춰지고 있다. 카카오가 공 개를 예고한 ‘KoGPT’ 역시 마찬가지다. 사실 GPT 인공지능에게 자국어를 학습시키는 것은 슈퍼컴퓨터 기반 시설이 갖춰져 있다면 그렇게까지 어려운 기술이 필요하지 않다. 하지만 인공지능의 할루시네이션 빈 도를 낮추는 것은 무척이나 어려운 일이다. 05 그나마 마이크로소프트의 ‘빙’이 성공한 이유 그러나 나름 성공사례도 있다. 바로 마이크로소프트 사의 빙(Bing)이다. 빙은 어떻게 성공사례가 되었을까. 먼저 빙은 챗GPT에 사용된 GPT-3.5에 비해 훨씬 거 대한 인공지능인 GPT-4를 탑재했다. GPT-4의 정확한 규모는 공개되지 않았으나, GPT-3.5 대 OpenAI는 스스로 "AI에게 전문지식을 물어보라"며 예시를 공개한 후 언론사들이 그 기대를 한없이 키워나가는 동안 일언반구도 하지 않았다. 대중들 사이에서 "첨단 AI는 척척박사일 것"이라는 합리적인 기대가 형성되는 과정을 방치한 것이나 다름없다. "가끔 엉뚱한 지식을 제공하는 AI"와 대중의 기대 사이에서 생겨나는 위화감 조성 역시 AI 제작사의 책임이라 할 것이다. 1) Large Language Model, 거대 언어 모델 69 ┃ 현장활용 실무지식 유비무환, 인공지능 이야기 2023. 09 vol.674
RkJQdWJsaXNoZXIy ODExNjY=