HYPER Special
Issues & Trend
HY Insight
Issues
Review

챗봇 서비스로 촉발된
최첨단 AI 기술 전쟁

  • 글 컴퓨터소프트웨어학부 김태욱 교수
미래 시장으로 주목받는 인공지능(AI) 분야를 선점하고자 전 세계가 각축전을 벌이는 가운데, 미국의 글로벌 AI 연구소 오픈에이아이(OpenAI)가 개발한 ‘챗GPT(ChatGPT)’가 큰 반향을 일으키고 있다. 기존 AI보다 방대한 정보를 학습하고 스스로 논리를 구성할 수 있는 챗GPT. 대체 챗GPT가 무엇이길래 전 세계가 주목하는 걸까.

최근 전 세계적인 이슈를 몰고 온 챗GPT

많은 이들이 2016년 3월 서울에서 치러졌던 딥마인드(DeepMind)의 알파고(AlphaGo)와 이세돌 9단의 세기의 대국을 아직도 생생히 기억할 것이다. 대한민국을 넘어 전 세계 바둑계의 불세출이었던 이세돌 9단의 패배는 대중에게 큰 충격을 안겼다. 또 현 AI의 수준에 대한 경외와 경각심을 비롯해, 관련 기반 기술에 대한 사회적 이목을 집중시켰던 바 있다. 우리는 이렇게 이미 알파고라는 예방 주사를 한 번 맞았음에도 불구하고 이로부터 정확히 7년이 지난 지금, 다시 한번 인공지능이 불러온 열풍 한가운데에 서 있다. 바로 언어 모델 기반 대화형 챗봇 ‘챗GPT’ 이야기다.

챗GPT로 대표되는 대화형 챗봇

챗GPT는 근본적으로 ‘언어 모델(Language Model)’의 형태를 따른다. 여기서 언어 모델이란 미리 주어진 맥락에 근거해 그다음에 나올 수 있는 말을 그럴싸하게 예측하는 AI를 말한다. 예를 들어 ‘나는 밥을’이라는 문장 일부가 주어진 경우, 사람들은 그다음에 나올 단어로 ‘먹었다’, ‘먹을 것이다’, ‘지었다’ 등을 자연스럽게 떠올린다. 그에 반해 ‘일어났다’, ‘놀다’, ‘뛸 것이다’ 등의 동사는 앞의 문맥과 결합되기 힘든, 굉장히 부자연스러운 배치로 느껴진다. 이러한 언어적 감각을 스스로 깨우칠 수 있는 AI가 바로 언어 모델이다.

그렇다면 언어 모델은 어떠한 원리로 그러한 능력을 갖출 수 있게 되는 것일까? 학습의 원리는 매우 간단하다. 책이나 신문, 웹사이트 등에서 수많은 텍스트를 수집한 뒤, 이를 순차적으로 읽어보며 다음에 나올 단어를 반복적으로 맞추는 훈련을 진행하는 것이다. ‘한양대학교는 서울시 성동구에 있는 사립 종합대학이다.’라는 문장이 주어졌다고 치자. 그러면 먼저 ‘한양대학교는’이라는 단어만 가진 채로 다음 단어인 ‘서울시’를 예측하도록 하고, 그다음에는 ‘한양대학교는 서울시’를 본 다음 ‘성동구’를 추측하는 식이다.

얼핏 보면 단순할 수 있는 이러한 학습 방식은 언어 모델이 문법과 같은 언어적 능력과 세상에 존재하는 다양한 지식을 자연스럽게 습득할 수 있도록 도와준다. 구체적으로 말하자면, ‘한양대학교는 서울시’라는 맥락이 주어져 있을 때 그다음 단어로서 ‘강남구’ 혹은 ‘관악구’가 아니라 정답인 ‘성동구’가 예측되기 위해서는 언어 모델이 한양대학교 서울 캠퍼스가 성동구에 위치하고 있다는 사실을 미리 인지하고 있어야 한다. 만약 잘못된 추측이 수행됐다면 우리는 정답인 ‘성동구’를 알려줌으로써 모델이 그러한 지식을 받아들일 수 있도록 하며, 이러한 과정을 수백억 개가 넘는 문장에 기반해 반복함으로써 언어 모델이 앞서 언급된 지리 정보뿐만 아니라 텍스트 데이터로부터 추출 가능한 다양한 형태의 지식을 체화할 수 있도록 유도한다.

흥미로운 점은, 언어 모델은 사실 최근 들어 새롭게 발명된 것이 아니라 자연어 처리(Natural Language Processing) 분야에서 전통적으로 다뤄졌던, 익히 잘 알려진 개념 중 하나였다는 사실이다. 그렇다면 챗GPT를 기존의 언어 모델과 차별화해 특별한 서비스로 환골탈태시키는데 활용된 비법은 무엇일까? 결론부터 이야기하자면, 챗GPT는 일반적인 언어 모델에 두 차례의 추가적인 개선 사항을 적용한 제품이다.

그 첫 번째 과정은 Instruction Fine-Tuning(굳이 번역하자면 ‘지시를 따르도록 미세조정’ 정도의 의미이다)으로, 이는 챗GPT가 사용자가 제공한 설명과 지시에 순응할 수 있도록 모델을 보완하는 작업을 의미한다. 원 형태의 언어 모델은 앞서 설명한 바와 같이 단순히 주어진 맥락에 맞게 다음에 나올 말들을 잘 예측하도록 학습됐으므로, 사용자와 자연스럽게 대화하거나 사용자의 니즈에 알맞게 행동할 이유가 전혀 없다는 문제점이 있다. 따라서 이러한 문제점을 개선하기 위해 챗GPT 개발사인 오픈에이아이에서는 사용자 집단을 모집해 언어 모델과 대화하며 여러 기능을 요청할 수 있는 환경을 구축하고, 이들이 실제로 시스템을 사용하며 구축된 데이터를 통해 사용자들이 원하는 응답의 형태를 챗GPT가 자연스럽게 모사하도록 모델을 추가적으로 학습시켰다. 이러한 노력의 결과로 챗GPT는 기존의 다른 언어 모델들과 달리 보다 자연스럽게 유저와 소통할 수 있는, 이른바 챗봇(Chatbot)에 가까운 형태를 띠게 됐다.

한편, 오픈에이아이에서 시도한 두 번째 방법은 로보틱스 및 다른 AI 분야에서 널리 쓰이고 있는 강화 학습(Reinforcement Learning) 패러다임을 언어 모델에 적용한 것이다(이는 또한 알파고 개발에도 적극 활용된 바 있다). 언어 모델은 설정에 따라 같은 요청에도 다양한 응답을 생성할 수 있는 능력이 있다. 따라서 생성 가능한 후보군 내의 응답들을 평가해 최종적인 응답을 결정할 필요가 있는데, 이를 위해 보상 모델(Reward Model)을 추가로 도입하고 최종 응답이 사용자가 선호하는 응답, 즉 보상이 큰 응답이 될 수 있도록 챗GPT를 개선하게 된다. 결과적으로 챗GPT는 사용자 집단이 보편적으로 보다 선호한 말투와 내용이 반영된 응답을 생성하도록 ‘강화’되어 더 높은 사용성을 보장할 수 있게 됐다.

이러한 두 개선 사항이 대표적인 챗GPT의 성공 요인으로서 대외적으로 알려져 있다. 하지만 오픈에이아이에서 모든 세부 사항을 공개한 것은 아니기에 소위 말하는 ‘맛집 비법’은 아직 숨겨진 것이 많다고 볼 수 있겠다.

대화형 챗봇의 기술적 한계와 과제는?

오픈에이아이의 챗GPT를 위시한 마이크로소프트의 빙 챗봇(BingGPT), 구글의 바드(Bard) 등 현 형태의 언어 모델 기반 대화형 챗봇들은 분명 이전과 비교해 괄목할 만한 성능 향상을 바탕으로 놀라운 정도의 대화 능력과 문제 수행 능력을 갖췄다. 그럼에도 불구하고 전문가들은 여전히 많은 개선점이 남아 있으며, 이를 해결하기 위한 후속 연구 개발에 앞으로도 지속적인 노력을 투자할 것을 촉구하고 있다.

현재 가장 이슈가 되는 것은 해당 서비스들이 제공하는 결과가 항상 사실에 근거한 것은 아니며 거짓을 마치 사실과 같이 지어내 그럴듯하게 말할 수 있다는 점이다. 이를 주로 ‘사실성(Factuality) 문제’ 혹은 ‘환상(Hallucination) 생성 문제’라 칭한다. 챗GPT에게 현실에서는 일어날 수 없는 사건, 예를 들어, 세종대왕이 노트북을 던진 사건에 대해 설명해 달라고 요청하면 마치 그런 일이 실제로 일어났던 것처럼 일어날 수 없는 일에 대해 자세한 설명을 제공해 준다. 이러한 기능은 가짜 뉴스(Fake News) 생성 및 허위 사실 유포 등에 악용될 수 있기에 세심한 주의를 가지고 살펴봐야 할 부분이다.

또한 일반적으로 언어 모델은 미리 모아 놓은 특정 시점까지의 데이터를 이용해서 학습되기에 지속적으로 변동하는 실제 상황에 대해 잘 인지하지 못한다는 한계가 있다. 따라서 오늘의 날씨 혹은 어제의 주가 등 실시간 정보를 제공하기에는 부적합하다. 이러한 한계를 보완하기 위해 최근 오픈에이아이에서는 부가적인 모듈을 플러그인(Plug-In) 형태로 챗GPT에 연동해 최신 정보를 모델에 공급할 수 있는 방안을 모색하고 있다.

초거대 AI, 어떻게 바라볼 것인가

챗GPT와 유사 서비스 사용자가 점진적으로 증가하고 해당 모델들의 흥미로운 작동 예시가 SNS를 통해 자연스럽게 전파되는 일이 잦아지면서, 챗GPT와 같은 초거대 AI는 최근 많은 대중의 관심사 중 하나로 자리매김했다. 또 트렌드를 반영하듯 학계, 산업계, 정부 기관 등 다양한 조직과 단체에서 이러한 초거대 AI가 향후 우리 생활에 미칠 영향력에 대해 우려와 기대가 공존하는 시선으로 다양한 논의를 진행하고 있다. 일부는 마치 공상과학 영화의 각본과 같이 빠른 시일 내에 AI가 많은 작업을 대체하고 일자리가 급속히 줄어드는 상황을 우려하기도 하고, 또 다른 일부는 비관론적인 입장을 견지하며 아직 많은 발전이 필요함을 역설하기도 한다. 초거대 AI가 활용하는 지식 데이터의 저작권 등 AI 윤리 문제도 고민과 합의를 통해 넘어야 할 산이다.

전공자로서 오늘날 일어나고 있는 관련 분야의 발전을 바라보노라면 여러 생각이 든다. 최근 몇 년간 그 발전의 속도가 믿을 수 없을 정도로 빨랐다는 점은 부인할 수 없는, 틀림없는 사실이다. 다만 이러한 진전이 결국 소위 말하는 특이점에 도달하게 될 것인지, 아니면 어느 순간 갑작스러운 한계를 맞이할 것인지는 아무도 예측할 수 없을 것이다. 그럼에도 한 가지 명확한 것은 우리는 현재까지의 기술만으로도 이미 챗GPT와 같이 실제적으로 유용한 도구를 만들어내는 데 성공했다는 것이다. 그리고 앞으로 이러한 것들에 빠르게 적응하고 이들의 활용성을 높이는 방향을 고민하는 것이 다양한 일상 업무의 생산성 제고에 필수불가결할 것이라는 점이다.

인공지능은 어느새 우리의 삶 구석구석으로 시나브로 스며들고 있다. 관련 기술 발전에 지속적인 관심을 두고 변화에 민첩하게 대응하는 것이 2023년 오늘을 살아가는 현대인으로서 꼭 갖춰야 할 덕목 중 하나일 것이다.