AI란 무엇인가요?

AI-CX 개념허브

테나 • 조혜리/콘텐츠 마케터

10월 15일

  • AI
  • 개념허브

챗GPT 이후, 모두가 AI를 이야기하고 있습니다. 비즈니스 현장에서도, 개인적인 용도로도 생성형 AI 툴을 활용하는 일이 흔하고 자연스러워지고 있죠. 하지만 AI와 머신러닝, 딥러닝, LLM 같은 개념들, 많이는 언급되는데, 쉽고도 정확하게 설명하는 콘텐츠는 많지 않은 것 같아요. 채널톡 콘텐츠팀도 AI가 항상 낯설고 어려운데요. 그래서 시작합니다. CX 업계에서 이해하면 좋을 AI 개념들을 쉽게 풀어 소개한 '개념 허브' 시리즈! 첫 순서는 바로 'AI'입니다.

AI의 정의

“생각하는 기계를 만들 수 있다고 믿을 만한 확실한 이유는 사람의 어떤 부위에 대해서든 이를 흉내내는 기계를 만들 수 있다는 사실이다.” [1]

AI란 컴퓨터로 인간의 지능을 구현하는 기술을 말합니다. 그 기술을 연구하는 학문 분야를 이르는 말이기도 합니다. 이름인 AI부터가 ‘인공지능(Artificial Intelligence)’의 약자로, 자연 지능(natural intelligence)과 대비되죠. 하지만 ‘지능’조차 여전히 그 정체가 밝혀지지 않은 신비로운 영역이기 때문에, AI를 정의하는 데에는 다양한 관점이 있습니다.

과연 사람이 생각하는 원리를 온전히 재현해야만 AI라고 할 수 있을까요? 그렇다면 그 원리는 대체 뭘까요?사고의 원리조차 완전히 밝혀지지 않았는데 이를 토대로 AI를 만드는 게 가능할까요? 애초에 사람의 사고를 그대로 재현해야만 지능이 있다고 볼 수 있는 걸까요?

이렇게 '지능'의 정체에 초점을 맞춰서 AI를 정의하려고 하다 보면 답 없는 미궁에 빠지게 됩니다. AI 분야의 초기 연구자인 앨런 튜링은 문제를 간단하게 만들어주는 사고 실험을 하나 제안했습니다. 바로 '이미테이션 게임(imitation game)'입니다.

(출처: Turing Test: 50 Years Later)

이미테이션 게임, 혹은 흉내 게임은 평가자가 사람, 혹은 컴퓨터(AI)와 채팅을 해서 본인이 했던 상대가 사람인지 컴퓨터인지 맞추도록 하는 일종의 AI 성능 테스트인데요. 사람과 구분할 수 없을 정도로 자연스러운 대답을 해내는 AI라면 그 AI가 '생각한다'고 인정하자는 겁니다. AI의 기준을 작동 원리가 아닌 외적인 행동 결과에 두자는 거죠. [1]

실제로 AI 분야에서 그간 많은 성과를 낸 것은 합리적으로 행동하는 것처럼 보이는 결과를 달성하기만 하면 된다는, '합리적 행동' 관점의 연구들이었습니다. [2] 명확하게 파악할 수도 없는 사고의 원리를 재현하려 힘 빼지 말고, 결과적으로 자연 지능과 같은 성능을 보이는 것 자체를 목표로 삼자는 거죠.

“‘기계가 생각할 수 있는가?’라는 질문은… ‘잠수함은 수영할 수 있는가?’라는 질문만큼만 유관하다.” (에츠허르 데이크스트라, 1984) [2]

AI의 원리

AI는 20세기 중반부터 연구가 시작된 분야로, 그간 다양한 구현 방법이 제시되었습니다. 다만 그 중에서도 효과가 가장 좋은 방법이 있었겠죠. 2024년 현재 쏟아지는 AI 서비스의 대부분은 머신러닝 - 딥러닝 - 트랜스포머 모델 - LLM을 활용한 것들입니다. 이 각각의 개념들이 AI와 동의어라고는 할 수 없고, 다들 AI를 구현하기 위해 제시된 방법들이라고 생각해 주시면 됩니다. 그럼 가장 상위에 있는 ‘머신러닝’부터 설명해 볼까요.

머신러닝(Machine Learning, ML)이란?

머신러닝은 ‘기계 학습’이라는 말로도 쓰입니다. 컴퓨터가 스스로 데이터를 학습하도록 한다는 뜻인데요.

예를 들어 y=ax+b와 같은 방정식이 있다면, x라는 데이터가 입력될 때 y라는 정답을 계산해 줄 수 있는 조건 a와 b를 컴퓨터가 찾을 수 있도록 학습시키는 것을 머신러닝이라고 할 수 있습니다.

사실 머신러닝은 생각보다 오래 전부터 존재했던 개념입니다. 1959년, 아서 사무엘은 머신러닝을 ‘명시적으로 프로그램을 작성하지 않고도 컴퓨터에 학습할 수 있는 능력을 부여하기 위한 연구 분야’라고 정의했죠. 참고로 1959년이면 AI 연구가 이제 막 싹트던 시기입니다.

AI 연구 초창기에는 사람이 일일이 규칙을 입력하는 ‘규칙 기반 AI’도 많이 시도되었지만, 당연히 가능하기만 하다면 머신러닝이 효율적이겠죠. 제대로 된 머신러닝이 구현되려면 빅데이터와 컴퓨팅 파워가 뒷받침되어야 했기 때문에 머신러닝 분야가 빛을 보기까지는 긴 시간이 필요했지만, 2024년 현재 시점에서는 머신러닝이 AI 분야의 확고한 주류로 자리잡았다고 말할 수 있습니다.

머신러닝은 학습 방법에 따라 여러 종류로 나누어 볼 수 있는데요. 이 글에서는 지도 학습, 비지도 학습, 강화 학습의 세 가지 방식만을 간략하게 설명하겠습니다. 더 자세한 학습 방법들을 알고 싶다면 아래의 '머신러닝이란 무엇인가요?' 글을 봐주세요!

(1) 지도 학습(supervised learning)

‘지도 학습’은 데이터와 정답(레이블)을 모두 제공하는 머신러닝 방법입니다. AI에게 수많은 입력-출력 쌍을 관측시켜 특정 입력에서 특정 출력을 내보내는 함수를 학습하게 하는 것인데요. 인간이 직접 ‘문제’에 정답을 제공하기 때문에 특히 분류, 예측(AI 연구에서는 ‘회귀’라는 용어를 사용합니다) 유형의 문제를 해결하는 데에 유용합니다.

(출처: Supervised Machine Learning)

지도 학습은 2010년대까지만 해도 AI의 지배적인 패러다임이었습니다. 초기의 자율 주행 차량이나 음성 비서도 지도 학습 기반으로 탄생한 AI 서비스입니다. 하지만 지도 학습을 하려면 데이터에 일일이 레이블이 붙어야 한다는 점이 문제였습니다. 모든 데이터가 정제되어 있는 건 아니니까요.

(2) 비지도 학습(unsupervised learning)

세상에는 정답이 없는 데이터도 있습니다. 이런 데이터에 대해서는 주어진 데이터에 대해 정답을 제공하지 않고 학습시키는 비지도 학습이라는 방법을 사용합니다. AI가 데이터 안에서 패턴을 찾아내 비슷한 유형끼리 묶도록 하는 것이죠. 당연히 지도 학습에 비해서는 훨씬 구현하기 어렵습니다.

(출처: Clustering in Machine Learning)

AI가 비지도 학습을 통해 나름의 기준을 찾아서 데이터를 여러 개의 그룹으로 묶는 것을 ‘군집화(clustering)’라고 부릅니다. 군집화는 사람이 데이터에 명확한 정답을 달아 주기 어려운 분야에 적합한데요. 비슷한 특징을 가진 사진끼리 그룹화하여 보여주는 사진 관리 애플리케이션의 기능, 마케팅 분석, 천문학 데이터 분석 등에 쓰이고 있습니다. 특히 비지도 학습의 일종인 ‘자기지도 학습(self-supervised learning)’으로 만들어진 GPT는 AI의 역사를 바꾸었다고 말할 수 있을 정도입니다.

(3) 강화 학습(reinforcement learning, RL)

‘강화 학습’은 지도 학습이나 비지도 학습과는 많이 다릅니다. 쉽게 말해 AI가 잘하면 보상을 주면서 AI 스스로 더 많은 보상을 받기 위한 방법을 학습하도록 하는 방법인데요. 학습하는 시스템인 ‘에이전트(agent)’가 주어진 환경(environment)을 관찰해 행동(action)을 실행하고 이로부터 보상(reward)를 받으며 학습을 진행하고요. 에이전트는 시간이 흐름에 따라 가장 큰 보상을 얻기 위해 정책(policy)라고 부르는 최상의 전략을 스스로 학습합니다.

(출처: Reinforcement Learning: An Introduction)

강화 학습의 대표적인 예시로는 2016년 이세돌을 이겨 전 세계를 충격에 빠뜨린 딥마인드의 ‘알파고’를 들 수 있습니다.

(출처: AlphaGo’s ultimate challenge)

알파고는 프로 바둑 기사들의 기보를 학습해 스스로 게임을 했습니다. 이길 경우 '양'의 보상을, 질 경우 '음'의 보상을 주었고요. 보상을 더 받는 방향으로 알고리즘의 ‘가중치’를 수정했죠. 딥마인드에서 발표한 논문에 따르면, 딥마인드에서는 강화학습을 통해 전통적 게임을 하는 프로그램을 49개 만들어 테스트했으며 이 중 29개에서 사람보다 높은 점수를 얻었습니다. [3]

강화 학습은 오래 전부터 존재했던 학습법이지만 이전의 알고리즘은 좋은 성과를 내지 못했습니다. 딥러닝의 등장 이후에야 인공 신경망을 적용하면서 바둑과 같은 복잡한 문제에 적용할 수 있게 되었는데요. 강화 학습에 딥러닝을 성공적으로 적용한 대표적인 알고리즘은 DQN과 A3C로, 모두 딥마인드에서 발표했습니다.

딥러닝(Deep Learning, DL)이란?

많은 분들이 막연히 AI 하면 ‘딥러닝’이라고 알고 있을 텐데요. 그만큼 현재의 AI 업계에서는 중요한 것을 넘어 당연한 개념입니다.

머신러닝이 ‘컴퓨터가 스스로 데이터를 학습하도록 하는 것’이라면, 이를 실현하기 위한 방법도 여러 가지가 있겠죠. 그중 하나가 사람의 뇌를 모방한 ‘인공 신경망(Neural network)’을 구축하는 방법입니다. 딥러닝은 이 인공 신경망, 정확히는 ‘깊은(=층이 여러 개인)’ 인공 신경망(Deep Neural Networks, DNN)을 사용하는 머신러닝 기법입니다.

(출처: Building High-level Features Using Large Scale Unsupervised Learning)

딥러닝 이전까지 대부분의 머신러닝은 결국 인간이 ‘특징’을 추출하고 규칙을 작성해야 한다는 한계가 있었습니다. 예를 들어 개와 고양이를 구분하는 AI를 만들려면 개와 고양이를 구분할 수 있는 기준을 명확하게 입력해야 하는데요. 사람은 개와 고양이를 단박에 구분할 수 있지만, 그렇게 할 수 있는 이유를 말로 잘 설명하지는 못합니다. 딥러닝의 가장 중요한 점은 컴퓨터가 사람의 도움 없이도 데이터에서 ‘특징’을 추출할 수 있다는 점입니다. [4]

이전에는 컴퓨터 프로그램에 ‘개와 고양이를 구분하는 방법’과 ‘개와 고양이 데이터’를 넣어서 ‘분류된 결과’를 얻었다면, 이제는 컴퓨터에 ‘개와 고양이 데이터’, 그리고 ‘분류된 결과’만 넣어서 ‘구분하는 방법’을 직접 찾아내도록 할 수 있다는 뜻입니다. 이제는 사람이 모르는 방법조차 컴퓨터가 알아낼 수 있게 된 겁니다. 구글 딥마인드의 개발자들은 이세돌보다 바둑을 잘 두는 방법을 모르지만, 구글 딥마인드 개발자들이 만든 알파고는 이세돌보다 바둑을 잘 두는 방법을 아는 것처럼요.

딥러닝의 원리는?

딥러닝의 원리는 기본적으로는 인공 신경망의 원리와 같습니다. 인공 신경망의 한계 일부를 보완한 것이 바로 딥러닝이니까요. 인공 신경망은 사람의 뇌를 모방한 모델입니다.

(출처: Artificial Neural Networks and its Applications)

사람의 세포를 수학적으로 모델링한 ‘퍼셉트론’이 마치 뉴런처럼 입력을 받아 출력을 내보내는 구조인데요. 퍼셉트론은 각 입력별로 ‘가중치’, 즉 강도를 부여합니다. 이 퍼셉트론을 여러 층으로 쌓아 연결한 것을 바로 인공 신경망이라고 합니다.

여기서 잠깐 딥러닝의 원리를 정말 간략하게 설명해 보고 넘어가 볼까요. (갑자기 어려운 말 나왔다고 당황하지 마시고 어려우면 패스!)

일반적인 형태의 인공 신경망은 입력층, 은닉층, 출력층으로 형성되어 있습니다. 여기서 입력층에서 은닉층을 거쳐 출력층으로 계산이 진행되는 것을 ‘순전파(Forward Propagation)’라고 하고요. 그 결과로 나온 값을 활용해 출력층에서 입력층까지 되돌아가면서 다시 가중치를 수정하는 것을 역전파(Backpropagation)’이라고 합니다. 입력에 대응하는 출력이 나올 수 있도록, 그 오차가 최소가 되도록 순전파와 역전파를 반복하면서 최적의 가중치를 찾는 과정이 바로 인공 신경망의 ‘학습’입니다.

(출처: Geoffrey Hinton(britannica))

딥러닝을 발견해낸 인물은 제프리 힌튼입니다. 제프리 힌튼은 2006년 심층 신뢰 신경망(Deep Belief Network, DBN)에 대한 논문을 발표했는데요. 그간 인공 신경망 분야에서는 신경망을 여러 층 쌓으면 학습이 잘 되지 않는다는 문제가 있었습니다. 제프리 힌튼의 2006년 논문은 신경망의 층이 깊어져도 학습이 잘 될 수 있는 방법을 찾아내 딥러닝 시대의 신호탄을 쏘아올렸죠. [5]

2012년에는 이미지넷 대회에 출전해 다른 팀들보다 압도적인 성능을 보여주면서 제대로 화제를 끌었는데요. 이때 인공 신경망이 학습된 데이터만 잘 처리하고 새로운 데이터를 잘 처리하지 못하던 문제를 데이터를 고의로 누락(Dropout)시키는 방식으로 해결하기도 했습니다. [6] 그야말로 딥러닝의 아버지라고 불릴만한 인물입니다.

딥러닝에 쓰이는 인공 신경망에도 여러 가지 종류가 있는데요. 이미지 인식에 주로 쓰였던 합성곱 신경망(Convolutional Neural Network, CNN), 음성 인식 및 자연어 처리에 주로 쓰였던 RNN(Recurrent Neural Network, RNN)이 대표적입니다. CNN과 RNN은 몇 년 전까지만 해도 인기 있는 딥러닝 모델이었으나 이제는 ‘어텐션’ 개념을 적용한 트랜스포머가 그 자리를 대체하고 있는데요. CNN과 RNN의 설명은 아래에 링크된 ‘딥러닝’ 편에서 좀더 자세히 설명하고, 여기서는 트랜스포머에 대해서만 설명해 보겠습니다.

트랜스포머(transformer)란?

트랜스포머 모델은 2017년 구글의 논문에서 처음 제안되었습니다. [7] 트랜스포머 이전에는 RNN과 어텐션(attention)을 이용해 언어 모델을 만들었지만, RNN은 데이터를 순차적으로 처리하기 때문에 속도가 느리다는 단점이 있었습니다.

참고로 어텐션은 2014년 기계 번역의 성능 향상을 위한 논문에서 제시된 개념인데요. 간단하게 설명하자면 알고리즘이 데이터에서 ‘중요한 부분’을 판단해서 더 많은 가중치를 주도록 하는 방법입니다. [8]

트랜스포머 모델은 RNN 말고 어텐션만으로 언어 모델(Language Model, LM)을 만드는 방법으로 제시되었습니다. 트랜스포머 모델은 언어 처리를 병렬화합니다. 주어진 텍스트 본문의 모든 토큰이 ‘순서대로’가 아니라 ‘동시에’ 학습된다는 뜻입니다. 훨씬 더 큰 데이터를 쓸 수 있게 되는 거죠. [9]

(출처: Attention Is All You Need)

트랜스포머 모델을 활용한 AI의 대표적인 사례는 오픈AI의 ‘GPT’ 시리즈입니다. 2018년 처음 공개된 GPT는 큰 주목을 받지 못했지만 GPT-2, GPT-3은 이전보다 훨씬 더 많은 매개변수와 학습 데이터를 활용하면서 무서운 성능을 보여주었습니다. 그리고 2022년 11월 전 세계를 상대로 베타 서비스를 시작한 ‘챗GPT’는 사람들을 충격에 빠뜨렸습니다. 챗GPT의 답변들은 이전의 챗봇들과는 비교할 수 없을 정도로 자연스럽고 유용했으니까요. 이후로 트랜스포머 모델을 활용한 고성능의 AI 서비스들이 속속 등장하고 있습니다. 최근 2~3년간 AI 업계를 지배하고 있는 모델이라고 해도 과언이 아닙니다.

LLM(Large language Model)이란?

단어부터 풀어볼까요. ‘대규모 언어 모델(Large Language Model)’의 약자입니다.

그렇다면 언어 모델(Language Model)은 무엇일까요? 언어 모델은 AI가 사람의 말, ‘자연어’를 이해하도록 하는 방법 중 하나입니다. 단어 몇 개가 주어졌을 때, 문장을 완성하려면 그 앞뒤에 어떤 단어가 와야 하는지 확률적으로 예측하는 모델이죠. 구글이나 네이버의 검색 엔진에 검색어를 입력하면 실시간으로 다음 단어를 예상해 추천 검색어로 띄워 주는 모습을 떠올리시면 이해가 쉬울 겁니다. 물론 검색 엔진은 딥러닝 기반 언어 모델 외에도 다양한 기술이 집약된 복합 시스템이므로, 참고만 해 주세요!

트랜스포머의 등장 이전에도 언어 모델을 만드는 데에 쓰던 신경망 모델들이 존재했지만, 기존의 방식(RNN, LSTM 등)은 속도가 느리다는 단점이 있었습니다. 하지만 트랜스포머 모델은 데이터를 병렬적으로 처리할 수 있어서 한번에 많은 데이터를 처리할 수 있었고, 드디어 진정한 LLM을 구현할 수 있게 되었죠.

트랜스포머 모델과 LLM의 가능성이 본격적으로 주목받은 것은 오픈AI가 2022년 11월 LLM을 활용한 대화형 AI 애플리케이션 ‘챗GPT’를 내놓으면서부터입니다. 챗GPT는 사람의 어떤 질문에든 자연스럽게 대답하는 것은 물론, 각종 전문가 시험까지 통과하는 저력을 보였습니다. 챗GPT의 성능을 직접 확인한 대중은 어느새 훌쩍 발전한 AI의 수준에 깜짝 놀랐습니다.

이후 LLM이라는 새로운 기술의 활용에 대한 관심이 뜨거워졌으며, 새로운 연구와 서비스들이 속속 등장하고 있습니다. 이 글이 쓰이고 있는 순간에도 새로운 뉴스가 등장하고 있을 정도로요. 다음은 챗GPT 이후 발표된 주요 LLM 관련 서비스들입니다.

발표 시점

이름

회사

매개변수(개)

2022.11.

챗GPT

오픈AI

1750억

2023.2.

LLaMA-1

메타

70억~650억

2023.3.

GPT-4

오픈AI

비공개

2023.5.

PaLM2

구글

3400억

2023.7.

LLaMA-2

메타

70억~700억

2023.7.

Claude-2

앤트로픽

비공개

2023.9.

하이퍼클로바X

네이버

비공개

2023.11.

GPT-4 Turbo

오픈AI

비공개

2023.11.

Phi-1.5

MS

13억

2023.12.

Gemini 1.0

구글

32억5000만(나노), 프로, 울트라 비공개

2024.2.

Gemini 1.5

구글

비공개

2024.3.

Claude 3

앤트로픽

520억

2024.3.

Grok

xAI

330억

2024.4.

LLaMA-3

메타

80억~700억

2024.5.

GPT-4o

오픈AI

미공개

AI의 역사

인간에 준하는 지능을 가진 무언가를 만들어낸다는 발상의 기원은 고대까지 거슬러 올라갑니다. 심지어 그리스 로마 신화에도 헤파이스토스의 황금 하녀, 청동 거인 ‘탈로스’ 같은 이야기들이 전해질 정도죠. 또한 AI의 사상적 기초들은 철학, 수학, 심리학, 신경과학 등 여러 오래된 학문들에 뿌리를 두고 있습니다.

(출처: A Historical Overview of AI Winter Cycles)

하지만 지금과 같은 개념의 AI가 본격적으로 등장한 것은 20세기 중반, 컴퓨터가 등장하던 시기부터입니다. 희망찼던 첫 등장 이후 지금까지 두 차례의 붐과 두 차례의 겨울을 지나, 이제 우리는 세 번째 AI ‘붐’의 한가운데에 있습니다.

제1차 AI 붐: 1950년대 초~1960년대 말

1950년, 앨런 튜링은 ‘계산 기계와 지능(Computing Machinery and Intelligence)’이라는 논문을 통해 ‘생각하는 기계’의 개념을 제시했습니다. 이 논문에서 튜링은 기계가 생각할 수 있는지 묻지 말고, 기계가 행동주의적 검사를 통과할 수 있는지를 묻자고 제안했죠. 이 검사가 바로 그 유명한 ‘이미테이션 게임(imitation game)’, 튜링 테스트입니다. 튜링은 AI 분야의 선구자로 인정받아, 지금은 AI 분야에 크게 기여한 사람에게 그의 이름을 딴 ‘튜링 상’이 수여되고 있습니다.

“기계가 생각할 수 있을까?”라는 질문에 대해 생각해 보자. 그러려면 우선 ‘기계’와 ‘생각하다’의 의미를 정의해야 한다. (중략) 나는 그런 정의를 만들어 내려 들기보다는 원래 질문을 (그것과 밀접하게 연관되어 있으면서도) 더 명확한 다른 형식으로 바꾸고자 한다. 이 새로운 형식은 ‘흉내 게임’이라고 부를 수 있을 것이다. [1]

(출처: A Proposal For the Dartmouth Summer Research Project On Artificial Intelligence)

‘인공지능’이라는 표현이 처음으로 등장한 것은 6년 뒤인 1956년, 다트머스 회의에서입니다. 존 매카시, 마빈 민스키, 클로드 섀넌, 너새니얼 로체스터, 앨런 뉴웰, 허버트 사이먼 등 10명의 연구자가 모여 다트머스에서 2개월간 인공지능 연구 워크숍을 진행했죠. 워크숍의 결과물 중 가장 완성도가 높았던 것은 앨런 뉴웰과 허버트 사이먼의 ‘로직 띠어리스트(Logic Theorist)’라는 수학 정리 증명 시스템이었습니다.

이후 다양한 분야에서 AI의 초기 성공 사례들이 등장했습니다. 뉴웰과 사이먼은 GPS라는 프로그램을 만들어 인간의 문제풀이 과정을 흉내내 보려 했고요. 존 매카시는 이후 30년간 주요 AI 프로그래밍 언어로 쓰였던 LISP를 개발했죠. 아서 새뮤얼은 알파고의 선배라고 할만한 체커 프로그램들을 내놓았습니다.

특히 1958년에는 코넬항공연구소에 근무하던 프랭크 로젠블라트(Frank Rosenblatt)가 ‘퍼셉트론(Perceptron)’의 개념을 고안해냈습니다. 인공 신경망 분야에서는 의미 있는 순간으로 꼽을 수 있는데요. 당시의 퍼셉트론은 단순한 인공 신경망 모델로, 주어진 데이터를 기반으로 이진 분류 문제를 해결할 수 있는 알고리즘이었습니다.

1970년에는 마빈 민스키가 ‘라이프’ 매거진 인터뷰에서 했던 이야기가 화제가 되기도 했는데요. 당시 AI에 대한 낙관과 확신이 엿보이는 내용입니다.

“3~8년 안에, 평균적인 인간의 지능을 보유한 기계가 등장할 것입니다. 셰익스피어의 희곡을 읽고, 자동차에 윤활유를 넣고, 사무실에서 정치를 하고, 농담을 하고, 싸움을 할 수 있는 기계를 말하는 것입니다. 이 시점에 기계는 놀라운 속도로 스스로 학습하기 시작할 것입니다. 몇 달 내에 천재 수준에 도달하고, 또 그 몇 달 뒤에는 계산할 수 없을 정도로 능력을 갖게 될 것입니다.” [2]

1차 인공지능 겨울: 1970년대 초~1980년대 중

하지만 인공지능에 대한 열광은 1970년대 초반부터 급격히 사그라들었습니다. 처음에는 그전까지 상상하지 못했던 놀라운 성과를 보여주는 것처럼 보였지만, 퍼즐을 풀거나 수학 문제를 증명하는 이상의, 인간이 정말로 풀고 싶은 문제에서는 기대에 부응하지 못하는 결과들이 나왔기 때문입니다.

이는 당시 컴퓨터 처리 능력의 현실적인 한계 때문이었는데요. 1969년 마빈 민스키와 시모어 페퍼트가 ‘퍼셉트론’이라는 책에서 퍼셉트론의 한계를 지적한 것 역시 1차 AI 겨울을 불러온 주요한 사건으로 꼽힙니다. 1966년 미국 정부의 지원을 받아 작성된 'ALPAC' 보고서에서 기계 번역은 당분간 성과가 나올 가망이 없다는 결론을 발표하면서 그전까지 대대적으로 이뤄졌던 기계 번역 연구에 대한 지원이 크게 축소된 것도 치명적이었죠. [2] [4]

제2차 AI 붐: 1980년대~1990년대

제2차 AI 붐은 컴퓨터에 인간의 지식을 일일이 집어넣으면 AI 구현이 가능할 것이라는 믿음으로 가득했습니다. 일명 ‘전문가 시스템’인데요. 대표적인 적은 1971년 파이겐바움과 스탠퍼드 동료들이 고안한 덴드럴(DENDRAL)이라는 화학 분석 시스템입니다. 마이신(MYCIN)이라는 혈액 감염 진단 시스템도 있었는데요. 450개 규칙을 이용해서 일부 전문의보다는 훌륭하고, 풋내기 의사보다는 훨씬 나은 진단을 내린다는 평을 받았다고 합니다.

문제는 전문가 시스템에는 ‘상식적인 수준의 지식’들도 필요했다는 겁니다. 사람에게는 당연한 상식이 컴퓨터에게는 없는데, 이것을 가시화하는 일이 생각보다 난제였던 거죠. 이를 위해서 ‘지식 표현’이라는 분야의 연구가 진행되기도 했습니다. 의미를 표현하는 ‘시맨틱 네트워크’ 같은 지식 표현 기술이 개발되었고요. 인간의 모든 상식을 컴퓨터에 입력하려는 ‘사이크 프로젝트(1984년, 더글라스 레나트)’도 시도되었습니다.

1차 AI 붐의 종결을 이끌었던 원인 중 하나인 퍼셉트론의 한계에도 극복 가능성이 보였습니다. 1986년 데이비드 럼멜하트와 제프리 힌튼은 ‘역전파 알고리즘’을 제안했고, 다층 신경망의 학습이 가능해졌죠. 역전파 알고리즘의 개념은 인공 신경망 연구의 재부흥을 이끌었다고 평가됩니다.

여러 국가와 기업들도 AI에 본격적으로 뛰어들었습니다. 일본에서는 ‘5세대’ 프로젝트라는 이름으로 AI를 대대적으로 밀어줬고요. 미국은 MCC를 결성했고, 영국은 ‘앨비 보고서’라는 걸 냈습니다.

기업들도 AI를 앞다투어 도입했습니다. 개인용 컴퓨터 PDP를 출시했던 DEC는 ‘R1’이라는 전문가 시스템을 운영했습니다. 이 시스템 덕분에 연간 4000만 달러를 절감했으며, 1988년 기준으로 DEC의 AI 그룹은 40개의 전문가 시스템을 사용하고 있었다고 합니다. 1980년대에는 미국 대기업(포춘 1000)의 3분의 2는 어떤 형태로든 일상 업무에 AI를 쓰고 있는 것으로 생각되었다고 하죠.

2차 인공지능 겨울: 1990년대~2000년대

하지만 전문가 시스템에는 명백한 한계가 존재했습니다. 어디까지나 사람이 일일이 지식을 서술하고 관리해 주어야 하기 때문이죠. 인터넷과 빅데이터의 개념도 존재하지 않던 시기이기 때문에 전문가 시스템의 한계는 더욱 뚜렷할 수밖에 없었고, 두 번째 AI 겨울이 찾아오고 말았습니다. 2000년 초반에는 ‘인공지능’, ‘인공 신경망’이라는 키워드로 연구 지원조차 받을 수 없었다고 합니다.

제3차 AI 붐: 2010년~

하지만 세 번째 AI 붐의 토양은 조용히 갖춰지고 있었습니다. 2000년대 웹이 등장하면서 빅데이터를 활용한 머신러닝의 개념이 서서히 퍼져 나갔고요. 1999년 엔비디아에서 최초의 GPU인 그래픽 포스 카드를 선보였죠. 데이터와 하드웨어라는 조각이 맞춰지고 있었던 겁니다. 마지막 하나는? 기존 AI 알고리즘의 한계를 극복한 새로운 알고리즘이죠. 바로 딥러닝입니다.

딥러닝은 2006년 제프리 힌튼 교수의 논문에서 처음으로 등장했습니다. 그리고 2012년, 제프리 힌튼 교수는 딥러닝 알고리즘과 GPU를 사용해 이미지넷 대회에서 압도적인 승리를 거두었습니다. 그전까지 70%를 겨우 웃돌던 이미지 인식 정확도를 단숨에 80~90% 수준으로 끌어올렸죠.

(출처: Accelerating AI with GPUs: A New Computing Model)

위의 이미지는 엔비디아 블로그에 올라온 표인데요. 파란색은 전통적인 방법을 활용한 팀의 정확도, 연두색은 딥러닝을 활용한 팀의 정확도 성과입니다. 2012년 80%대 성과를 낸 연두색 점들이 제프리 힌튼 교수 팀의 성과를 나타내는 점들이죠. 이후 AI 업계에서 딥러닝과 GPU의 사용이 압도적으로 늘어나게 됩니다. [12]

특히나 대중적으로는 크게 두 가지 사건이 AI의 성능을 각인시켰습니다.

2011년에는 IBM의 ‘왓슨’이 ‘제퍼디!’라는 퀴즈쇼에서 우승을 차지했고요.

2016년에는 구글 딥마인드의 ‘알파고’가 한국의 프로 바둑기사 이세돌을 상대로 승리를 거두었죠.

2010년 중반대부터는 AI를 산업에 실제로 활용해 보려는 시도가 활발하게 이어졌습니다. 애플의 ‘시리’로 대표되는 음성 인식 비서나 AI 번역 서비스, AI 이미지 인식 서비스 등이 많이 등장했죠.

2022년에는 오픈AI의 ‘챗GPT’가 트랜스포머 모델과 LLM의 성능을 대중에게 각인시켰습니다. 어떤 질문에도 자연스럽게 대답하는 것은 물론, 의사 면허 시험이나 로스쿨 시험도 통과할 정도의 성능을 보여주었죠. 이후 구글, 마이크로소프트, 오픈AI, 앤트로픽 등 다양한 기업들이 LLM을 활용한 AI 서비스를 활발하게 내놓고 있습니다.

AI-CX, 혹은 AICC의 역사

딥러닝이 등장한 이후인 2010년 제3차 AI 붐 때부터 본격적으로 AI가 인간을 대체할 것이라는 전망이 등장하기 시작했습니다. 이때 AI로 대체될 직업 상위권으로 지속적으로 언급된 직업이 바로 텔레마케터, 혹은 상담사입니다. 언뜻 단순 노동으로 생각되는 CS 업무가 AI를 활용한 음성 봇, 혹은 챗봇을 즉각적으로 활용하기에 가장 적합한 분야로 손꼽힌 것입니다.

실제로 2010년 중반부터는 AI를 CS에 도입하려는 시도가 활발하게 이어졌습니다. 2015년 일본의 미쓰비시 은행을 포함한 대형 은행들이 AI 콜센터 솔루션을 도입하기 시작했습니다. 한국에서도 NH농협은행을 필두로 한 금융권, 롯데홈쇼핑을 필두로 한 홈쇼핑 업계에서 속속들이 AI 콜센터 도입을 천명했죠. 당시만 해도 아직 채팅 상담이 보편적이지 않고 전화 상담이 대부분이던 시절인데요. 규모가 큰 콜센터를 운영하는 회사부터 AI로 CS 생산성을 높여 보고자 하는 시도를 했다고 볼 수 있습니다.

이때 등장한 개념이 바로 ‘AICC’, AI 컨택센터(Contact Center)입니다. 컨택센터란 더이상 전화뿐 아니라 채팅, 이메일 등 다양한 수단으로 고객과 소통하게 된 고객센터를 이르는 말입니다. 하지만 AICC라고 해도 컨택센터의 모든 분야에 AI를 활용하는 것은 아니었는데요. AICC에서 AI가 활용된 분야는 주로 세 단계입니다.

(출처: AI 컨택센터(삼성 SDS))

(1) 상담 지원(assistant)

상담 중에 실시간으로 내용을 분석해서 관련된 답변 내용이나 지식 문서를 추천해 줍니다. 전화 음성을 텍스트로 전환하는 STT(Speech To Text), 텍스트를 이해하고 분석하기 위한 NLP(자연어 이해)와 TA(텍스트 분석) 기술이 필요했습니다. 주로 컨택센터에서 고객 상담을 할 때 필요한 지식을 모아둔 KMS(지식관리시스템)과 연동해서 쓰였습니다. 실시간으로 상담 내용을 분석해줄 수 있어야 하기 때문에 속도가 중요했습니다.

(2) 상담 분석, 후처리(analytics)

상담 이후에는 상담 내용의 요약, 분류(태그 설정)부터 타 부서로의 이관 등 다양한 작업이 필요합니다. 상담사는 상담뿐 아니라 후처리 작업에도 시간을 많이 들이는데, 이 후처리 작업 시간만 줄여도 ‘상담’ 자체에 집중할 수 있게 되겠죠.

(3) 상담 대체(virtual agent)

보통 ‘AI 고객센터’라고 하면 가장 많이 떠올릴 개념입니다. 챗봇이나 보이스봇이 직접 고객을 응대하는 건데요. 현실적으로는 단순한 문의에만 챗봇이나 보이스봇 응대가 가능했습니다. 특히 고객 응대에 엉뚱한 답변이 나가면 안 되기 때문에, 답변 내용을 온전히 통제할 수 있는 규칙 기반 챗봇들이 주로 쓰일 수밖에 없었습니다.

어느 기업이나 컨택센터의 업무 효율을 높이고자 하는 수요가 있었기 때문에 AICC 산업은 꾸준히 전망 좋은 분야로 예측되었지만, 아직은 AI의 성능이 실무에 활용하기에는 많이 부족하다는 평도 상존했습니다. 그러니까 2010년 중반부터 2020년 즈음까지는 AI를 컨택센터에 도입하려는 시도가 이제 막 시작된 ‘AICC 1기’라고 부를 수 있을 것 같습니다.

하지만 2022년 LLM이 주목받으면서 AICC에도 새로운 가능성이 열렸습니다. 챗GPT의 무시무시한 성능을 본 사람들이 ‘이제는 AI가 단순 문의 이상의 조금 더 복잡한 문의도 처리할 수 있지 않을까?’하고 생각하게 된 거죠. 국내에서도 통신3사를 필두로 기존의 컨택센터 솔루션 업체, 스타트업까지 다양한 기술 기업들이 AICC, 혹은 AI-CX 분야에 뛰어들고 있습니다.

채널톡에도 AI가 쓰이고 있나요?

채널톡에서는 2024년 4월, 'ALF(알프)'를 내놓았습니다. ALF는 고객의 문의를 이해하고 적절한 답변은 물론, 고객의 문제를 해결하는 데에 도움이 되는 실행 버튼까지 직접 가져다 주는 AI 에이전트(agent)입니다. ALF는 채널톡 AI팀에서 오픈AI의 GPT를 기반으로 별도의 프롬프트로 제품화한 버전이에요. 채널톡은 앞으로 RAG 등 AI를 상담 현업에 활용할 수 있는 더 많은 기능을 선보이며 정말 AI를 활용하는 CX를 실현하는 데에 앞장설 예정입니다.

ALF에 대해서는 조만간 발행할, 'AI 챗봇이란 무엇인가요?'와 'AI 에이전트란 무엇인가요?'에서 더 자세히 말씀드릴게요 :)


레퍼런스

[1] 앨런 튜링, 곽재식 해제, 노승영 역, "지능에 관하여", 에이치비프레스, 2019, pp. 42-43.

[2] 스튜어트 러셀 and 피터 노빅, "인공지능 1: 현대적 접근방식," 류광 역, 제4판, 서울: 제이펍, 2021.

[3] V. Mnih et al, "Human-level control through deep reinforcement learning", Nature, vol. 518, pp. 529-533, Feb. 2015.

[4] 마쓰오 유타카, "인공지능과 딥러닝: 인공지능이 불러올 산업 구조의 변화와 혁신", 동아엠앤비, 2015. p. 51.

[5] G. E. Hinton, S. Osindero, and Y.-W. Teh, "A fast learning algorithm for deep belief nets," Neural Computation, vol. 18, no. 7, pp. 1527-1554, Jul. 2006.

[6] A. Vaswani et al., "Attention Is All You Need", arXiv, 1706.03762, Jun. 2017.

[7] D. Bahdanau, K. Cho, and Y. Bengio, "Neural Machine Translation by Jointly Learning to Align and Translate", arXiv, 1409.0473, Sep. 2014.

[8] R. Toews, "The Next Generation Of Artificial Intelligence", Forbes, Oct. 12, 2020.

[9] 한규동, “AI 상식사전”, 길벗, 2022.

[10] 박상길, "비전공자도 이해할 수 있는 AI 지식 [챗GPT 수록 개정판]," 정진호 그림, 반니, 2023.

[11] "Accelerating AI with GPUs", NVIDIA Blog.

게시일: 2024년 7월 24일

사이트에 무료로 채널톡을 붙이세요.

써보면서 이해하는게 가장 빠릅니다

회사 이메일을 입력해주세요