Tessa • CX Manager / Product
「考える機械を作ることができると信じる確実な理由は、人のどの部位に対しても、それを模倣する機械を作ることができるという事実だ。」[1]
AIとは、コンピューターで人間の知能を構成する技術を意味します。また、この技術を研究する学問分野を指す言葉でもあります。名前であるAI自体が「人工知能(artificial intelligence)」の略称で、自然知能(natural intellgence)との対比です。しかし、"知能"さえ相変わらずその正体が明らかになっていない神秘的な領域のため、AIを定義するには多様な観点があります。
果たして、人が考える原理を完全に再現してこそAIと言えるのでしょうか?では、その原理は一体なんでしょうか?思考の原理さえ完全に明らかになっていないのに、これを土台にAIを作ることは可能でしょうか?そもそも人の思考をそのまま再現してこそ、知能があると見ることができるのでしょうか?
このように"知能"の正体に焦点を合わせてAIを定義しようとすると、答えのない迷路に陥ることになります。AI分野の初期研究者であるアラン・チューニングは、問題を簡単にする思考実験を一つ提唱しました。それが「イミテーションゲーム(imitation game)」です。
イミテーションゲーム(ものまねゲーム)は、評価者が人あるいはコンピューター(AI)とチャットをして、相手が人なのかコンピューターなのかを当てる、一種のAI性能テストです。人と区分できないほど自然な返事をするAIなら、そのAIが「考える」と認めようということです。AIの基準を作動原理ではなく、外的な行動結果に置くということです。[1]
実際にAI分野でこれまで多くの成果を出したのは、合理的に行動するように見える結果を達成するだけで良いという、「合理的行動」観点の研究でした。[2] 明確に把握することもできない思考の原理を再現することに力をかけず、結果的に自然知能のような性能を見せること自体を目標にしようということです。
「コンピューターは考えることができるだろうか?という質問は、潜水艦は潜水できるのか?という質問と似たようなものだ。」(エドガー・ダイクストラ)[3]
AIは20世紀半ばから研究が始まった分野で、これまで多様な具現方法が提唱されました。2024年現在、沢山リリースされているAIサービスのほとんどは、マシーンラーニング - ディープラーニング - トランスフォームモデル - LLMを活用したものです。それぞれの概念がAIと同義語とはいえず、皆がAIを具現するために提唱された方法だと考えてもらえると良いかと思います。では、まず一番上にある「マシーンラーニング」から説明します。
マシーンラーニングは、"機械学習"とも言います。コンピューターが自身でデータを学習するようにするという意味です。
例えば、y=ax+bと同じような方程式があれば、xというデータが入力されるとき、yという正解を計算できる条件aとbをコンピューターが探せるように学習させることをマシーンラーニングと言います。
実際、マシーンラーニングは思っているよりもずっと前から存在していた概念です。1959年、アーサー・サミュエルはマシーンラーニングを「コンピューターに明示的にプログラムすることなく学習する能力を与える研究分野だ」[4] と定義しました。ちなみに、1959年と言えばAI研究が始まったばかりの時期です。
AI研究の初期には人がいちいち規則を入力する「ルールベースAI」も多く試みられましたが、当然可能であればマシーンラーニングが効率的でしょう。きちんとしたマシーンラーニングが実現するために、ビッグデータとコンピューティングパワーが後押しされなければならなかったため、マシーンラーニング分野が日の目を見るまでには長い時間が必要でしたが、2024年現在の時点では、マシーンラーニングがAI分野の確固たる主流となっていると言えます。
マシーンラーニングは、学習方法によって様々な種類に分けることができます。このブログでは、教師あり学習・教師なし学習・強化学習の3つの方法を簡単に説明します。
「教師あり学習」とは、入力データと出力データ(ラベル)が揃っており、入力データから出力データを推計するためのものです。[5] AIが数多くの入力 - 出力のペアを観測し、特定の入力から特定の出力を送り出す関数を学習させることです。人が直接"問題"に正解を提供するため、特に分野・予測(AI研究では"回帰"という用語を使用する)タイプの問題を解決するのに役立ちます。
教師あり学習は、2010年代まではAIの支配的パラダイムでした。初期の自動運転車や音声アシスタントも教師あり学習を基盤に誕生したAIサービスです。しかし、教師あり学習をするためには、データに一つ一つラベルを貼らなければいけないという点が問題でした。全てのデータが精製されている訳ではないからです。
世の中には正解のないデータもあります。このようなデータに対しては、与えられたデータに対して正解を提供せずに学習させる、「教師なし学習」という方法を使います。AIがデータの中でパターンを見つけ、似たようなタイプ同士で縛るようにするのです。当然、教師あり学習に比べてはるかに具現しにくいです。
AIが教師なし学習を通じてそれなりの基準を探して、データを複数のグループに束ねることを「クラスタリング(clustering)」と呼びます。クラスタリングは、人がデータに明確な正解を付けにくい分野に適しています。似たような特徴を持つ写真同士をグループ化して見せる写真アプリケーションの機能、マーケティング分析、天文学データの分析などに使われています。特に教師なし学習の一種である「自己教師あり学習(Self-Supervised Learning)」で作られたGPTはAIの歴史を変えたと言えるほどです。
「強化学習」は、教師あり学習や教師なし学習とは大きく異なります。簡単に言えば、AIがうまくやれば報酬を与えながらAI自らがより多くの報酬を受けるための方法を学習するようにする方法です。学習するシステムである「エージェント(agent)」が与えられた環境(environment)を観察して行動(action)を実行し、ここから報酬(reward)を受けて学習を進めます。エージェントは、時間の経過とともに最大の報酬を得るためにポリシー(policy)と呼ばれる最良の戦略を自ら学習します。
強化学習の代表的な例は、2016年のイ・セドルに勝って全世界に衝撃を与えたGoogle DeepMindが開発した「AlphaGo」が挙げられます。
AlphaGoはプロの囲碁棋士の棋譜を学習し、自分たちでゲームをしました。勝った場合は「陽」の報酬を、負けた場合は「陰」の報酬を与えました。報酬をもっと貰う方向にアルゴリズムの「荷重値」を修正しました。DeepMindが発表した論文によると、DeepMindでは強化学習を通じて伝統的なゲームをするプログラムを49個作ってテストし、このうち29個で人より高い点数を得ました。[6]
強化学習は昔から存在していた学習法ですが、以前のアルゴリズムは良い成果を出すことができませんでした。ディープラーニングの登場後、ニューラルネットワークを適用し、囲碁のような複雑な問題に適用できるようになりました。強化学習でディープラーニングを成功的に適用した代表的なアルゴリズムはDQNとA3Cで、全てDeepMindが発表しました。
多くの方がAIと言えば漠然と「ディープラーニング」だと知っていると思います。それだけ現在のAI業界では、重要という感覚を超えて当然の概念です。
マシーンラーニングが"コンピューターが自らデータを学習するようにすること"であれば、これを実現するための方法もいくつかあるでしょう。その中の一つが人の脳を模倣した「ニューラルネットワーク(Neural network)」を構築する方法です。ディープラーニングは、このニューラルネットワーク、正確には"深い(=層が複数ある)"ニューラルネットワーク(Deep Neural Networks, DNN)を使用するマシーンラーニング技法です。
ディープラーニング以前までは、ほとんどのマシーンラーニングは結局人が"特徴"を抽出し、ルールを作成しなければならないという限界がありました。例えば、犬と猫を区別するAIを作るには、犬と猫を区別できる基準を明確に入力しなければなりません。人は犬と猫を一目で見分けることができますが、そうできる理由を言葉でうまく説明することはできません。ディープラーニングの最も重要な点は、コンピューターが人の助けなしにデータから"特徴"を抽出できる点です。[7]
以前はコンピュータープログラムに「犬と猫を区別する方法」と「犬と猫のデータ」を入れて「分類された結果」を得ていたとすれば、現在はコンピューターに「犬と猫のデータ」と「分類された結果」だけを入れて「区別する方法」を直接探し出すようにできるという意味です。今では、人が知らない方法さえコンピューターが探してくれるようになったのです。DeepMindの開発者たちはイ・セドルより囲碁を上手に打つ方法を知らないが、AlphaGoはイ・セドルより囲碁を上手に打つ方法を知っているようにです。
ディープラーニングの原理は、基本的にはニューラルネットワークの原理と同じです。ニューラルネットワークの限界の一部を補完したのがディープラーニングなためです。ニューラルネットワークは人の脳を模倣したモデルです。
人の細胞を数学的にモデリングした「パーセプトロン」がまるでニューロンのように入力を受けて出力を出す構造です。パーセプトロンは、各入力ごとに「荷重値」、つまり強度を与えます。このパーセプトロンをいくそうにも積み重ねて連結したものを、ニューラルネットワークと言います。
ここでディープラーニングの原理を簡単に説明しましょう。(急に難しい言葉が出たからと慌てずに、難しければパス!)
一般的な形態のニューラルネットワークは、入力層(input layer)・隠れ層(hidden layer)・出力層(output layer)で形成されています。ここで、入力層から隠れ層を経て出力層に計算が進むことを「順伝播(Forward Propagation)」と言います。その結果として出た値を活用して、出力層から入力層まで戻りながら再び荷重値を修正することを「逆伝播(Backpropagation)」と言います。入力に対応する出力が出るように、その誤差が最小になるように順伝播と逆伝播を繰り返しながら、最適な荷重値を探す過程がまさにニューラルネットワークの"学習"です。
ディープラーニングを発見した人物はジェフリー・ヒントンです。ジェフリー・ヒントンは2006年、深層信念ネットワーク(Deep Belief Network, DNN)に関する論文を発表しました。これまでニューラルネットワーク分野では、ニューラルネットワークを何層も積み重ねると学習がうまくいかないという問題がありました。ジェフリー・ヒントンの2006年の論文は、ニューラルネットワークの層が深くなっても学習がうまくいく方法を見つけ出し、ディープラーニング時代に信号弾を打ち上げたのです。[8]
2012年にはILSVRCに出場し、他のチームより圧倒的な性能を見せて話題を呼びました。このとき、ニューラルネットワークが学習されたデータだけをうまく処理し、新しいデータをうまく処理できなかった問題をデータに故意に脱落(Dropout)させる方式で解決したりもしました。[9] まさにディープラーニングの父と呼ばれるに値する人物です。
ディープラーニングに使われるニューラルネットワークにもさまざまな種類があります。画像認識に主に使われた畳み込みニューラルネットワーク(Convolution Nerural Network, CNN)、音声認識や自然言語処理に主に使われたリカレントニューラルネットワーク(Recurrent Neural Network, RNN)が代表的です。CNNとRNNは数年前まで人気のあるディープラーニングモデルでしたが、現在は「アテンション(attention)」概念を適用したトランスフォーマー(Transformer)がその座を代替しています。
トランスフォーマーモデルは、2017年のGoogleの論文で初めて提唱されました。[10] トランスフォーマー以前はRNNとアテンション(attention)を利用して言語モデルを作りましたが、RNNはデータを順次処理するため、速度が遅いという短所がありました。
ちなみに、アテンションは2014年の機械翻訳の性能向上のための論文で提唱された概念です。簡単に説明すると、アルゴリズムがデータから「重要な部分」を判断して、より多くの荷重値を与えるようにする方法です。[11]
トランスフォーマーモデルはRNNではなく、アテンションだけで言語モデル(Language Model, LM)を作る方法として提唱されました。トランスフォーマーモデルは、言語処理を並列化します。与えられたテキスト本文の全てのトークンが「順番に」ではなく「同時に」学習されるという意味です。はるかに大きなデータを使えるようになるのです。[12] [13]
トランスフォーマーモデル活用したAIの代表的な事例は、OpenAIの「GPT」シリーズです。2018年に初めて公開されたGPTは大きな注目を集めることができませんでしたが、GPT-2、GPT-3以前よりはるかに多くのパラメータと学習データを活用しながら恐ろしい性能を見せました。そして2022年11月、全世界を相手にベータサービスを開始した「ChatGPT」は人々に衝撃を与えました。ChatGPTの回答は、以前のチャットボットとは比較にならないほど自然で有用だったからです。その後、トランスフォーマーモデルを活用した高性能のAIサービスが続々と登場しています。この2~3年間、AI業界を支配しているモデルと言っても過言ではありません。
まずは単語の意味から解釈を始めましょう。LLMは「大規模言語モデル(Large Language Model)」の略称です。
それでは言語モデル(Language Model)とは何でしょうか?言語モデルはAIが人の言葉、「自然語」を理解するようにする方法の一つです。単語がいくつか与えられたとき、文章を完成させるためには前後にどんな単語がくるべきか、確率的に予約するモデルです。GoogleやYahoo!などの検索エンジンに検索語を入力すると、リアルタイムで次の単語を予測しておすすめの検索語として表示されるのを思い浮かべると理解しやすいでしょう。もちろん、検索エンジンはディープラーニングベースの言語モデルの他にも様々な技術が集約された複合システムですので、参考までに。
トランスフォーマーの登場以前にも言語モデルを作るのに使っていたニューラルネットワークモデルが存在しましたが、従来の方式(RNN、LSTMなど)は速度が遅いという短所がありました。しかし、トランスフォーマーモデルはデータを並列的に処理することができ、一度に多くのデータを処理することができ、ついに真のLLMを実現できるようになりました。
トランスフォーマーモデルとLLMの可能性が本格的に注目されたのは、OpenAIが2022年11月にLLMを活用した対話型AIアプリケーション「ChatGPT」を発売してからです。ChatGPTは人のどんな質問にも自然に答えることはもちろん、各種専門家試験まで通過する底力を見せつけました。ChatGPTの性能を直接確認した大衆は、いつも間にかぐんと発展したAIの水準に驚きました。
その後、LLMという新しい技術の活用に対する関心が高まり、新しい研究とサービスが続々と登場しています。このブログを書いている瞬間にも、新しいニュースが登場しているほどです。次はChatGPT以降に発表された主なLLM関連サービスをご紹介します。
発表日 | サービス名 | 会社 | パラメーター(個) |
2022.11 | ChatGPT | OpenAI | 1750億 |
2023.2 | LLaaMA-1 | Meta | 70億〜650億 |
2023.3 | GPT-4 | OpenAI | 非公開 |
2023.5 | PaLM2 | 3400億 | |
2023.7 | LLaMA-2 | Meta | 70億〜700億 |
2023.7 | Claude-2 | Anthropic | 非公開 |
2023.9 | HyperCLOVA X | NAVER | 非公開 |
2023.11 | GPT-4 Turbo | OpenAI | 非公開 |
2023.11 | Phi-1.5 | MS | 13億 |
2023.12 | Gemini 1.0 | 32億5000万(Nano)、Pro、Ultra非公開 | |
2024.2 | Gemini 1.5 | 非公開 | |
2024.3 | Claude 3 | Anthropic | 520億 |
2024.3 | Grok | xAI | 330億 |
2024.4 | LLaMA-3 | Meta | 80億〜700億 |
2024.5 | GPT-4o | OpenAI | 未公開 |
人間に準ずる知能を持った何かを作り出すという発想の起源は古代にまで遡ります。ギリシャ・ローマ神話で鍛治の神ヘパイストスが青銅の巨人「タロス」を作った話が伝えられるほどです。AIの思想的基礎は哲学、数学、心理学、神経科学などの多くの古い学問に根差しています。
しかし、現在のような概念のAIが本格的に登場したのは20世紀半ば、コンピューターが登場した時期からです。希望に満ちた初登場からこれまで2回のブームと2回の冬を経て、今や私たちは3回目のAI"ブーム"の真っ只中にいます。
1950年、アラン・チューリングは『計算する機械と知性(Computing Machinery and Intelligence)』という論文を通じて「考える機械」の概念を提唱しました。この論文でチューリングは機械が考えられるかどうかを尋ねずに、機械が行動主義的検査を通過できるかどうかを尋ねようと提案しました。この検査がまさに有名な「イミテーションゲーム(imitation game)」、チューリングテストです。チューリングは「AI分野の先駆者として認められ、今ではAI分野に大きく寄与した人に彼の名前から取った「チューリング賞」が授与されています。
次のような問いについて考えてみよう:「機械は考えることができるだろうか?」まず初めに「機械」とか「考える」とかいう用語の意味を定義しないといけない。(中略)ここで私はこんな定義をするかわりに、この問いを別の、これとかなり似てはいるがそれほど曖昧でない言葉で言いかえてみよう。この新しい形式は私たちが「模倣ゲーム」と呼ぶゲームによって表される。[14]
「人工知能(artificial intelligence)」という表現が初めて登場したのは6年後の1956年、ダーマスト会議です。ジョン・マッカーシー、マービン・ミンスキー、クロード・シャノン、ナザニエル・ロチェスター、アラン・ニューウェル、ハーバート・サイモンなど10人の研究者が集まって、ダーマストで2ヶ月間、人工知能の研究ワークショップを行いました。ワークショップの結果物の中で最も完成度が高かったのは、アラン・ニューウェルとハーバート・サイモンの『ロジック・セオリスト(Logic Theorist)』という数学定理の証明システムでした。
その後、多様な分野でAIの初期成功事例が登場しました。ニューウェルとサイモンはGPSというプログラムを作り、人間の問題解決の家庭を真似ようとしました。ジョン・マッカーシーはその後30年間、主要AIプログラミング言語として使われていたLISPを開発しました。アーサー・サミュエルは、AlphaGoの先駆けとも言えるチェッカープログラムを作成しました。
特に1958年にはコーネル航空研究所に勤めていたフランク・ローゼンブラット(Frank Rosenblatt)が「パーセプトロン(Perceptron)」の概念を考案しました。ニューラルネットワークの分野では意味のある瞬間として挙げられます。当時のパーセプトロンは単純なニューラルネットワークで、与えられたデータに基づいて二項分類問題(Binary classification)を解決できるアルゴリズムでした。
1970年にはマービン・ミンスキーが『ライフ』マガジンのインタビューでの話が話題になりました。当時AIに対する楽観と確信が窺える内容です。
3~8年以内に、平均的な人間の知能を持つ機械が登場します。シェイクスピアの戯曲を読み、車に潤滑油を入れ、オフィスで政治をし、冗談を言い、喧嘩ができる機械のことです。この時点で機械は驚くべき速さで自ら学習し始めるでしょう。数ヶ月以内に天才レベルに到達し、またその数ヶ月後には計算できないほど能力を持つようになるでしょう。[2][15]
しかし、人工知能に対する熱狂は1970年代初めから急激に収まりました。最初はそれまで想像できなかった驚くべき成果を見せてくれるように見えたが、パズルを解いたり、数学問題を証明する以上の、人間が本当に解きたかった問題では期待に応えらない結果が出たためです。
これは当時のコンピューター処理能力の現実的な限界のためでした。1969年、マービン・ミンスキーとシーモア・パパートが『パーセプトロン』という本でパーセプトロンの限界を指摘したこともやはり第一次AIの冬を呼び起こした主要な事件として挙げられます。1966年、アメリカ政府の支援を受けて作成された『ALPAC報告書』で、機械翻訳は当分成果が出る見込みがないという結論を発表し、それまで大々的に行われていた機械翻訳の研究に対する支援が大きく縮小されたもの致命的でした。[2][4]
第二次AIブームは、コンピューターに人間の知識を一つ一つ入れればAI具現が可能だという信頼でいっぱいでした。別名「エキスパートシステム」です。代表的なのは1971年、ファイゲンバウムとスタンフォード大学の同僚たちが考案した「デンドラル(DENDRAL)」という化学分析システムです。「マイシン(MYCIN)」という血液感染診断システムもありました。450のルールを利用して一部の専門家よりは立派で、新米医師よりははるかに良い診断を下すという評価を受けたそうです。
問題はエキスパートシステムには「常識的な水準の知識」も必要だったということです。人として当たり前の常識がコンピューターにはなく、これを可視化することが思ったより難題だったのです。そのため、「知識表現」という分野の研究が行われたりもしました。意味を表現する「意味ネットワーク(Semantic network)」のような知識表現技術が開発されました。人間の全ての常識をコンピューターに入力しようとする「Cyc(サイク)プロジェクト」(1984年、ダグラス・レナート)も試みられました。
第一次AIブームの終結を導いた原因の一つであるパーセプトロンの限界にも克服の可能性が見えました。1986年、デビッド・ラメルハートとジェフリー・ヒントンは「誤差逆伝播法(Backpropagation)」を提唱し、多層のニューラルネットワークの学習が可能になりました。バックプロパゲーションの概念は、ニューラルネットワークの研究の再復興を導いたと評価されています。
多くの国や企業にもAIに本格的に参入しました。日本では「第5世代コンピュータプロジェクト」という名前でAIを大々的に後押ししました。アメリカはMCCを結成し、イギリスは『アルビー(Alvey)報告書』というものを出しました。
企業もAIを先を争って導入しました。個人用コンピューターPDPを発売したDECは「R1」というエキスパートシステムを運営しました。このシステムのおかげで年間4,000万ドルを節約し、1988年基準でDECのAIグループは40のエキスパートシステムを使用していたと言います。1980年代にはアメリカの大企業(Fortune 1000)の3分の2は、何らかの形で日常業務にAIを使っていると考えられるとのことです。
しかし、エキスパートシステムには明らかな限界が存在しました。あくまでも人が一つ一つ知識を叙述し、管理してあげなければならないからです。インターネットとビッグデータの概念も存在しなかった時期なので、エキスパートシステムの限界はさらに明確にならざるを得ず、2回目のAIの冬が訪れてしまいました。2000年初めには「人工知能」「ニューラルネットワーク」というキーワードで研究支援すら受けられなかったとのことです。
3回目のAIブームのAIの土壌は静かに整えられていました。2000年代にウェブが登場し、ビッグデータを活用した機械学習の概念が徐々に広がっていきました。1999年、NVIDIAが最初のGPUであるグラフィックフォースカードを披露しました。データとハードウェアという断片が合わさっていたのです。最後の一つは?従来のAIアルゴリズムの限界を克服した新しいアルゴリズムで、ディープラーニングです。
ディープラーニングは、2006年のジェフリー・ヒントン教授の論文で初めて登場しました。そして2012年、ジェフリー・ヒントン教授はディープラーニングアルゴリズムとGPUを使用して、ILSVRC(ImageNet Large Scale Visual Recognition Challenge)で圧倒的な勝利を収めました。それまで70%をかろうじて上回っていた画像認識精度を一気に80〜90%水準に引き上げました。
上の画像は、NVIDIAのブログに掲載された表です。青色は伝統的な方法を活用したチームの正確度、黄緑色はディープラーニングを活用したチームの正確度の成果です。2012年に80%台の成果を出した黄緑色の点が、ジェフリー・ヒントン教授チームの成果を表す点です。その後、AI業界でディープラーニングとGPUの使用が圧倒的に増えることになります。[16]
特に、大衆的には大きく2つの事件がAIの性能を印象づけました。
2011年にはIBMの「ワトソン(watson)」が"ジェパディ!"というクイズショーで優勝しました。
2016年にはGoogle DeepMindの「AlphaGo」が韓国のプロ囲碁棋士イ・セドルを相手に勝利を収めました。
2010年半ばからはAIを事業に実際に活用してみようとする試みが活発に続きました。Appleの「Siri」に代表される音声認識アシスタントやAI翻訳サービス、AI画像認識サービスなどが多く登場しました。
2022年にはOpenAIの「ChatGPT」がトランスフォーマーモデルとLLMの性能を大衆に衝撃を与えました。どんな質問にも自然に答えるのはもちろん、医師免許試験や司法試験も合格するほどの性能を見せました。その後、Google・Microsoft・OpenAI・Anthropicなどの多様な企業がLLMを活用したAIサービスを活発に提供しています。
ディープラーニングが登場した後の2010年、第三次AIブームの時から本格的にAIが人間に取って代わるという展望が登場し始めました。このとき、AIに代替される職業の上位圏として持続的に言及された職業がまたにオペレーターです。一見、単純労働に思われるCS業務がAIを活用した音声ボット、あるいはチャットボットを直ちに活用するのに最も適した分野に挙げられたのです。
実際、2010年半ばからはAIをCSに導入しようとする試みが活発に続きました。2015年、日本の三菱銀行を含む大型銀行がAIコールセンターソリューションを導入し始めました。当時はまだチャット相談が普遍的ではなく、電話相談がほとんどだった時代でしたが、大規模コールセンターを運営する会社からAIでCS生産性を高めてみようという試みをしたと言えます。
このときに登場した概念が「AICC」、AIコンタクトセンター(Contant Center)です。コンタクトセンターとは、電話だけでなくチャットやメールなどの様々な手段で顧客とのコミュニケーションを取るようになったカスタマーサポートのことです。しかし、AICCといってもコンタクトセンターの全ての分野にAIを活用するわけではありません。AICCでAIが活用されている分野は主に三段階です。
相談中にリアルタイムで内容を分析し、関連する回答内容やドキュメントをおすすめしてくれます。電話音声をテキスト化するSTT(Speech To Text)、テキストを理解して分析するためのNLP(自然言語理解)とTA(テキスト分析)技術が必要でした。主にコンタクトセンターで顧客相談をする際に必要な知識を集めておいたKMS(知識管理システム)と連携して使われました。リアルタイムで相談内容を分析する必要があるため、スピードが重要でした。
相談後は、相談内容の要約や分類(タグ設定)から他部署への移管など、様々な作業が必要です。オペレーターは相談だけでなく、後処理作業にも時間をたくさんかけますが、この後処理作業時間を減らすだけでも"相談"自体に集中できるようになるでしょう。
一般的に「AIチャットボット」といえば想像できるかと思います。チャットボットや音声ボットが直接顧客を対応します。現実的には、単純な相談にのみチャットボットや音声ボットの対応が可能でした。特に、顧客対応にとんでもない返事が出てはいけないため、回答内容を完全に統制できるルール基盤のチャットボットを主に使用せざるを得ませんでした。
どの企業もコンタクトセンターの業務効率を高めようとする需要があったため、AICC産業は着実に展望の良い分野と予測されていましたが、まだAIの性能が実務に活用するには大いに不足しているという評価もありました。ですから、2010年半ばから2020年頃まではAIをコンタクトセンターに導入しようとする試みが始まったばかりの"AICC一期"と呼べると思います。
しかし、2022年にLLMが注目され、AICCにも新しい可能性が開かれました。ChatGPTの恐ろしい性能を見た人たちが、「今はAIが単純な相談以上の、もう少し複雑な相談も処理できるのではないか?」と考えるようになったのです。
チャネルトークは2024年4月、「ALF」をリリースしました。ALFは顧客の問い合わせを理解し、適切に回答するのはもちろん、顧客の問題を解決するのに役立つ実行ボタンまで直接提案するAIエージェント(agent)です。ALFはチャネルトークのAIチームでOpenAIのGPTを基盤に別途のプロンプトで製品化したバージョンです。チャネルトークは今後もCS現場で役立つAIを開発していきます。
原文:Tena(Content Marketer in Korea)
翻訳:Tessa(CX/Product in Japan)
[1] 앨런 튜링, 곽재식 해제, 노승영 역, "지능에 관하여", 에이치비프레스, 2019, pp. 42-43.
[2] 스튜어트 러셀 and 피터 노빅, "인공지능 1: 현대적 접근방식," 류광 역, 제4판, 서울: 제이펍, 2021.
[3] Hamilton Richards, "EDSGER WYBE DIJKSTRA". A.M.TURING AWARD, (参照 2024-12-9).
[4] "[日本語訳] 1.2 Machine Learning What is Machine Learning? by Andrew Ng 機械学習", はじめての「データサイエンス」, (参照 2024-12-9).
[5] "機械学習 Machine Learning", Nomura Research institute (NRI), (参照 2024-12-9).
[6] V. Mnih et al, "Human-level control through deep reinforcement learning", Nature, vol. 518, pp. 529-533, Feb. 2015.
[7] 松尾豊, "人工知能は人間を超えるか - ディープラーニングの先にあるもの", (参照 2024-12-9).
[8] G. E. Hinton, S. Osindero, and Y.-W. Teh, "A fast learning algorithm for deep belief nets," Neural Computation, vol. 18, no. 7, pp. 1527-1554, Jul. 2006.
[9] A. Vaswani et al., "Attention Is All You Need", arXiv, 1706.03762, Jun. 2017.
[10] D. Bahdanau, K. Cho, and Y. Bengio, "Neural Machine Translation by Jointly Learning to Align and Translate", arXiv, 1409.0473, Sep. 2014.
[11] R. Toews, "The Next Generation Of Artificial Intelligence", Forbes, Oct. 12, 2020.
[12] 한규동, “AI 상식사전”, 길벗, 2022.
[13] 末次拓斗, "【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説", すえつぐのNLP&LLM, (参照 2024-12-9).
[14] アランM.チューニング, 新山祐介 訳, "Computing Machinery and Intelligence 計算する機械と知性", (参照 2024-12-9).
[15] 마쓰오 유타카, "인공지능과 딥러닝: 인공지능이 불러올 산업 구조의 변화와 혁신", 동아엠앤비, 2015. p. 51.
[16] "Accelerating AI with GPUs", NVIDIA Blog, (参照 2024-12-9).