人間のように受け答えができる ChatGPT(日経サイエンス, 2023年5月号)

文明

ChatGPT が社会をかえつつあります。まるで人間と対話しているかのようです。AI が人間を凌駕する「シンギュラリティ」が目前にせまっています。

「ChatGPT」が衝撃をひろげています。『日経サイエンス』2023年5月号が話題の「ChatGPT」について解説しています(注)。

ChatGPT(Chat Generative Pre-trained Transformer) は、受け答えの巧みさがきわだち、「相手への気配り」を感じることができるといい、それがコンピューター・プログラムであることをわすれさせます。

最近のブームは日本でもすさまじく、つかいはじて1ヵ月もたっていないのに ChatGPT の「専門家」を自称してオンライン有料セミナーを開催する者まであらわれました。「ChatGPT、有能なビジネスパートナー!」などと宣伝して金もうけをする いかさま講師がいました。お気をつけください。

米新興企業 OpenAI が 2022年11月に公開した AI(人工知能)チャットロボット、ChatGPT の際立ったパホーマンスが話題を呼んでいる。一般公開から2ヵ月後の2023年1月に月間アクティブユーザー数が1億人を突破。交流サイトの TikTok やインスタグラムをしのぐ史上最速の成長を遂げたサービスとなった。

OpenAl に出資する米マイクロソフトは今後数年間で数十億ドルを追加投資すると1月に発表。自社の検索エンジン Bing に OpenAl の対話型 AI 技術を組み込んだ。一連の動きを自社の検索ビジネスへの脅威とみた米グーグルでは、トップが社内に非常事態を宣言したと伝えられた。同社はすぐさま対話型 AI サービスの Bard を発表 ChatGPT を迎え撃つ体制を整えようとしている。

ChatGPT のように言葉をうみだす AI を「生成系 AI」とよび、それは、2010年代にはいってから急速に発展した「深層学習(ディープラーニング)」の延長上にあります。その系譜は以下のとおりです。

2010年代前半以来、画像や物体、音声や文字などを認識する「認識系」の AI が AI 業界を牽引、人間の脳の情報処理のしくみをまねて、大量データをもとにパターンやルールを学習する深層学習の技術が表舞台に登場しました。

2012年、画像認識の国際コンテストで、カナダ・トロント大学のヒルトンらが開発した AI が桁はずれのたかい認識精度で圧勝しました。

2015年、深層学習 AI による画像認識の能力は人間をこえたといわれました。

2017年から18年にかけて、大量のテキストデータで訓練され、多様な個別タスク(コンピューターで処理される作業の最小単位)に適応できる「大規模言語モデル」が発達、その後、画像など視覚データも大量に学習するモデルも登場しました。

2018年、アレン人工知能研究所の ELMo、OpenAI の GPT、グーグルの BERT というあらたな言語モデルがそれぞれ発表されました。文章を要約したり、専門領域の文書を処理したり、質問にこたえたりといったタスクがこなせるようになりました。

大規模言語モデルは、膨大なデータの学習を通じて、文章中の単語と単語の位置関係や文法規則、よくでる言い回しや文脈など、文章をなりたたせている様々なルールやパターン・知識を獲得していきます。

こうした学習の中核部分につかわれるのが「トランスフォーマー(Transformer)」という深層学習モデルであり、BERT も GPT もトランスフォーマーをとりいれており、それぞれの名称の末尾のTはトランスフォーマーの頭文字からとられています。文中の単語(あるいは文字)をベクトル表現してあつかい、このように表現された単語や文章は、高次元ベクトル空間のなかでは似たもの同士がちかくにあつまることがわかっており、ベクトルをかけあわせる操作などを通じて、意味のちかさや関係のふかさを判定することができます。

たとえば「This is a pen.」という文を日本語に翻訳する場合、それぞれの単語(または文字)がまずベクトル変換され、それぞれのベクトルに対応する日本語がえらばれ、そして語順をかえて「これはペンです。」という文が出力されます。英単語を、対応する日本語単語にそのまま(ただ)おきかえているのではないことに注目してください。

2020年、OpenAl は、あらたな大規模言語モデル「GPT-3」をリリースしました。モデルの規模をしめすパラメーター数を先代の「GPT-2」の15億に対して約100倍の1750億まで一挙にもってきました。

2021年、「基盤モデル」という呼び名も定着しました。

2022年、ChatGPT がリリース、人間の判断をもりこんだ追加的な学習をほどこしているのが特徴であり、OpenAl はこれを、「人間のフィードバックからの強化学習」とよびました。

ChatGPT のような大規模言語モデルの AI は「次の単語を予測する」というタスクをひたすらくりかえして答えにたどりつくため、知識のデータベースがなくてもさまざまな質問にこたえることができます。

ChatGPT の特徴はたくみな受け答えにあり、まるで人間と対話しているかのような錯覚におちいります。人間の言葉づかいを完全に模倣しつつ学習し、差別や偏見をふくむ不用意な発言をしないようにフィルターもかけられており、よくできた社会人のようでもあります。「有能なビジネスパートナー!」などと何もわかっていないのに宣伝する商売人もあらわれました。人間以上に人間的なところがおおいフレンドリーな AI だと感じる人がおおいのは事実です。

しかし一方で、大量の文章をすばやくつくったり、本物そっくりの偽情報を簡単にうみだしたりすることが可能になり、学生などが、レポートや論文をみずから書かずに ChatGPT を利用したり、ChatGPT が犯罪に利用されたりする懸念も指摘されています。

たとえば大学では、ChatGPT の利用を積極的に推奨するところもあれば、条件つきで利用をみとめるところ、一切みとめないところもあり、議論がすすんでいます。

わたしは、文章は、みずから書くのがよいとかんがえていますが、現実的には、ChatGPT などの AI の発展と利用をさまたげることはもはや誰にもできません。あたらしい時代はもうはじまっています。学生も、単位をとるために卒業するために、とくに、取材力・作文力がない者は積極的に AI をつかうでしょう。

しかしここで、あらためてかんがえなおさなければいけないことは、なんで文書を書くのか、ということです。

文章を書くということは、情報処理(入力→処理→出力)でいう出力(アウトプット)であり、AI がやっていることですが、そもそも人間が情報処理をする存在であり、人間をまねて AI が発展してきた歴史があります。人間は、心のなかから情報を出力し、それは、みずからのメッセージを誰かにつたえるための行為です。したがって何を誰につたえたいのか、それをまずはっきりさせ、そしてつたえる手段としては、たとえば英語をつかうとか、日本語をつかうとか、ジェスチャーをつかうとか、画像をつかうとか、動画をつかうとか、いろいろあるわけです。このような人間の情報処理、人間の出力が、生きていくためには必要であり、文章がただつくれればいい、AI が発達すればよいということではありません。人間主体の情報処理訓練が実際には重要です。

ところが日本人には、江戸時代からの封建的様式の影響がのこるためか、アウトプットはなるべくしないで空気をよむようにする、とくに、年下の者が年長者にむかって何かをいうことはよしとしない行動様式があり、高度経済成長期まではそれでもよかったのですが、高度情報化の時代にはいってからは、情報処理とくにアウトプットがうまくできない人がおおい傾向にあり、おくれをとり、今日、AI の激震にふれて あわててそれを利用せざるをえない状況においこまれました。アウトプット訓練をしたことがない人ほど AI にたよります。このままでは日本国は衰退し、おちるところまでおちるでしょう。

2023年3月14日、米 OpenAl は、これまでの「GPT-3」の500倍以上の大規模モデル「GPT-4」を発表しました。今後とも AI は改善され拡張し進化するでしょう。わたしたちは、AI が人間を凌駕する「シンギュラリティー (技術的特異点:人工知能が人間の知的能力をこえる時点)」の入口をすでにとおりぬけました。「シンギュラリティー」は目前にせまっています。先進諸国のなかではとくに、日本においてその現象が顕著にみられることになるでしょう。

▼ 関連記事
ChatGPT の衝撃 − AI が人間と社会をかえる −(日経サイエンス, 2023.07)
3D「きみとロボット ニンゲンッテ、ナンダ?」(日本科学未来館)

▼ 注
古川和輝(著)「特集 話すAI 描くAI AI に人間らしさをもたらした大規模言語モデル」, 『日経サイエンス』2023年5月号, pp.32-39, 日経サイエンス社

▼ 参考文献
東中竜一郎(著)「ChatGPT は何をもたらすか?」, 『科学』, pp.392-395, 2023(No.5), 岩波書店

アーカイブ

TOP