AI分野で議論されている問題

AI分野で議論されている問題について。

目次

トイ・プロブレム(おもちゃの問題)

AIへの学習問題として、いきなり現実世界の複雑な問題を与えるのではなく、”本質を損なわない程度に簡略化したもの”を与えることを考えることになります。

よいトイ・プロブレムを与えることにより、AIの性能を上げていくことができるようになると考えられています。

フレーム問題

1969年、ジョン・マッカーシーとパトリック・ヘイズが提唱した問題です。

「”今しようとしていることに関係のあることだけを選び出す”ということは、実はとても難しい」という課題です。

  • 何も考えずに行動すると、失敗する
  • 関連ある様々な可能性を考え過ぎると、タイミングを逃し、失敗する
  • 様々な可能性についてそれが関連があるかどうかを考えすぎると、タイミングを逃し、失敗する

人間は、目の前にあることだけでなく、それに関連する様々な可能性も見極めて対応するため、AIにはその”関連性の抽出度合いが難しい”といった課題があります。

チューリングテスト

アラン・チューリングが提唱した問題です。

「別の場所にいる人間がコンピュータと会話し、相手がコンピュータだと見抜けないのであれば、そのコンピュータには知能がある」と見るものです。

1966年、ジョセフ・ワイゼンバウムによって開発された「イライザ(ELIZA)」というプログラムは、かなり精巧であったといわれています。

1991年以降、毎年、チューリングテストに合格する会話ソフトを目指す「ローブナーコンテスト」が開催されています。

強いAI・弱いAI

強いAI
弱いAI
  • 適切にプログラムされたコンピュータは、人間が心を持つのと同じ意味において心を持つ。
  • 本物の心を持つAIはコンピュータで実現できるという考え方。
  • コンピュータはそもそも人間の心を持つ必要はなく、有用な道具であればよい。
  • AIは必ずしも本物の心を持つ必要はなく、便利な道具でさえあればよいという考え方。

「中国語の部屋」という思考実験も提案され、ブラックボックスとなっている”中国語の部屋”の中の人と、外部とで中国語で話したり聞いたりできたとしても、この中国語の部屋の中の人が本当に中国語を理解できているとは限らない(精巧な辞書をもって対話しているだけかも)、とするものです。

これはチューリングテストの拡張版ともいわれ、AIがどれほど精巧にやり取りできたとしても、AIが人の心を真に理解しているわけではないと主張するものといわれています。

ロジャー・ペンローズは、意識は脳の中にある微細な管に生じる量子効果が絡んでいることから、「強いAI」は実現不能であるとも主張しています。

シンボルグラウンディング問題

1990年、スティーブン・ハルナッドにより議論された問題です。

「シンボルとその対象はいかにして結びつくのか」という問題です。

例えば、人間が、”シマウマ”と聞くと、”シマ(縞)”と”ウマ(馬)”であると想像することができ、初めてシマウマを見てもそれを直感的に認識し結びつけることができます。
一方で、コンピュータは、”シマウマ”と聞いても、”シマ”と”ウマ”といったシンボルとは結びつけて認識することができず、初めてシマウマを見てもそれを直感的に認識することはできないと考えるものです。

身体性

知能が成立するには、「身体を通して得られる豊かな情報」が不可欠であるとするアプローチです。

知識獲得のボトルネック

機械翻訳については、以下のような主流の変遷があります。

  • 1970年代後半:ルールベース機械翻訳
  • 1990年代以降:統計的機械翻訳
  • 2010年頃以降:ニューラル機械翻訳
  • 2018年以降:LLM

文を訳すには、一般常識がなければうまく訳すことができないとする問題で、「知識獲得のボトルネック」といわれています。

2016年11月には、Googleが「Google翻訳」では、ニューラル機械翻訳の技術が利用され、機械翻訳の品質が格段に向上したといわれています。

2018以降は、LLMが登場し、文脈理解能力の優れたその能力を活かし、多様な言語への翻訳にも対応できるようになっています。

ただし、LLMは、翻訳に限らず、文章要約、質問応答、プログラムコードの作成などにも対応できます。一方で、ニューラル機械翻訳は、翻訳に特化した技術であり、翻訳において強みを発揮します。

翻訳の分野でも、ディープラーニングの利用により、この”知識獲得のボトルネック”を乗り越え、人間を超える翻訳機の実現が期待されています。

この記事が気に入ったら
いいね または フォローしてね!

  • URLをコピーしました!
目次