強いニューラルネットワーク/弱いニューラルネットワーク

脳の働きは、(漠然と個人的に思うのは)、すべてニューラルネットワークパーセプトロン)により行われていると思うが、

  • 白いワンワン鳴く動物を見た。
  • 黒いワンワン鳴く動物を見た。
  • IEでインターネットをやったら遅かった。
  • 46型ディスプレイはでかいと聞いた。

などの入力で、一旦意味を理解し、それから、短期記憶/長期記憶/習慣的記憶... ??などの脳の領域に振り分けられ記憶される... のかと思う。脳の中では、視覚、聴覚との連携や、大きな振り分けもニューラルネットワークによる判断で行われているように見える。(見たものと聞いたものの区別や、常識との比較なども。)

一方、AI-COMで人工知能の意味理解の実験を今考えているが、非ニューラルネットワークで(ありふれた「検索」の手段などを用いて)やろうとすると、いろいろなケースを(「肯定/否定」、「自分発意/相手発意」、「今起きたできごと/過去のできごと」... など)考えてそれぞれのケースの中で選択肢を用意する... というような地道な作業が必要になる。

人工的なニューラルネットワークで脳の働きの再現を試みる場合、脳全体の再現というのが最終的な目標と思われるが、実際にちょっと考えるとすぐに困難なことに気づく(Wikipedia強いAIと弱いAI」参照。)。そこで考えられるのが、ニューラルネットワークの段階的導入、または、選択的導入である。一般的な書籍などでは、ニューラルネットワークの得意領域についての記述があるが、まず、その得意領域についてのみ導入を考えてみることは可能と思う。記号処理的なことから頭が離れられないない嫌いはあるが、「自然言語(日本語)処理、会話の前後の脈絡(現在の話題の理解、話相手は誰か.. など)、次に何を話せば良いかのシナリオ作成」などは必ずしも最初からシステムに全てが統合化されてなくても問題無いと思う。また、「意味理解、(同意語理解)、意思・感情などの再現」などについては、プロセス(仮説)を構築し、最も簡潔と思われるところから導入するトライは可能と思う。

AI-COMでは、非ニューラルネットワークでの「意味理解、意思、動機付けなどの再現」を試みているが、その中で、意味理解や動機付けのギャップをパラメータとして(←非ニューラルネットワーク的)意思や感情が生じるモデルの仮説を考えた。但し、非ニューラルネットワークでは、上述のいろいろなケースの考慮が必要になる。(結局のところ)意思や感情はニューラルネットワーク、非ニューラルネットワーク両方で同じように最終的には再現することが可能と思う(どちらがその時点でより良いかは言えないが。)。「意味(同意語)理解」などはニューラルネットワークに大いに期待する。

人工知能の世界では、強いAI/弱いAI などということばが、長くいろいろな意味を持って使用されているが、ニューラルネットワークにも、「強いニューラルネットワーク/弱いニューラルネットワーク」を考えても良いのではと思っている。