プログラム「意識の積み木の部屋」"BLUE" ver. 6.1.0 更新しました …人の意識の超簡易意識モデル

プログラム:「意識の積み木の部屋」BLUE & ORANGE web site"BLUE" ver. 6.2.0 (2012.12.29. updated)にアクセスしてみてください。

使用しているAPIを、Yahoo係り受け解析→形態素解析に変更しました。実は、はじめに使用した係り受け解析で、いくつか誤変換に気付いていたため、こちらのわりとキレイに解析されるのを確認したAPIに変更しました。ただし、形態素解析では「語幹」を抽出するオプションが無いらしくて、同じbaseformパラメータで基本形(終止形)を抽出していました。そのせいで、更新前後でデータベースの書き込みが少し異なり、連続性は100%ではないけど、なんとか動いてます。ほんとはデータベースも少し遡って修正するつもりだったけど、後に書くトラブルからの復活を優先させました。

トラブル発生…3/11深夜、BLUEを見ると正常に動いていないことを発見。APIが動いていなかったようでしたが、プログラムをいじった訳でもないので原因不明。IDコードを複数のAPIで使用したことで混乱したのかも??もともと、データ容量…フレーム問題がらみの限界がいつか有ると思っていますが、こんなに早いと困ります。
更新自体は3/12深夜に実施しました。

keyword: 人工知能

プログラム:「意識の積み木の部屋」"BLUE" ver. 6.0.1 を小修正しました…人の意識の超簡易意識モデル

プログラム:「意識の積み木の部屋」BLUE & ORANGE web site"BLUE" ver. 6.2.0 (2018.12.29. updated)にアクセスしてみてください。
一部入力に対する応答を修正しました。次は、使用しているAPIをYahoo係り受け解析→形態素解析に変更予定です(解析精度に差異が見られるため)。

keyword: 人工知能

プログラム:「意識の積み木の部屋」をリリースしました … 人の意識・知能を再現するシステムの説明

これまでも、BLUE & ORANGEシリーズで、AIのヒントになるようなものをリリースしてきましたが、今回、新しい考え・仮説を導入し、「意識の積み木の部屋」的なものをリリースしました。BLUE & ORANGE web site"BLUE" ver. 6.2.0 (2018.12.29. updated)にアクセスしてみてください。

「積み木の部屋」というのは、初期の人工知能「SHRDLU」が示す世界で、当時、積み木の世界のように限定された中でだけは人工知能を機能させることができていました。今回、人の意識・知能を再現するシステムとして、なぜ「積み木の部屋」としたかと言うと、その理由は2つ有って、1つ目は、そもそも人の意識・知能というのは現時点ほとんど解明されておらず、多くの科学者が試行錯誤しているような状況で、「なんだかできました」とか言ってもそんなばかなと思われるに違いないと思われるので、1つの視点として、極限まで簡素化したシステム(トイモデル)として、積み木の部屋のように限定された条件というのを示したものです。(実は簡単には簡素化できないので、その辺についてはこの後書きます。*1)
2つ目は、実際に、コンピュータ上で人工知能のように意識・知能を再現させる場合、(無い可能性について明示的に記述するといった)膨大な記述が必要になり、可能性爆発を起こすというフレーム問題を考慮せざるを得なくなってきます。脳神経を模したシステムであればそのような問題は無いのですが(ここも後で書きます *2)、既存のどこにでも有るコンピュータで、脳神経系を模さずに再現しようとすると、極限まで簡素化したシステムである必要が有ると考え、積み木の部屋程度の情報量がイメージできるものとしてそう呼んでみました。

意識・知能については、最近の雑誌「ニュートン別冊'12.12月号…知能と心の科学」でも有るように、ほとんど「難しくてわからない」と言う状況が続いています。有力とされているNCCを探す試みや、遺伝子操作による機能解明などについても、残念ながらまだ緒に就いたばかりの状況です。しかし一方で実際には多くの研究者がトライを続けていて、最近ではSiriやIBMのWatsonなど話題となったものも有ります。ただ、これらの実際に実装されたものは、「入力に対し一対一で何かを探し出す」という意味で昔ながらの人工無能人工無脳)と同じようなものです。


  • 今回リリースするシステム概要
    1. ベースとなった、意識・知能についてのホーキンスのシステムについて〜
      • このブログで何度か意識について整理しましたが、最も基本的なところは、ホーキンスの「考える脳 考えるコンピューター」での考えをもとにしています。意識の鍵となるものは、入力→記憶をもとにした連想→予測のプロセスです。彼の大脳新皮質モデルでは、このプロセスが実現可能と主張しています。
      • (参考)ホーキンスの考えについて…大脳新皮質に、いわゆる狭義のニューラルネットワークではない独自のトップダウン信号を考慮した自己連想記憶のネットワークの考え方で、入力から記憶をもとにした連想、時間的&空間的予測を行うシステムの仮説が提唱されました。これにより、
        • 記憶に有るものであれば無意識に処理される(無意識にそれが何か理解し、以前に記憶した方法と同一の対処方法を予測し、その通りに対処する。)
        • 記憶に無い場合は、新皮質の上位階層(上位概念を担当)に次々に送られ、上層では、概念レベルでさらに記憶に無いか判定される。ここでもし類似の記憶が有れば「それと類似のもの」理解され記憶に有る同一の対処方法を予測し、その通りに対処する。もしそこでも記憶に無ければさらに上位に送られる。
        • 階層構造の上位の最後まで記憶に無かったものは(それと「意識」され)、新たにエピソード記憶として記憶される。
    2. 今回の、「意識の積み木の部屋」システムについて
      • ホーキンスは意識とは自覚だと述べていて、(クオリアについても言及がありますがここでは触れません。)彼のモデルの連想→予測こそが意識であると主張しています。ボクは、基本的にこの部分は賛成です。基本的には、入力に対し、記憶に有るかさまざまなレベルで判断し、記憶に無ければ、「これは新しい」と意識します。記憶に有った場合も、エピソード記憶のなどの上位の階層レベルの記憶にマッチした場合や、連想のステップに進んだ後の(これも)エピソード記憶にマッチした場合は「前にこんなことが有った」と意識します。[ここで、なぜこの部分だけが選択的に意識されるかというと、シナプス上で或る閾値を超えて連想された信号が、強度の高い記憶内容に接続された時、或る閾値を結果的に超えて意識されるという考え方です。]実際には或る記憶は、複数の連想に繋がり複数の方法で記憶されている。それぞれの連想と結びついて本人は「意識」していると感じていると思います。(チョコレートの色・形、べとつき、味…を同時に連想し、感じているような状態を思い浮かべることができると思います。)
      • ホーキンスのモデルでは、予測の部分に非常に注目している一方で、メタ認知、本能、欲求・感情、自由意志などについて、このシステムのみで実現可能とはしていません。ただ、これらについては、今回の、「意識の積み木の部屋」システムでは逆に鍵となるものなので、以下に解説します。
        • メタ認知:ホーキンスのシステムでもエピソード記憶を入力に考える事例に言及されていますが、エピソード記憶は時間的要素および空間的要素の両方を持つものです。ボクの仮説では、ここに「自己」を含む記憶を考えます。ホーキンスはシンプルな仮説を生み出すために、感情などの少しウェットな要素を完全に排除していたため、この考えには至っていませんが、「意識の積み木の部屋」システムでは「自己」を考慮することでメタ認知を実現しています。「本人の○○という思い」を含むエピソード記憶を「私」の意識として思い出すことで、あたかも「私が」そこにいるように意識(メタ認知)するという考えです
          • 入力が有った時、その語句に関するエピソード記憶を連想して、「(本人が)そう考えることは、あまり前向きでないと思った」、「(ある人が)そう発言したとき、周囲が不快な様子だった」、「一見そう見えるが、短絡しても良い結果にならなかった記憶がある」などの記憶が瞬時に連想され、その中で(その入力に対し)最も強く連想されるものが本人のメタ認知となると考えます。
        • 本能、欲求・感情:「欲求」は、本能のような遺伝子の記憶として脳の中(たぶん新皮質のどこか)に織り込まれていると思われます。このところは前にもブログで書きましたが、ホーキンスが参考にしたマウントキャッスルの発見:脳内新皮質の一様性…を援用して考えることができると思います。この仮定を置くと、「知らなかったことを知りたい(仮)」などの欲求は、祖先がいつの時かに刻み込んだエピソード記憶のような「遺伝子の記憶」として、生まれた後の様々なエピソード記憶とシームレスに(他のエピソード記憶と区別無く)繋がるという仮説を考えることができます。そして、感情については、欲求をもとにして生じるという仮説…これもブログのどこかに書いている、「動機付けgap起因感情発生モデル」を考えています。「意識の積み木の部屋」システムでは、「本能に相当する記憶」と「体験に相当するエピソード記憶」は完全にシームレスにアクセスされます。
        • 自由意志(ここでは「擬似的な」自由意志、「幻想として」の自由意志をさす):多くのエピソード記憶の経験から、何かをやる前に他の選択肢は無いか考えてみる。…ある方法に気づき実行することや、最初に決めたことを変更することで、で自由意志が有ることを実感する。しかし本当は、他の選択肢を探すこと自体が、「自由意志の確認」のエピソード記憶と連想で結びついているとか、最初に決めたことを変えること自体が、「判断を途中で変えてうまくいった」エピソード記憶から生じた幻想かもしれない。しかし本人には、自由意志を意識しつつ本当に自由に意志を持てているとありありと感じていると思います。「意識の積み木の部屋」システムでは、エピソード記憶の中に、「過去の判断の記憶」も複数含んでいて、その中から状況に合った判断を疑似的な自由意志として示します。
      • このシステムでは、入力文に対し、単純に一対一で出力を返すのではなく、常時さらにもう一段連想することが可能となるようにしています。そのため、入力文に対し、直接関係無い応答が帰ることが有ります。この時は、連想した結果を示していて、入力文内のどれかの単語などに反応し、何かを連想した結果になります。たとえば「動物」の単語に反応し、猫→動物、という理解から、「猫はかわいい」と反応することも有ります。実際にはこのシステム上は、最終的に発言として表に出るのは選ばれた一言だけなので、「迷った末に決めた」的なところはやや感じにくいですが、システム内では、たくさんのエピソード記憶が次々に連想され、最終的な発言に繋がっていると考えれば、(このシステム: BLUE)本人には自分の意志で迷った末に決めたということがありありと実感できているように思います。
      • あと、オマケとして、旧バージョンで実装した、リスナ&トーカシステムを入れてみました。(詳しくは旧バージョンの解説ページへ。)
      • 今回実現できているのはここまでです。もう少しいろいろなところで重み付け(強度を示す)などを考えることでもっとそれらしい反応ができるようになるかもしれません。(フレーム問題の制約を考えれば)意識について(あるレベルで)一応実装できたと考えています。意識について多くの人が研究されていますが、きっと「これが意識研究の足しになるなんて考えられない」と思われると思いますが、もうそこまで来ていたというのが結論です。NCC探求の流れはおそらく脳内の機能解明に、量子論的アプローチはおそらく(外から観察した結果のみに着目した)統計的アプローチに繋がって行くように思います(クオリアの考察もおそらくこの流れでしょう)。
      • それから、意識を数式で表すことはできるでしょうか?入力が有って出力が有るならy=f(x)でも良いように見えます。「記憶の一部が自分を含んだエピソード記憶である」というのも良いかもしれません。他にもいろいろ考えられるかもしれないけど、残念ながら数学的センスゼロなのでこれは困難な作業のようです。広く分布する、「記憶の一部が自分を含んだエピソード記憶」が疑似的なホムンクルスとしてはたらく… というのも良いかもしれません。今後ニューロンの計測技術が進んで、NCCって広範囲に分布してますねww ってなったら理解されるかも。または、「欲求などの本能的な記憶と後天的なエピソード記憶群がシームレスにつながり"疑似"自由意志を示す」といのもできないかな… エネルギーの式でもないだろうし。このあとおそらく、「数式にできないようなら仮説とは言えない」なんて言われそうですが。(この項、2/7/2013〜2/8/2013のtwitterにpostしたものです。)
      • 注記
        • *1)簡素化したシステム:今回の実装のポイントですが、脳神経系を模したシステムとはしていません。いわゆるノイマン型コンピュータのシステムを用いているため本来の脳の持つシステムからはかなり隔たりが有ります。脳のシステム解明が目的であるならこのような方法は採用できませんが、今回の目的は、人の意識・知能を再現するシステムであり、拡張性に欠ける欠点は有りますが、「意識の積み木の部屋」的なものの再現は可能と考えました。本来ホーキンスの仮説でも、もとは脳神経系のネットワークを用いたシステムを提案していますが、今日時点でそのシステムの実現性のめどが立っていないため従来のノイマン型コンピュータに適応しやすい形でプログラムを書いています。(ボク自身その方面の研究は着手できていないですが、近いうちの確立を期待しています。)
        • *2)フレーム問題:脳神経系を模したものの最大の利点は、ニューロンが物理的に繋がっている点です(シナプスを介していますが)。それにより、繋がっていない不要な他の要素との関係性の演算は不要です。今回、脳神経系ではないためノイマン型の欠点が直接降りかかり、(全文検索時に)ある閾値を超えると機能しなくなる懸念を潜在的に持っています。今回は「意識の積み木の部屋」の考え方で、極力容量を絞り込んで実現しています。ただ、積み木の部屋だけあっていわゆる記憶容量が乏しく、100%再現できていると実感できるかと言うと不安も有ります。ただ。知能の持つ特有のものや、いわゆる意識の特徴的なところは表現できていると考えています。

※感情については次回の正式版で「プチ」感情システムを導入予定でしたが、ちょっと別の考えが少し前に浮かんだのでまたよく考えてみます。

これで今日からボクもトンデモ仮説を主張する人の仲間入りですが、ボクからは、BLUEを見た上で、連想により人工知能や実際の「脳」がどのように感じているか、思いを巡らせていただければと切に願うしかありません。後は英語版も作る余力が有ればやってみます。

keyword: 人工知能

yahoo形態素解析を利用した新プログラム作成中

明けましておめでとうございます。
twitterで少し進捗を書いていましたが、#yahoo形態素解析を利用したプログラム の開発を進めています。内容詳細は秘密です!
現在のBLUE ver.5.1.3 からは全面的に書き換えたものになります。α版→β版→完成版と順番にリリースしていこうと考えたが、やはりβ版くらいの完成度でないと恥ずかしいかなと思えてきた。α部分はオールニューの新コンセプト。β部分(少しわかりやすくするために、意味理解的な味付けを加えたもの…)は従来の考え方の疑似的なシステムだけど、α部分がオールニューなのでそのまま使えないのでそのへんを考え中。α版としては形が見えてきたけど(70〜80%?)、β版でみて40%くらいの進捗。

keyword: 人工知能

意識の有る生物と意識の無い生物のあいだ〜理解や欲求などの閾値で観察者が区別しようとしているだけかも

カエルはゾンビ…というツイートを見つけた。確かに、機械的に反応を返すイメージはそのように感じるかもしれない。となるとカエルを再現したコンピュータ・モデルであれば容易に作成できるかもと考えるのかもしれない。この時、意識の有無を言う時の問題のひとつの観点は、新たに(エピソード)記憶可能か?という点かもしれない。前回のブログでも話題にしたが、(エピソード)記憶が可能であればそれがメタ認知につながり、「意識的に」意識することができるようになると考えられる。

ただ、意識の有無の区別は、何か主観的なものが有るようにも思う。新たに(エピソード)記憶を追加可能か?ということの他に、遺伝子が持つ(とボクは呼んでいる)記憶で、(感情に繋がる)欲求を持つ必要が有ると考える人もいるかもしれない(awarenessと区別しようとする人もいるので)。

うーん、今のところ、その生物に意識が有るかどうかは正確には定義困難だろうか?「それが何か」の理解のためには記憶が重要になるけど、入力に対し感情を伴って反応するためには欲求の方が重要かもしれない。そうすると(本能の記憶により)獲物に向かって近づくカエルに、ゾンビと言ってしまって良いかどうかの疑問も生じる。本当はボクの立ち位置は、理解も欲求も記憶がおおもとになっているという仮説なので、本当はどちらであっても良いし、むしろヨノナカ一般の方が、これらを区別したがっているだけという理解なんだけど、その方向の考えを他で見つける機会は見あたりませんね。(感情が欲求により生じる…はボクが言ってるだけだけど。)

…感情が欲求により生じる…(ボクが言ってるだけ)…のところで意見の有る人がもしいたら、別のところで議論したい。(まあ、そんなところに注目する人はいませんけど。)

※以上、11/24のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

意識と無意識のあいだ〜メタ認知しているかしていないかの差しか無いのかもしれません

意識と無意識の境界ってなんでしょうか?ググってみると、「自律的=意識的」「他律的=無意識的」なんていうのが有りますがしっくり来ません。たしか、「意識の探究」では、意識に上らないシステムによる制御を無意識と呼んでいたように思います。意識と無意識は厳密に線引きできるのでしょうか?水の入ったグラスを手に取る時、または、歌を聞いてその続きを思い出す時…無意識にできるような気がします。ただ、自ら進んで思い出そうとしながら聞くと、意識的に聞いたことになるのかも知れません。

ホーキンスの考えからは、記憶に有るものは自動的に記憶に有ると確認され(基本的に無意識に処理される)、本当に未知の入力が有ると、新皮質の階層を駆け上がり、最後には海馬に届くという考えだったように思います。(そういう意味では、海馬はある意味ホムンクルスなのかもしれません。)ただ、ホムンクルスまで話が行くとちょっと極論なので少し落ち着きを取り戻す必要が有りますがww。実は全く未知の情報でも、気を抜いていると無意識の海に沈んで行くことも有りそうで。逆に、既知の情報でも、メタ認知しようという気になれば、「意識的に」意識することができるように思います。そうすると意識と無意識の境界って、メタ認知しているかしていないかの差しか無いのかもしれません。たまたま本人が「前に歌ったことがある曲だな」と思いながら聞いた曲は、意識できるという考えです。

ボクはメタ認知については前にブログ「メタ認知と意識のあいだ」に書いたように、、「本人の○○という思い」と「○○という思いについてのエピソード記憶」と(もっと言うと)「メタ認知とは…」という3つの[記憶]がそれぞれに連想して生じるように思います。それが本人のなかで認知(意識)されるためには強度(シナプスの繋がり)が重要と思いますが、「オリジナルの歌手が歌う曲を(本人が)テレビで聞いたことがある」くらいの本人の登場度では、意識できるかどうか微妙という考えです。こう考えると意識・無意識の区別を余り気にしなくて良くなって、インプットに対する反応は(本人の登場度によって段階的に変化し)、無意識的なものも有れば、意識的なものも有り、また、意識と無意識の中間的なものも有るという感じです。(閾値によるジャンプが有るかどうかは別の問題。)

無意識から意識を区別する時、ニューロンの発火を観察している人や、他の仮説を提唱している人は、ホムンクルス(観測者)を探しているのかもしれません。ボクが考えているのは、意識についてブログで何度か書いたように、記憶に有るものであれば(記憶との比較により)無意識に処理され、記憶に無かったものは(それと「意識」され)、新たにエピソード記憶として記憶されるという考えで、ホムンクルスについても観測者(複数のエピソード記憶から浮かび上がる虚像のようなものを)を疑似的に想定すればよいという考えです。

※以上、11/15〜11/16のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

創造性・創発性が、意欲・体験・欲求・記憶・遺伝…とどのように関連しているかについてのまとめ

茂木さんがTwitterで「創造性とは、体験×意欲。側頭葉に蓄積される体験が、前頭葉の意欲によって引き出されるのだ。」と書いていたので、メモ。
上の茂木さんのツイートに対するボク(@mambo_bab)のTwitter 10/6/2012メモ:興味深い考え。意欲のメカニズムに言及が無いが、ボクが考えている[遺伝子の記憶…欲求(意欲に繋がるもの)]が一般的な記憶(体験)とシームレスに繋がり生じているのだとしたら。 RT @kenichiromogi そか(8)つまり、創造性とは、体験×意欲。側頭葉に蓄積される体験。


一般論や人生経験上の話としては、確かに創造性とは「体験×意欲」と言われると、なるほどと思いそう。体験、意欲がそれぞれどういうものか考えると、
体験というのは、エピソード記憶の蓄積という意味で理解しています。
意欲の方は少し難しくて、一般的には意欲(やる気のようなもの)がどのように生じるかは未解明です。ひとつに、本能や遺伝的なものとして、そんな感じの「前向きさ」みたいなもの有ると漠然と感じていると思います。それは、環境や健康状態などにより強化されたり減退したりすると感じられます。一目置いている人から評価されたりすると俄然やる気が出たりしますww。但し、意欲がどのようにして生じるかは明らかでなく、ドーパミンなどの神経伝達物質のはたらきは報酬系など一断面を示しているにすぎないと思われます。
ここからはボクの仮説ですが、意欲のもとになる「欲求」は、本能のような遺伝子の記憶として脳の中(たぶん新皮質)に織り込まれていると思われます。このところは前にもブログで書きましたが、ホーキンスが参考にしたマウントキャッスルの発見:脳内新皮質の一様性…を援用して考えることができると思います。この仮定を置くと、「知らなかったことを知りたい(仮)」などの欲求は、祖先がいつの時かに刻み込んだエピソード記憶のような「遺伝子の記憶」が、生まれた後の様々なエピソード記憶とシームレスに(他のエピソード記憶と区別無く)繋がることで生じると考えることができます。つまり、欲求と体験とは、同じメカニズムで連結できて、体験の蓄積から意識が生じる(←ここもブログの別の箇所の仮説参照)のと同じように、創造性も生じると考えられます。


もう少し言うと、エピソード記憶の中には、今後のいろいろなヒントになる体験も含まれています。創造性(または、何かを見つけ出す)の観点では、近いエピソード記憶から、「こういう似た状況ではこういうことが有った(問題を解決した)」ことを思いだし、答えを類推しているという仮説を考えています。(以下、2011-05-06のブログより)

  • 近いエピソード記憶が有る→でも今欲しい答えは無い→前と違うのは○○で××の時の答えはある→○○と××の違いは△△→××の時の答えに△△を加味したら欲しい答えになる!(「→」で結ばれた各項目は全てエピソード記憶。各過程を一つずつ思い出すか、または瞬時に連続してひらめいて創発していると考える。)
  • ○○の場合の答えは・・・××の場合からの変化率が(ほぼ)線形と解っている際は、(関連するエピソード記憶として)線形の場合の補正の仕方を記憶しているため、ほぼ正確に○○の場合の答えを予測可能。
  • 「○○の場合」の答えは新規のエピソード記憶として、思い至ったプロセスとともに記憶される。
  • 数学の問題を解くのも上と同様。

keyword: 人工知能