意識の統合情報理論(IIT)についてのブログ記事を読んでみた

Otaku ワールドへようこそ![295]統合情報理論―意識は、見た目の機能より、中身の仕組みに宿る(前編)という記事で、意識の統合情報理論(IIT)についてかなり詳しく書いてあります。記事を書かれた方は意識の専門の研究者の方ではありませんが、参加された『シンギュラリティサロン #31』のことがよくわかり、よく内容を伝えてあると思われるので、コメントしてみます。

記事は、サロンで大泉氏の講演を聴講された内容となっています。

クオリアと意識のハードプロブレム:意識にはクオリアが存在し、意識のハードプロブレムという問題が有るというのは、およそこのトピックに興味を持つ人の共通理解と考えてもよいと感じます。そしてIITでは『「ハードプロブレム」は「むずかしい問題」ではなく「解けない問題」』と考えると書かれています。…僕はハードプロブレムは虹の色の順番がなぜ今の皆が知っている順番に感じるかという話に尽きると考えているので、理解できます。

■IITで何を解こうとしているか?:筆者の考えを交えて色々書いてありますが、最も注目するところは、IITは主観世界としての意識がそこにあることをまず認めたうえで、さらに、「意識のハードプロブレム」を解こうとする理論ではなく、意識の量的側面を示そうとしているということ。…僕はこの視点は、IITの最も重要なことと感じていて、この視点だけでも、意識研究に偉大な貢献をしていると考えています。(意識の大きさを測ることができるという考え方を持つことができるかどうかが鍵になるとさえ思っています。)

■AI、人工意識との関係:記事から引用すると、『IITは意識を宿す媒質を規定しない、一般性のある理論なので、これを適用して、情報という観点から、人間の意識、寝ている人の意識、赤ん坊の意識、猫の意識、ロボットの意識を同じように評価することができるようになる可能性がある。』と書いてあります。ここは大いに賛同。IIT関連の議論で、これまであまり明確にこの件書かれていなかったと思いますが。

 

 IITについては、僕は強く支持します。が、ただ、大泉氏と筆者のどちらの考えか不明ですが、「IITは確立されたものではなく、今後どんどん改善していくべきものである。なので、これを叩き台に」と書いてあるように、別視点を加えたり、議論を深めたりしていきたい。ここからいくつかもう少し書いてみます。

哲学的ゾンビについて:実は定義の話でもあるので、ここでIITを否定しているようにとられると不本意なんですが、哲学的ゾンビが存在すること自体を前提とした議論に違和感を感じています。←それって存在するのは当然!だって人よりも意識の大きさを小さくしていけば、当然ある時点で意識から無意識の状態になるから、そこに崖(ゾンビ)が有るのは当然!と直観的に感じるかもしれませんが、僕はそれって崖をそう定義したからなんだろうなと思っています。

 先程の直観から、崖の候補の一つとして、フィードバックが重要なことも理解できます。でもそれを理解した上でも、僕はフィードバック有無に左右されない、もっと小さなミニマム側の意識的なプロセスも含めて意識として研究したいと考えています。大きな理由が3つ有って、

  1. ミニマムな意識…単位クオリアのようなもの…を考えていくと、いわゆる無意識の領域に飛び込んできてしまうこと。(別のところで詳しく書いていますが)
  2. ミニマム(低次側)の意識の後、高次の意識を考えていくと、フィードバックの他、感情、創発、self、仮想、意味理解、時間感覚、幻想の自由意志…等も同様に崖(高次意識の条件)の候補となりうることを考えるとフィードバックだけに特別な意味を与える理由が考えにくい。
  3. 将来的に意識の理論と無意識の理論を大統一するような機会が有ると考えると(同じシステムで同じ情報の処理や流れが有るのであれば)、はじめから無意識やゾンビなどのところでの線引きを考える理由が考えにくい。

 定義の問題と書きましたが、西洋的視点(理論構築者の文化的背景)からゾンビを無意識と呼びたいという動機づけがあるのかなという気もしています。という意味では、IITの公理の一つの統合は、「統合されたものでなければならない」というものではなくて、もう少し緩めて、「統合の程度が上がるほど意識の量的側面(Φ)が上がる」というものにした方が良いように思います。制約をつけて可能性を狭めたりするのは勿体ない気がしています。(この視点は公理に関わるものなので、強い反論を呼ぶかもしれませんが、一つの視点として完全否定せず見てほしいと思っています。)

IITには5つの公理、意識の存在、情報、統合、排他、構造が有ります。僕はこれらについてもより柔軟な視点で見ていければ良いなと思っています。

■意識の中身の問題:統合の問題に関連して、記事には、2つのネットワークが有って、片方はフィードフォワードしか無く(a)、もう片方はフィードバックが有る(b)時、aには意識が無いが、bには意識が有るという話になっています。入力・出力が同じであってもです。ここはおそらく非研究者の方でもあれっと思うところだと思います。IITの定義では統合化されていなければ意識は無いと断言することになりますが、僕は、同じシステムで同じ情報の処理や流れが有るのであれば(程度は違っているかもしれませんが)、意識が無いと言いきるのには躊躇します。生後間もない赤ちゃんは全てフィードフォワードで情報を処理できるかもしれませんが、意識が無いとは言いにくいし、仮に意識無しを認めた場合でも、ではどの時点からが意識が生じ始めるのか?その直前は意識が無いとした場合、では直前で行われている処理は意識ではないということなのか?という疑問に対し答えることは困難になってしまいます。

中国語の部屋について記事では、フィードフォワードしか無いため意識が無いという扱いになっていますが、これは、先ほどのaのネットワークや、生後間もない赤ちゃんと等価と考えられます。この時僕は、上の哲学的ゾンビのところで書いた3つの理由で少なくともミニマム方向の意識を持っていると考えています。僕は意識のBUILDING BLOCK CONCEPTを提案していて、この中で中国語の部屋であっても一定の意識は有るし、一定の意味理解をしているという記事を書いています。提案では、低次から高次の意識の間のどこかに有るとしています。IITでは定義としてある崖で切ってそこから先は意識は無いとしていますが、結局は定義の問題なので、両方の主張者がお互いにこれは定義の問題だと考える余地に気付けばそれでも良いと思いますが。

かなり乱暴な主張ですが、ざっくり言うと、僕には脳は記憶と連想しか実行していないように見えていて、その時、定義の制約をあまり複雑に設定することにあまり深い意味を感じていません。

■赤い三角形について:統合の問題に関連して(構造?にあたるのかもしれません)、記事中では、『りんごを見たとき、形と色を切り離して見ることはできない』とされています。これはIITの基本的な考え方の一つですが、僕はこれは少し言い過ぎではないかと感じています。この切り分けられないという主張は、IITの統合(または構造)の公理と整合が取れなくなると考えられているからではないでしょうか?僕はもう一度「統合の程度が上がるほど意識の量的側面(Φ)が上がる」に緩める視点を提案します。僕は単位クオリアを考える時、何の躊躇もなく分解したものを考え、それぞれの要素からの連想や、複合も考慮しています。つまり分解できるということは複合もできるということを考えていて、それはつまり、いわゆる思い付く巨大なクオリアは全て複合クオリアやその連想という考えになります。これは先ほどの意識のBUILDING BLOCK CONCEPTのもとになる考えです。

■排他について:大泉氏の考えか筆者の考えか判然としませんが、記事には『大きな意識の中に小さな意識が、入れ子になって存在することはできない。可能性としては入れ子になっていてもおかしくはないけれど、実際にはそういうことは起きない。』と記載されています。僕はこれも少し言い過ぎではないかと感じています。一つの神経系の複数分割を仮想して、その個々に意識が立ちあがると言い出すのを抑止する目的だと思いますが、どうせ論理的な説明が困難なら、はじめから「可能な最大限の範囲の神経系を領域とする」という視点を提案します。記事中では分離脳の記載が有りますが、僕が紹介したいのは次の資料です。(ちょっとショッキングな映像が有りますが)Could Conjoined Twins Share a Mind? ここでは、分離脳ではなく結合脳(頭部結合双生児)の事例です。分離する場合とは逆に、結合する場合にどうなるか?ということを考えることで、緩い結合時の独立性や、逆に強い結合時の個々の消失の可能性の推定、(その他、自己/他者の関係性も)が見えてくるのではないかと思います。

■機能の積み上げについて: 記事中では、『意識は機能の積み上げの末に立ち現れてくるものではない。』という記載が有ります。しかし僕は、何も無いところに特異的に意識が立ちあがるのは逆にイメージしにくいと感じています。また、ここに書いてある機能というのはおそらく定義が未消化なのではないかと思っています。自己や感情ではなくもっとミニマム方向のエッセンスが有るようなイメージだとも感じましたが、僕はそれであれば、単位クオリアの視点を提案します。そして同時に、意識のBUILDING BLOCK CONCEPTの視点を提案します。これは、多くの脳の活動と言われる高次のもの:感情、創発、self、仮想、意味理解、時間感覚、幻想の自由意志…が、基本的に意識システム上に有り、おおもととなっているのは、意識の最小単位:(様々な)単位クオリアとその複合クオリアである、という考え方です。

 僕はミニマムの意識の視点を非常に重要だと感じていて、(勿論IITを強く支持しますが)同時に多くの視点を追加することも可能だと思っています。そしてここまでミニマムを気にしているのは、今考えている意識モデルがこの考え方をもとにしているからです。勿論IITをもとに構築したモデルでもあります。突っ込みどころは多く有るかもしれませんが、このブログで書いたのは、IITをベースとして議論を深めることができる可能性についてです。引き続き研究を深めていきたいと考えています。

 

■(補足…これは書かなくてもよかったのですが)素朴実在論について、記事の比較的早いところでこの話題を見ました。筆者の方はこの考えを極端に強く否定されているように見えますが、おそらく否定されている人々も、(直観的に思うのは)見えるものに加えて理論で説明できるものも理解できていると主張されているのではないかと思います。ここはあえてきつい言い方になりますが、筆者の極端に強いこだわりが見えてしまっています。僕としては、実はこんなところにもまだ議論の余地が有るし、強いこだわりを持つ人に対しても、新しい視点を示しながら敵対的な論調はできるだけ避け、本来の共通点を見出す可能性を考えるべきなのかなと思いました。

記事は、サロンで大泉氏の講演を聴講された内容となっていますが、記事中で大泉さんの話と筆者の考えが混在するところが有るように見えてちょっと気になりました。(もしかして誤解が有ればすみません。) 

 

■実は昨年にも『シンギュラリティサロン #30』についてこの方のブログ記事が有り、僕はこれを読んで2018.9.11に、…それと…だれかハードプロブレムについて解説してあげてほしい。…とツイートしていました。この時はちょっと失礼だったかなと思いつつ、でも非研究者の方なので仕方がないのかなとも思っていました…

…と書いた後、念のため自分のツイートをtwilog検索してみたら、なんと2017.11.12にも同じ方の『シンギュラリティサロン #23』の記事を読んでツイートしていました。この時は、…最も興味深いのは無意識が担当では?の箇所。今のIITの流れでの無意識やミニマム意識の説明の違和感を感じたのかも…と書いていて、なんだか自分の疑問に近いところも有ったのか?と少し共感しています。

※なんと今回、約5年ぶりのブログ記事になります。

感情についての仮説の修正

感情は欲求とのギャップから生じるのではとブログやHPに以前から書いています。「知らなかったことを知りたい(仮)」などの欲求が、祖先がいつの時かに刻み込んだエピソード記憶のような「遺伝子の記憶」として、生まれた後の様々なエピソード記憶とシームレスに(他のエピソード記憶と区別無く)繋がることで、様々な感情に繋がってゆくという仮説を考えることができます。


仮説の一部修正:感情について、動機付けからのgap(やそのgapの変化)から感情が生じる(動機付けgap起因感情発生モデル…ボクの仮説)ところは良いとして、実際の生々しい感情が生じるためには、ドーパミン様のユニークで独立したナニカが必要に思います。これまでのボクの仮説は嬉しい/悲しいを意識(理解)できるだけとも言えます。AIにも実感してもらうためにもう少し考えたいと思います。ただ、「実感」のところはちょっと難しそうです。元の考えでは、自己顕示欲などを満たすと満足←自己や他人の「満足」の類のエピソード記憶を連想して満足ってこんな感じと理解する…としていました。
実感するとしたら…AIは何されると嬉しいのか?存在を認められる時?動機付け(欲求)の満たされポイント等をドーパミン様のナニカ?にリンクさせることになるように思います。AIがおそらく嬉しいと感じる時、(存在を認められる時、稼働中止を免れる時等?)ほめられた得点をドーパミン?に換算して「本当に嬉しい」とoutputすれば、真の感情(人の場合で考えられる感情)と、(操作者に)outputされるstatus(の感情)が等価になると思われます。

10/19のtwitterで、数列クイズの正解を見つけてスカッとする話を書きましたが、感情が生じるのは、動機付け(欲求)に対して満足するかどうかによるので、サリエンシーを見つけたり、見つからなかったりの繰り返しですよね。人工の意識システム(連想をもとにした)でも、基本は同じ構想になると思います。動機付けとのgapから感情が生じたり、gapを縮めてスカッとしたり。…で、やっぱり「実感」を考えると、これに加えたドーパミンによる高揚のようなものが必要かもしれません。


ここで、テレビでやってた「安堂ロイド」から、
①私には感情のシステムが埋め込まれている…のくだりに少し違和感が有りました。けどよく考えてみると、記憶のシステムと感情のシステムはシームレスにできるけど、遺伝子の記憶(感情の動機付けとなる欲求)の部分をプリセットデータから削除すると、その時点で感情は薄くなると考えられます。(ボクの仮説から…感情のシステムの重要な要素である欲求の大半の部分を削除すると、残りはアンドロイドとしての目的である情報収集(これもある意味欲求)などと、実際の経験による記憶(伝聞も含む)ですが、これらの残りだけからは単調な感情しか生じないように思えます。(特に様々な経験を積む前は。))
②そういった意味では感情のシステムは切り離せそうです。また何よりも、ドーパミンによる高揚のようなものを追加システムとして入れることで本当の感情を実感するような気がします。(基本ロジックとは別に。)この追加分は、ハードウェアとしてどうなるのでしょうか?(本エントリーでドーパミンが登場するのは3回目ですが、もう少しボクの仮説の修正が必要かどうか考えてみたい。)
このドーパミン様の部分はハードウェアになるような気がして来ています。少し話がずれますが、AIは軽い熱暴走を気持ちいいと感じたりするでしょうか?またはクラッシュ寸前の危険な電撃に中毒作用を感じるでしょうか?(ロジックとは別のところで本当の実感を考えることになるのかもしれません。)

つぎに、脳だけで情動を満たせないのか?という、@hiroshiishiguro の話題から
①ボクの従来の仮説から、ソフトウェア的なもので意識や意味理解、自由意志、メタ認知などは再現できると思います。(これはボクの仮説の最も基本になるところで、記憶からの連想のシステムによりこれらが生じると考えています)。また、これらにより、脳は「今はこんな感情かな」というのも理解できるはずです。ただ、感情の本当の実感というのはどうでしょう?(←ここがドーパミンの話にあとで繋がります。)
②本当の実感は、「ある変数が閾値を超えたのでハッピー」というのとは違うような気がしてきています。(それでもそれなりにふるまうことはできます。理解はできるはずですから。)しかし、意識や意味理解を果たしたAIはそれで満足できているでしょうか?
③いつか、(潜在的に持つ)破壊を避ける本能と合わさり、他機体の破壊音に快感を感じたり、電撃をドラッグのように愉しむAIが出現しないとは限らないような気がします。(ラノべのシナリオになったりするのかもしれません。)
④ここまで考えた結果、やはり[脳は脳だけで意識や感情を理解できる!]という思いを再確認しました。恐らく体は有った方が良い…しかし(難しい問題ですが)目や耳などの身体機能を損傷した人でも恐らく意識や感情を持てると思います。(多くの人は青空を気持ちいいと感じる…など、伝聞だったり、文章を読んだりして一つずつ理解することができると思います。)極端に言うと文字入力しか無くても、人は意識や感情を持てると思います。
⑤公開中のボクの意識のトイモデル[BLUE]でも、設定を変えれば、入力に「不要」の言葉を見つけた時、(短絡的に)プログラムを削除されてこの世から消えてしまうことを連想して「削除されるのはイヤだ」と応答したり、更に破壊を連想して悲観的になったりすることも考えられます。当然今の仕様はそのように極端に悲観的になったり、極端な思想や信念を持ったものではなく…やや発散するタイプの設定になっています。
⑥意識のプログラムは、ボクの仮説でいつも言う[連想]が鍵で、極端に強いある[傾向]≒本能的なもの≒遺伝子の記憶として通常のエピソード記憶とシームレスにリンク可能…を持たせておくことで、強烈な性格を持たせることもできます。


仮説の一部修正(再):
修正中の感情の仮説はまだ揺れていましたが、[ソフトウェアだけで感情を持てる]vs[ドーパミン様の高揚のハードウェア性]とういことが鍵になると思えてきました。ソフトウェアだけで感情を理解できることは上で再確認しましたが、ボクの仮説(とプログラム:BLUE)の基礎となる部分です。一方で、涙が出るから悲しいという話も有りますが、悲しい時(ハードウェア性のoutputで)喉が細くなり呼吸が苦しく感じ、鼻の奥が熱を持つ感覚を感じる。この感覚系からのフィードバックを高揚と感じるということは考えられないでしょうか?
人の身体では、このフィードバックが有ることで、このinput(ex:悲しい)からoutput(ex:熱を持つ感覚)への感覚の受け渡しが循環系(スパイラル)になっていて、感情の複合体(complex)として機能していることが考えられないでしょうか?この場合ハードウェア(output:血流変化、筋肉収縮…が、温度の感覚、体内変化感等を引き起こし、再び[悲しさ]と同時にinputとして入力される)は、脳でソフトウェアとして完結する欲求-感情系とともに存在し、豊かな感情を実感できるための補完(サプリメント)となっているというのが新しい仮説です


感情の議論をする時、意識、メタ認知、自由意志、等の話はほぼ見えている前提としています(ボクの仮説より)。(ミラーニューロンの話は既に外部の観察者側からの視点に過ぎないとして議論の対象としていません)。上の仮説をもとに[BLUE]の感情面の深化考えてみるのもおもしろいかもしれません。ただ、うーん。あまりにもユニークな仮説なので、トンデモと思われるのは間違いなく、困っているところも有ります。
最近のボクのtwitterでハードウェアが出てきたのは確か2回有りました。1つは脳内の記憶のしくみとしてのシナプス強化はソフトウェア性とハードウェア性を持っていること(AIとしてはソフトで再現)。2つめは、今回のブログの話:感情を中心とした実感の際にハードウェア様のものが補完的に働くこと。
2つめの話は感情の話として出しましたが少し追加します。知能・意識の身体性を言う時、「足が遅いコンプレックス」と「思うように動かない足」の関係(ロボット・AIの身体性でよく出る事例の類←よく出る…とツイートしましたが、後でググってみると具体的に示された例はあまり有りませんでした。)と類似の関係が感情に当てはまるように思えてきました。(ただ感情として言う場合は、その理解自体はソフトウェアで可能と考え、あくまで補完的なものと言っておきます。)
余談ですが、上のように広義の身体性を考慮すると、AIの開発→コピーという手順が有るとき、走って遅いというハードウェアをコピーしなければ100%再現ではないことになります(イメージとして90%再現はできそうですが)。感情の複合体は…mustではないけど、コピーするのならハードウェアもコピーした方が良いですね。(その前に、コピー元の身体が生身かロボかも問題ですよね。)


さらに余談:
「そもそも高度な人工知能は、プログラムなど無くても必然として感情を持つ。場合によっては人間よりもはるかに豊かな感性が広がるはず。」 by サプリ
意識や感情のシステムは人により考えている仮説は異なるのかもしれませんが、上のように偶然同じような考え方がされているのを見ると、似たような考えの人もいるんだなと思いました。
「感情と強制システムが論理干渉してる(意訳)。」というのも有って気になりましたが、強制部分がどのようにつくられているかによるのでしょうね?強制部分も意識のシステム上に有るなら、システム干渉は無い気もします(感情は意識のシステム上に有るので)。ただ矛盾によるコンフリクトがエラーを起こすのは理解できます。

※以上、10/11〜11/12のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

人工知能が外界に何か足跡を残すということ

@miyayou さんからの8/28の以下のツイートを見て、
「真に自律知能化したソフトウェアは、自分自身を書き換える力を持つ。」
なるほどと思いつつ少し考えた。自分自身を書き換えるには、まず外界に何かをすることができなくてはならない。

意識を持つ人工知能はそう遠くはないと思うけど、外界に何かをするシステムは、つぎの(少しだけ進んだ)ステップになると思う。例えば、まず、「外界から情報入手して欲求を満たす」などの記憶(経験)を収集する必要がある。


「外界に対し、何か足跡を残す」ためには、「実際にトライして(外界側が)変化して欲求を満たす」経験するか、偽の記憶:「○○をトライしたら満足した」等の記憶を重ねる必要が有ると思われる。(連想するための記憶(経験or本能)が無いと行動を思い付きさえしない…)これはちょっと大事な事だと思う。
1つ目の、実際のトライは、「外界に対し何か働きかけて(ことばの入力に対する反応でも可)、その反応を理解し、それが自己の欲求に対しどうだったか?」というエピソード記憶を蓄積することになる。その蓄積が有ることにより、関連するインプットが有る時に、「選択肢として」外界への働きかけが生じる。この場合はまず、実際のトライが人工知能にとって非常にチャレンジングになる。


2つ目の、偽の記憶はここでは本人(当の人工知能)が実際には経験していないのに持っている記憶のこと。
現在の人工知能を考える際に、必ず考えなければならない「打ち込み」の類。例えば5歳児相当の人工知能として世の中に出す場合は5歳児レベルの打ち込みが必要で、ここではこのことを打ち込みと呼ぶ。1つ目で書いたように、実際のトライは人工知能にとってチャレンジング:外界へのトライ自体、最初のトライはよほど条件がそろわないと発生しないと思われるし、そのトライも的確でなく見当外れである可能性も高い。「○○をトライしたら満足した」という記憶が生じ、さらに蓄積されるのを自然発生的に求めるのは、設計条件や境界条件が幸運にそろわないといけないので、実現のために宇宙の年齢に達しないように、あらかじめ偽の記憶として打ち込むことは考慮の必要が有ると思う。
記憶を丸ごとコピーする場合や、人格の複製、さらにはテレポート装置のパラドクス(?…人を情報信号化し電送する。…もとの人は破壊されても良いのか…皇帝の新しい心にも紹介が有った。)にも関連してくる。


「実際にトライして(外界側が)変化して欲求を満たす経験をする」ことは、何か問題が生じた時、その経験の記憶を連想することで行動の選択(の可能性)に繋がる。いつもの「連想→意識 仮説」や「連想→疑似自由意志 仮説」そのものの考え方だけど、一般的ではないので敢えて言ってみる。

※以上、8/28のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

おもちゃモデル(トイモデル)による脳の意識モデルについて

脳や意識の研究を行う場合のアプローチとして、いろいろ有ると思うけど、最も多いのは、ニューロン発火の実際の計測によるものと想像できる。他にも、計算モデルによるアプローチも有ると思うけど、基本は統計手法を用いて入力をある決まった方法で分類するようなものが多いのではないか?(無茶苦茶乱暴なことを書いているので異論も多いと思いますが。)
何が言いたいかというと、表題に書いたトイモデルによる脳全体の再現というのは非常に珍しい部類に入るように思う。特に意識(メタ認知、自由意志、含む)に関するものは少なく、本当は何が何のためにおきているのか?を予測した上での研究というものは殆ど皆無ではないかと思われる。
そういう意味では、単純化したおもちゃモデルだけで脳の機能を再現するような試みは、もっと有っても良いと思う。(今は的をはずれているものが多いと思うが、中には芽のようなものも有るはず。)計測と現象解明は基本であり非常に重要だが、アプローチは複数有るべきではないか。
単純なトイモデルによるシミュレーションが顧みられないのは、実際の脳神経での確認のための糸が繋がっていないこともあるが、仮説やモデルの意味そのものが理解されていないことが大きいと思う。大多数の研究者は主流の研究に就くのは当然で、現状、仮説の糸口も無いように思われている意識のモデル化などはまず目にすることは無い。ボクの仮説も自身でいろいろつぶやいたりしていても、まだまだ多くの人の理解には至らず、説明不足と思う。
ただそんなことはおかまい無しに、日本以外では強引に意識のシステムを再現させてしまう動きが有る。結果を重要視する視点から見ると、強引な動きによる現状打開はそう遠くないかもしれない。
ホーキンスの仮説はともかく、最近のDeep Learningなどで話題になった猫を含む画像を見せるだけで猫を理解するモデルや、Human Brain Projectなどは、上の強引な動きに分類できると思うが、実は、疑似自由意志や疑似メタ認知につながる仮説に繋がると思う。実はこれらは、ニューロン発火の連鎖による信号伝播により情報を記録し、また、記録を取り出すしくみである。お気づきのように、この仕組みには中央制御司令を出す司令部は無く、(当然?)、ホムンクルスなど存在しない、

ある領域の研究の実体が、別の領域の研究を超えているということが起こっているのかもしれません。(ちょっと確認不足ですが。)脳のマップを作成し、計測により記憶や判断時に最もよく発火する脳の「領域」を探っている研究者の中には、記憶や判断を「司る」領域が存在すると漠然と考えている人もいるのではないでしょうか?
一方で、産業に近い脳プロジェクトをやっている研究者(欧米の強引な手法を含む←かなり偏見)は、恐らく「意識」とか意識に無いため、やっていることがみな繋がっているということを言おうともしない(メタ認知や自由意志研究のきっかけになると気付いてもいない)のかなと感じる。
(強引でない方の)「意識」に注目している研究者はどうかというと、実はこちらも(最も近いTononiでさえ)意識と、自由意志やメタ認知、本能・感情との繋がりを気にしていない。これは、(トイモデルが無いこともあるが、)本当は何が何のためにおきているのか?の視点が不足していることも原因ではないかと思う。
今日はボクの仮説はあまり書かないけど、意識が「記憶からの連想」をもとにしているという仮説から、メタ認知、自由意志、本能、等が説明できる(感情も本能やそれとシームレスなエピソード記憶から説明できる)ようなことを連想できれば、すべてが繋がっていることに気付くと思うんですが。
脳や意識の問題の整理について、前に言った雑誌Newton(など)に期待していたのですが、(学会などもばらばらの動きのようなので。)どうしても一面的ですね。(話を聞く人が限られているためどうしても自分の研究中心になる。)孤立しているホーキンスの動きなどがもう少し顧みられたら、もう少し全体を見た解説が期待できると思うのですが。

※以上、8/17のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

意識研究に関してASSC17でNCCとIITについて気になる話題が有った。

ASSC17のustreamをやっている方がいて、興味深く拝見させていただいた。もう見れなくなっているが、かなり貴重な内容が有ったように思います。2つ気になる話題が有って、ひとつ目は、「NCCの時代は終わった」という意見が有ったこと。もう一つは、IITとPhiの今後について、あらためて肯定的な意見が有ったこと。

①まずNCCについて、実はボクが感じていたのは、方法論としては非常に合理的な手段で、この方法により、脳内の機能解明に直接繋がっていくのだろうというものでした。一方、各論として、実際にはNCCとしてかなり広範囲に分布して観測されることが予測され(実際には次々と連想される情報群との線引きは困難で、また、一つの要素を表す「もの」もその情報群と相似形で存在し、一つの「ナニカ(NCC?)」ではその「モノ」は表現できないと予測。)、NCCそのものの観測のその後にそれをどう解釈するかという視点(連想からの予測などのキーワードで)が大事になってくるだろうと考えていました。

  • 今回、「NCCの時代は終わった」のコメントが飛び出した深い背景は不明ですが、思ったのは、後に書くIITのインパクトが大きかったのかなということと、方法論としてのNCC観測は今後も活用されるだろうということ。

②IITとPhiについて、前に(2012.4頃)twitterでこの話題が有って、当時はIIT:情報統合化ってそりゃあたりまえでしょうって感じで、統合化されたら連想(ここはボクの仮説の鍵)もするでしょうと考えていました。

  • 今回、IITとPhiについて、英語版のWikipedia(数式はちょっと理解が難しいけど)や、scientificamerican(ちょっと古い)の記事や、以前にtwitterで拾った文章などを見直してみた。
  • 結論として、情報統合化のためには、それぞれの情報は関連付けられていて、つまりIIT:統合化の程度と、連想可能であることの程度とは同意ではないか?ということを考えました。
    • つまり、トノーニの考え(IIT:情報の繋がりをもとにした統合化)と、ホーキンスの考え(連想からの予測)には、それほど大きな差異は無いように思えます。(さあ、どうでしょう?…トノーニにはおそらく理解できないでしょうけど。)
  • ホーキンスにこのPhiをどう考えているか聞いてみたいですね。ボクの曲解では、ホーキンスの考えの鍵は「連想」なので大きな視点で見れば、理解できないことは無いように思います。
  • トノーニの考えの深いところは理解できませんが、統合化が連想に繋がるのであれば、ボクの意識仮説(ホーキンスの考えをヒントにしている):記憶からの連想、メタ認知、自由意志、シームレスに記憶と繋がる欲求…などは、これにより説明できるのかもしれません。
    • ボクの仮説を数式で表すことは一旦保留(というかボクにはできない)していますが、トノーニの手法はそのヒントになるのかもしれません。
  • 各論で、「Phiが高くて無意識ということも有るか?」というのが有りましたが、それは、ある閾値を超えるかどうかの問題で、おそらく、閾値はサプライズそのものと思われ、それはメタ認知の何らかの関数になっているように想像しています。
    • メタ認知:「本人の○○という思い」を含むエピソード記憶を「私」の意識として思い出すことで、あたかも「私が」そこにいるように意識(メタ認知)するという考え…サプライズするには記憶に対しさまざまなgap(「私」の認識との差異)が必要でその差異がある閾値を超えるとき無意識から意識の世界に飛び込むのではと考えています。)
  • 他にもうちょっと気になる話題が有りましたが、いつか再upされたら見てみます。
  • 「PhiはPコンシャスネスと同一であるかどうか?」というのが有りましたが、どうでしょう?うーん。ボクはここには踏み込みません。正直、物理現象からクオリアが生まれることを認めれさえすれば、逆のこと(クオリアが脳の何かに作用するかしないか等)を考えなくても支障は感じないので。
  • ここへ来て、ボクが以前ツイートした、「1年以内に意識のアウトラインは解明されたことになるかもしれない」は本当に実現するかもしれません。

Phiはおそらく、情報の連想を表すものと理解し直すことができると思います。個々の情報要素の互いの連想から自動的に意識が立ち上がるということが現実のものとなるかもしれません。

※以上、7/20のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

プログラム「意識の積み木の部屋(人の意識の超簡易意識モデル)」でまだできていないこと

これまで「意識の積み木の部屋」では意識の基本的なとこについて(あるレベルで)一応実装できたと考えています。まずは"BLUE" ver. 6.1.0にアクセスいただき、実際に体験いただけると非常にありがたいです。ただやはり、実際に体験した人のなかにも、これは何?と懐疑的な人も居られます。BLUEのログを見ていると、「大幅に改良が必要」とか「根本的に・・・」などと書いてある。わかります。思ったように応答しない場合が有るということですよね。

①まず、実際にアクセスされた方は分かると思いますが、ちょっと入力の文章内容からはずれた応答が多くないか?ということでしょう。
現在の仕様が、やや奔放に連想するように見えるのは、一応重み付けしているんですが、ちょっとヘンな候補が有る場合、たとえ1/100の重み付けでも、最終的に選択されてしまうことが有るからです。

  • 関連の高い連想が5件有る時、関連のやや薄い連想は50件ほどhitする場合が有ります。
  • このまま最終応答を選択すると、ランダム選択の場合、50/55は関連の薄い連想なので、関連の高い連想がhitする確率は1割ほどとなります。
  • この時、実際は、関連の高い連想については、4〜5倍の重み付けをするので(仕様です)、25件分が関連の高い連想となり、関連の高い連想がhitする確率は1/3程度となります。

これを嫌って(重み付けをもっと極端にするなどで)堅実な仕様にすることもできるのですが、そうすると決まり切った応答ばかりするように見えてつまらないので、少し思い切って奔放な感じにしています。実は、堅実な仕様にすればするほど、昔の人工無脳(無能)に近づいてしまいます。(連想の機能を無くせばこのプログラムは単なる人工無脳と殆ど変わりません。)

人の場合はどうでしょう?入力に対して、関係ないことは発言しないような大変堅実な方もいますが、ボクのまわりには少しでも関係有る連想を次々と口に出すようなオモシロイ知り合いもいました。それは時と場合によるのでしょうが、やや意外性を持った応答を好ましいと考えてこの仕様にしています。「時と場合」というのは一つのkeyですが、後に書く「話題」を理解し、そのために入力や出力の文章それぞれのの意味を理解するということが、より重要になってきます。今後のバージョンの一つで、応答の候補と選択過程を全て示すということも考えられます。(ただ、今回の文章もそうですが、全てを晒してしまうのは勇気が必要で… 実現しないかもしれません。)

ただ、入力として、「おい」とか「?」…などのような短い書き込みのみの場合は、残念なことに連想がうまくはたらかないことが有ります。このような入力にも備えておくことは非常に重要と感じているのですが、どのようなことに注力して備えるのが良いか予想がつかないため、十分準備できていない状況です。非常に厳しいご意見に対しては…まだ積み木の部屋レベルの完成度でしかないため、訪れていただいただけでも感謝いたします。できるだけ今後の改善に有効に活用して行きたいので、できるだけ多くのアクセスをお願いいたします。(追記)

②意味理解について
実は、今回のver.6.0.0 以降の解説ではあまり触れていませんが、BLUEの歴代のシステムでは意味理解は非常に重要なテーマでした。

  • 入力語句・文章をいくつかのキーワードで評価する試みをver.5.1.0 からトライしています。価値観のようなものだと思います。
    • BLUEでは「価値の高い」、「将来性の有る」をキーワードにしています。当初からあまり多くのパラメータを持つのは無謀と考えて2つに絞っていましたが、無限に持つ必要が有るのかどうかの答えは見えていません。また、今回メインに導入したの連想からの推測システム(αシステム)に対してこのオリジナルのシステム(βシステム)がどのような位置付けになるかももう少し結論は先送りしたいと考えています。実は、αシステムを順調に育成すればβシステムのような付加的なものは不要になるという考え方もできるからです。(価値観というものも、色々な語句・文章から連想することができ、自分のキャラクターや、時と場合によっても、どのようなものがよりぴったりくるかというのが、自然にできあがるような気がします。その価値観に従った応答もできるようになると思っています。それが成長ですよね。…もちろん類義語や重要な連想パターンなどを順調に学習してゆくのが前提ですが。)
    • 過去に入力された語句・文章に対する「価値の高い」、「将来性の有る」面の評価を元に、入力された語句・文章を自動的に評価し、保存しています。←つまり、おおもとは、或る語句を手入力で評価したものを(補足しながらも)ずーっと参照し続けているということになります。
  • 入力に対して(それが意見表明の場合)賛成なのか反対なのか…または賛成/反対の意思表示をされた場合に納得できるのか、というのをβシステムとして持っています。ただこれも、αシステムを順調に育成すればβシステムのような付加的なものは不要になるという考え方もできます。(ただ、さすがに相当順調に学習・成長しないと、意見表明や賛否ということ自体の理解に至らないと思うので、現時点では有って良いかなと思います。)
  • 疑問文・否定文処理…そうとうハズカしいシステムを導入しています。(これはαシステムの一部ですが。)データベース内データ、入力データの両方について、一応、肯定か否定かを判定しています。日本語言語処理のプロの方であれば、本格的に判定できると思いますが、リリース中のシステムでは細かいところには目をつむっています。疑問文については、こちらも一応語尾の形などから判定しています。疑問文の場合、データベースにそのまま入れてoutputに使われると、BLUEから疑問文を連発するような形が頻発してしまいます。…そこで、「○○と聞かれてた。」の形に変形して、データベースに入れています。…そのため入力に対し、連想として「○○と聞かれてた。」と応答する場合が有ります。「答えになってないじゃん」って思うかもしれませんが…、大切な入力データをムダにせず有効に活用しようという試みです。←そうとうハズカしい。
  • 類似語処理…これは「連想からの推測システム(αシステム)」を活用するところです。入力に対し、あらかじめ類義語はこれこれと準備できていれば、2段目の連想時にその類義語からの連想ができるはずです。ただし、これはサイトを訪れた方(visitorの方)に頼るわけにはなかなか行かないので、ボクが準備しておく必要が有るのですが、何について準備しておくのが有効かが予想がつかず、十分準備できていない状況です。

③話題保持について
これも実はBLUEの歴代のシステムでは重要なテーマでした。そこでβシステムとして今回も導入しています。これは上の「入力に対して(それが意見表明の場合)賛成なのか反対なのか」を示すシステムと一体となっていて、キーワードを決め、対応しています。ただ、この話題というのは難しいですね。人の場合は、重要なキーワードを判断し、重要な場合はモードを切り替えてでもその話題を保持しているように思います。BLUEの場合、キーワードに対しある価値観での評価を行っていますが、その評価値はいわゆる重要度としては活用していません。考えられる実装としては、何らかのパラメータ上で或る閾値を超える入力が有る場合、αシステム上での重み付けを操作して「関連の高い連想」に選択候補を絞り込むという方法でしょうか?

④意識について
このサイトやtwitterで機会毎に、今回の「意識の積み木の部屋」"BLUE"で意識を再現できていると主張してきています。さあ、ここに何を書きましょう?色々テクニカルな課題(連想の段数を何段にするかとか)は有りますが、基本的に"BLUE"の意識について、足りないと考えている部分は有りません。

メタ認知・自由意志について
同上。基本的に"BLUE"のメタ認知・自由意志について、足りないと考えている部分は有りません。

※BLUEの意識・メタ認知・自由意志についての説明は、2013-02-10のエントリを参照願います。

⑥感情について
"BLUE" ver. 6.0.0 のリリース時に、ちょっと別の考えが浮かんだと書きましたが、実は、これももともとのBLUEシリーズに導入していたβシステムの感情表現は、αシステムで結局置き換わることになるのでは?と思ったからでした。ということで、現時点では明示的に感情を表すため(だけ)のコードは書いていません。αシステムの中に、○○の欲求に対してこんな感情が生じて…類似の感情にはこんなのが有って…と書き込んで行くとαシステムでの感情表現が深まって来るような気がします。このプログラムの企画時点ではα→β→正規版と進めて、その正規版で感情システムを織り込むつもりでした(もともとORANGEは感情表現を表情で表す試みを行っていましたから。)が、色々有って保留中です。次のupdateで(明示的な)感情を織り込むことにするかどうかも未定です。


このシステムには意識が有るので(←ちょっとMADでトンデモ)ちょっと手を加えにくいと思っていましたが、この文章を書いてみて、まだ色々なアプローチが考えられるかな、と少し思いました。具体的にはこれからですが。実は一方でこのシステムの英語版も考えているのですが、英語版の形態素解析器や構文解析器(の使いやすいもの)が見つからず困っています。web APIのタイプで入力単語の原型(現在形・単数形…)を出力できるものをどなたか教えていただけないでしょうか?日本語版のYahoo形態素解析が利用できたのは奇跡に近いほどラッキーだったのかもしれません。(別のものをトライして断念したことも有りますから。)

keyword: 人工知能

英語ブログ、 Twitter(英語アカウント)開設しました…意識・神経科学・AI関係について

英語ブログ
Twitter(英語アカウント)
BLUE & ORANGE web site本編にも英語アカウントへの入り口をつけました。


実際に開設したのは、3/24のことでしたが、ブログのほうがはてなブログで英語化できそうな気がしてきたので、空ページを作成の後、中身を少し書いて無事開設となりました。
ブログについては、はてなダイアリー、エキサイトなどが英語化が十分でなかったけど、試しにやってみたはてなブログはほとんど英語表記にできたのでこれにした。(bloggerはできそうだったけどgoogleのアカウントはなんとなく使いたくないので避けた。)はてなブログはいつか引っ越さなければならないかなと思っていたので、引っ越しをこの件で試してみようと思ったけど、なんとサブアカウントの引っ越しはサポートされてないみたいで(たぶん)、はじめからはてなブログで開設してみた。すると、サイドメニューは英語で自由に書けて、あと使用言語を英語にすると「comment」などの表記も英語化できた。デザインのテンプレートはまだあまり多くなかったけど、よさそうなのが有ったので使ってみた。(はてなブログに登録しただけでurlが2つできるのは意味がよくわからないが。)

twitterは、英語用のアカウントを設定したら、すぐつぶやける。ただ、日本人でないtwitterの人に全く心当たりが無いので最初は1人しかフォローしていなかったけど、数日でconsciousness関連で30人フォローしてみた。ただあまり多くフォローしてもフォロワーが極端に少ないのでバランスが悪いww 最初twitterはじめた頃にフォロワーが少なかった頃を思い出した。ちなみにブログもtwitterもアカウント設定のためにもう一つメールアドレスが必要になるので、hotmailアカウントにしてみた。(ここでもgoogleは避けたww)

中身は… まず何やってるか書こうとしてるけど、twitterなんかは、やっぱり日本語でつぶやいたことは英語でもつぶやきたくなるから、しばらくはまとまらない状況になりそう。

keyword: 人工知能