意識モデルについて…視点を考えるためのメモ

枠内、2019.1.23 追記

意識モデルについて

意識研究において、ある種の仮想や、創発性、感情、self、などを織り込むことで、意識が再現できると考える例をこれまで様々な場面で見てきました。僕はこれらは全て正しい認識である可能性が有ると考えています。なぜなら、『それらの高次の意識の前に、既に、単位クオリアやそれらのミニマムな統合の時点でミニマムの意識が有る』という定義で見れば、これらの高次意識は有って当然と僕は考えているからです。

つまり、何らかのミニマムの意識が有りうると考えることができれば、それよりも高次の、ある種の仮想や、創発性、感情、self、などは、それらの必要性を意識の定義と決めた時点で、当然のように意識として扱うことができるということになります。(つまり、どこを定義の必要条件としても成立しうる議論ということ。)

逆に言うと、何らかのミニマムの意識が有りうるということを考えることさえできれば、それを定義とすることで、あらゆる高次の意識は当然のように意識有りと考えることができ、ある種の仮想や、創発性、感情、self、など(フィードバックも)のうちどれが真に意識に必要な要素かという議論を避けることもできると考えています。 

枠内、2019.2.2 追記

僕の意識モデルに関する考え方がわかりにくいと考える人も多いと思います。例えばモデルが自律性を持つことがイメージしにくいのではないかと思います。(モデルが意識
を持ちうることは直観的に理解できる人はいるかもしれませんが)

例えば、自律性の話をする場合、ある程度の前提条件が必要だと思いますが…
①人の場合、生後はゼロでそこから獲得してゆくか?という問いが有ります。一方で
②人は初期から自律性の動機づけを持っているという考え方も有ります(僕はこの考え)。(自己顕示などに代表される本能的な動機付けとして)

もちろん後天的なものも有るはずで、身近なもので言えば、食事のために箸を持つのも自律性の発露と考えてもよいと思っています(経験からの学習)。もしかして①の考えを研究している人は違和感を持つかもしれません。確かに最初の生物を考えるとそんな本能のようなものを持っているはずはありません。

しかし、最初の生物はたまたま本能のようなものを獲得した…つまり、最初の生物…「消滅してしまわないような性格(本能)をたまたま獲得したものだけが生物として生き残った」と考えることもできると思います。②の考えは僕の意識仮説と整合性の有るものです(具体的な視点から書き直したもの)。

補足:意識モデルについて…光合成シミュレーションが実際には酸素を生じないことを、意識モデル/意識シミュレーションが意識を生じない(だろう)理由として書く人がいますが、そういう人にもできればそうではないケースを異なる視点で考えてほしいなと思います。例えば足し算シミュレーションは足し算を再現できる。初めから計算機で再現できるものをシミュレーションしているのですから。(人工意識を考える時点で「モデルが意識を持つ」ことを想定していることになるのですが…)

枠内、2019.2.9 追記

自律性(高次編)
自律性の具体例を考える時、餌を見たら近づくとか、火を見たら逃げるとか、は実は「それをしない」ことの方が難しいくらいで、多くの生物は勝手にそれを実行してしまう…そのくらい自律性(ここでは低次…合目的な行動など)は自然なことに見えます。

一方で、自分で課題を見つけることや、計画を作る(明日のことを考える…までくると超超高次…も)などは、その意識体が持つ様々な情報の中で優先順位を付ける(幻想の自由意志…別のところで書いています…情関連報の中で結びつきの強いものが結果的に選択される)ことで外部からその自律性を観測できると思います。

例えば課題を見つけるためには、①その意識体が抱える問題点を理解し、②いくつかの対応方法の中から最も適切と思える方法を選択し、さらに③具体的な対処手段を(様々な情報の中から)選択する必要が有ると思います。通常は①②③の内の③を課題と捉え、実際に外部に働きかけることになります。

(例えば「計画を作ること」は①②で選択肢に入ることも有りますが、③で課題として知覚(認識)されることが多いと思います)これらは高次の意識が関連する高次の自律性と考えています。(例えば、選択(≒判断)は、創発や、自己他者の高次の区別もかかわっていると考えています。)

人工意識の自律性の話題の時に、なぜ「餌に近づく」ような自律性といえるかどうかわからないものを取り上げるかというと…「実装」にはメカニズムが必要で、自律性のドライブとなる動機づけが必要です(仮説)。一般には高次どころか低次の自律性も謎の扱いなので、まず低次の話題から始めています。

低次の意識が支配的な自律性と、高次の意識が支配的な自律性は。僕は、同じ法則で繋がっていると考えています。意識モデルへの自律性の構築・実装を考える場合、現在目標としているのは低次・高次のどちらなのか?(おそらく高次の自律性)を理解することが非常に重要だと感じています。その上で、(ベースとなるはずの)低次の自律性について、議論できれば非常に有意義なものになると考えています。

ここで書いた、自律性に関する僕の考え方は、僕の意識仮説に沿ったものです。また、IITの基本的な考え方から大きくは乖離していないと考えています。今回書いた低次側の自律性について、IITの考えから見ると違和感が有ると思う方も有るかもしれません。(またミニマムな意識の話題になってしまいますが)IITについてはミニマム側(低次側)へ拡大した議論が必要と感じています。現在のIITは、情報要素の統合(関連性)という稀有で有力な主張が有りますが、ただし意識の条件としてフィードバックなどの制約があります。(おそらく高次の意識に注目した場合の制約。)

一方で、実際に青い光やある周波数の音をそれ(クオリア)と感知することは、低次の意識でも可能と考えられないでしょうか?そしてその際に、感情や思い出、自己他者など(合目的性もそうだと思います)の高次の情報要素と結びつける場合にはじめて、様々な高次の意識が動員されてくると考えています。

現在公開中の意識のミニマムデモモデルは、言語入力を対象としたものです。一方で、物理可動モデル(ロボット)を用いて接触などの非言語入力を対象としたものも有ると思います。

言語入力を対象としたモデルは、Siriやアレクサなどいわゆるアシスタント・サービスが有りますが、これらは現時点意識が有るとはされていません。ではどのようなものであれば意識が有ると言えるのでしょうか?この証明は非常に難しく、構成論や圏論に頼って検討する必要が有ります。

作り手側の視点で具体的にどのように考えるか?というと…

  1. 返答するだけではダメで、意味を理解して欲しい。
  2. 痛みやその他の感覚を持っていてほしい。
  3. 感情が無いといけない。
  4. 自己(self)を認識して欲しい。
  5. メタ認知できてほしい。
  6. 仮想ができてほしい。
  7. 創発性は必要。
  8. (幻想の)自由意志が必要
  9. 時間感覚を持っていてほしい。
  10. 明日のことが考えられる。←2019.02.9 追記

思いつくまま挙げてみましたが、実際、僕は上記は意識の高次的な側面と考えていて、低次の意識:クオリア…意識体がどんなクオリアを感じているかは他人は知ることができないので、そうなると高次側である上記を実装することが重要になります。(意識モデルと理解してもらいたいので。)

1. 意味理解では、ミニマムの意味理解を考えると、一見トートロジーに見えるようなものでも最小限の意味理解は有るという考え方もできるのではないかと考えています。ノイマン型コンピュータで各情報要素を全て関連づけいくと、リソースを使いきって危ない可能性もありますが、現在のスパコンレベルのものであれば、範囲を限定すれば一定程度の理解度を備えることができるかもしれません。ここで言いたいのはこのモデルはミニマムな意味理解を備えることができるだろうということです。

 2. and 3. 痛みなどの感覚や感情について、僕はpepperの感情理論を評価していると以前ツイートしています。また添付と別の2018.8.17のツイートで感情が身体性を伴ってスパイラルに増幅するような考え方を示しています。さらに、痛みなどについては、クオリアの捉え方も含めて添付のようなツイートで示すように考えています。モデルが言語入力のみしかできない場合、痛みなどのクオリアの再現は困難で、一方で、物理的な様々なセンサー(身体性)を持つロボットは(クオリアの中身を覗き見ることはできないですが)クオリアを持つことはできると考えています。感情については言語入力モデルでも、身体性の増幅を伴わない部分については再現できると考えています。

4. selfについては、基本的に物理的身体を持つことがその発生の条件となると考えています。原始的な自己の発生には通常は身体性(自己が属する連続した物理領域)が必要ですが…コンピュータ上に自己を生じさせるために、飛び道具的に、全ての記憶の中で自己が属するものにタグ付けして強引に原始的な自己を生じさせることもできないことではないと考えています。モデル上では、上記を考慮して実装を考えていきたいと思います。

5. 以降は後半に続きます。(内容ももう少しわかりやすく書き直したいです。)