トップ > コラムトップ > 占星術師Yodaの星占いノート >

人工知能はホロスコープを読める?

アンドロイドはホロスコープを読むか? 人の意識の不思議

人生・運命・学び, 人工知能, ゲシュタルト, 意識, 認知科学

● バラバラのものを統合するちから

耳、ニンジン、ぴょんぴょん
人間はこの3つのことばを統合して "うさぎ" を連想できる。

赤い服、プレゼント、雪
人間はこの3つのことばを統合して "サンタ" を連想できる。

赤いランプが交互に点滅、黄色と黒のバーが下がる、乗り物が横切る
人間はこの3つの言葉を統合して "ふみきり" を連想できる。


・・なにを当たり前のことを・・と思うかもしれませんが、
これは人工知能にとっては超難しいことなのです。

人間は、バラバラのものを統合して、そこに意味を見出すことができる。

これは生物だけがもつ不思議な力でもある。

このちからを "ゲシュタルト能力"と言います。

● 人間と人工知能のちがい

人間は、犬を見たとき様々な情報をあつめて瞬時に統合する。
そして「犬」というゲシュタルト(全体性をもったまとまり)を作るわけですね。
だから「この動物は犬だ」とわかる。

こうしたゲシュタルト能力を発揮するためには "意識"がカギになるのです。


人工知能は今のところ意識をもちません。

だから人間は、犬をかんたんに識別できるけど、人工知能(AI)にこれをやらせるのは至難の技なのです。

もちろん現代のAIは、様々な方法を駆使して犬を認識できるレベルに達しているはず。アレクサは言語だって処理できる。
でもそれは"処理"であって"理解"ではないんですね。

AIが犬を識別することは可能ではあるものの、やはり人間がやっている識別方法とは本質的に異なるのです。

レストランとカフェの違いを見分けるような複雑なものになると、人工知能はお手上げで、これは人間のほうが一枚上手です。



たとえば、
ワンと鳴いて4つ足のモフモフした動物は犬だ」とAIに教えたとしましょう。

これで万事オッケー!とはなりません。

3つしか足がない可哀想なワンちゃんがいた場合、AIは「これは足が4つではないので犬ではありません」てなってしまう。

あるいは毛を短くカットしたミニチュアピンシャーを見たときに、
「モフモフ具合が足りませんねぇ、これ犬じゃないでしょう?」ってなる。

また鳴き声が「ハウル!ハウル! ハッハッ」だった場合も「ワン!じゃないから犬じゃない!」ってなる。(これに関してはその通りかも...)

人工知能に、どんなに細かく犬の特徴を学習させても、必ず例外がでてきてしまう。きりがないのです。



・・人間は、こんなことにはなりません。

人間にとっては犬といったら犬! なんです。

猫といったら猫!なんです。

こっちはレストランで! こっちはカフェ!こっちはレトロ喫茶! そんなの当たり前じゃん! なんです。

これが意識をもつ人間と、(今のところ)意識をもたない人工知能の違いなのです。

● ホロスコープ読みとゲシュタルト能力

さて、冒頭のアンドロイド(人工知能)はホロスコープを読めるか? という問いの答えは、
今のところ読めない、という事なりそうですね。

高度に統合されたまとまり(ゲシュタルト)を作れるのは、今のところ人間しかいません。

そしてホロスコープを読むときは、このゲシュタルト能力をフルに発揮することになる。

バラバラの象意を統合していく作業が、ホロスコープを読むということだから。

「耳、ニンジン、ぴょんぴょん」→→→「うさぎ!」

・・ホロスコープを読むとき、本質的にこれと同じことをやっている。

「月はおとめ座、太陽はさそり座、Ascはてんびん座・・・etc」→→→「あなたは○○な傾向がある方ではありませんか!?」

ホロスコープを読むとは、つまりホロスコープのゲシュタルトを見るということなのです。

・・占星術への理解が深まるほど、知識と経験が増えるほど、ホロスコープから浮かび上がるゲシュタルトも深く大きなものになっていく。

そして自身の見慣れたホロスコープも、月日を追うごとにまったく違った顔を見せてくれるようになる。

占星術の面白さって、こういうところにあるのかなぁと思います^^



余談ですが、仏陀(ブッダ)は宇宙すべてのゲシュタルトを見たそうな。
「オレ、宇宙全部わかっちゃったかもしんない・・」と。
きっとその状態を "悟り" というのでしょうね...



  • このエントリーをはてなブックマークに追加
  • 友達にメールする