今のままだと人工知能に意識が生まれることはないだろうなと


思ったりしました。

人工知能に意識が生まれないということは、結局人間が考えたロジックの中でしか動かないわけで、想定外の答えを出すことと、意識があることは別なので。

また、最終的な承認を人工知能が行わなければ、結局は人間の想定を超えることはないだろうなと。

もし、人工知能が原因で何かトラブルが起きたとしても、その原因は人間にあるという話。

たとえば、自動運転してくれる人工知能が事故を起こしたら、それは人工知能の意志によるものなのか? というと、違っていて人間のプログラミング、またはロジックに問題があったわけで、修正ができるわけです。実際に、Googleの自動運転はそうですよね。

人工知能があたかも意志を持ったように受け答えをしたとしても、それは人間が擬似的に与えたものであって、意識があるわけではありません。まあ、人間自体に意識というものがないという結論もあり得るわけですが。。。

で、なぜ意識が生まれないのか? というと、これはあくまで個人的にですが、現在のアプローチが間違っているからかなあと。

そもそも、コンピュータと人間は異なる物ですし、ニューラルネットワークやディープラーニングがニューロンをヒントにしているとは言え、実際には違う物だからです。

コンピュータにはコンピュータの意識の生まれ方があるんじゃないかなと。

個人的にはいくつかアイデアはあるのですが、時間があればまとめたいなと。

でも、私でも考えつくぐらいだから、NASAとかGoogleではすでに研究されているかもしれないなあと思ったり。

ただ、未だにそういう話は聞かないので、当分は人類安泰だと思っています。