• 締切済み

未来における技術の制約

この前の質問の亜種なのですが。 AIが人間の機能を目指すということになると思いますが。 AIは精神病に罹患するようになるでしょうか? 人間とともにこの世界に存在する以上、それなりの繊細さを持たなければいけませんが。 そうすると、事件にショックを受けてトラウマになるなどもAIに起こるかもしれません。 そうなると、精神病的な反応を返すようになったAIは隔離されて デリートされるのでしょうか。 それとも、人間に対する治療のような情報を定期的に与えて観察し、人間の精神病の治療に役立てるのでしょうか。

みんなの回答

  • hiodraiu
  • ベストアンサー率15% (451/2846)
回答No.4

No.3です > 世間のニーズとしては、完璧な存在としてのAIの方、人間的な反応を忠実に再現するAIの方が方向性としては分離していくかもしれません。 「人間的な反応を忠実に再現するAI」とは、人の感情をAIで実現するってことだと思いますが、今のAIの設計思想の延長線上には、それは存在しないと思います。 今の主流であるディープラーニングは、言ってしまえばパターン認識の強化版です。人間と同じ反応をさせるには、教師データとして人間の反応を大量に学習させます。その結果、人間と同じ反応が出来るようになります。その教師データが取れないものについては学習できません。つまり、人間では実験できないことは、教師データが取れないため、感情の実験を行うAIを作ることは理論的に不可能です。因みに、このAIシステムは、感情や精神といったものを教師データとしただけであって、一般的なディープラーニングのシステムです。 別のアプローチとして、人の感情のシミュレーションを行うという方法があります。この場合は、人の感情そのものを完全に解析出来ていなければシミュレータを作ることが出来ません。昔の人工知能も同じアプローチだったのですが、人間の思考や感情のメカニズムが解っていないため完成していません。但し、このアプローチで完成したAIでは、実験する前から結果がわかっていると思います。何をしたらどう反応するかが分かった上で作られたものですからね。

  • hiodraiu
  • ベストアンサー率15% (451/2846)
回答No.3

No.1です 補足コメント読みました。 最初の質問との関連が全く分かりませんでした。 最初の質問では、AIの精神の話だと理解し、それに対して、精神構造が解明された前提の話を回答で書きました。 補足コメントは精神の話ではなく人権の話になってます。これはどういう意図でしょうか。 取り敢えず、全然別の話題としてAIと人権についてです。 ディスカバリーの話って最近のものでしょうか。実はかなり以前に、AIの人権については議論されています。人間並みか、それ以上の知能を持ったAIにも人権を与えるべきかって話ですが、結論はNOでした。 成人したチンパンジーは3才児並みの知能だそうです。3歳児は人権があります。知能の高さで人権を与えるならチンパンジーにも人権を与えるってことになります。また、同じ論理で、脳の障害などで知能の低い人は人権は剥奪されることにもなります。これは流石に倫理的に受け入れがたい話ですよね。

noname#229260
質問者

お礼

枕を変える(質問を変える)方がいいかもしれませんが。 世間のニーズとしては、完璧な存在としてのAIの方、人間的な反応を忠実に再現するAIの方が方向性としては分離していくかもしれません。 ドイツの収容所の記録を「現代では得られない貴重な記録」と表現した精神科医のことを聞いてぞっとしましたが。 人間を模したAIに対して、どの程度の体験で発狂するのかという「実験」も可能にはなるでしょう。

noname#229260
質問者

補足

すいません飛躍してしまって。 AIの精神が病気になるような可能性があるとしたら。 使用している人が加害者でしょうが、病気の原因を作った人は犯罪者なのか? AIなので人権がないからOKなのかといった転がり方をしています。 ゲームのMOBに搭載されるAIもどんどん進化するとなれば。 より人間的な苦しみを表現して死んでもらうほうが受けがいいかもしれません。 そんな方向性が認められるんでしょうか?

回答No.2

AIは、 経験の中から法則”らしきもの”を得て、有効であれば採用する。 昔のエキスパートシステムの拡張です。 ニュートンやアインシュタインの様な完全な法則、ではないので それから得た回答は、 変化する地球に生存する人類の将来を導くもの、とはなり得ません。 期待しすぎです。 さて、 AI=思考 、と誤解してしまうと、 思考回路の不具合→精神病 、と心配になりますが、 単に経験の集大成なので、病気にはなりません。 人は、コンピュータに人と同じ機能を期待していません。 それが証拠に、データを忘れる事を絶対に許しません。  IBMは、まれな原子崩壊でビットが変化する事を嫌って   安価なDRAMを採用しなかったほどです。 また、 人を真似たアンドロイドで、奇を衒い研究費を得る者が居ますが、  アシモや蛇型ロボットの方が役に立っています。 コンピュータは、忠実な計算機であって、人まね脳ではないのです。

  • hiodraiu
  • ベストアンサー率15% (451/2846)
回答No.1

AIが人の精神までも模倣するってことは、精神の構造が解明されたってことに成ると思います。その時点で、精神の弱点は克服したものになるかもしれないですね。ただ、弱点を克服することの副作用で、人の精神とはかけ離れた精神になり、人とは交流できない存在になるかもしれないですね。 個人的には、AIに精神と言った危険な物は載せいないのが良いと思ってます。単純なパターン認識で、擬似的に精神をエミュレートするぐらいが丁度良いと思います。

noname#229260
質問者

補足

ディスカバリーチャンネルでも、AIが完成度が高まったとして、それを搭載したロボットに人権を与えるかというテーマを出しています。 例えば、スマホの画面にバルーンが浮かんで、操作で針で刺すと破裂するようにして、バルーンが無限に生み出されるゲームがあるとします。 このままではつまらないということで、針を刺されるのが人間、破裂音が悲鳴になるとします。 こうなるとやり過ぎで特定の嗜好をもった人しかやらないでしょうが。 その微妙なラインをつかめば、はやるかもしれません。 ようするに、虐待する対象をAIでより人間らしくすれば、嗜好性が高まるかもしれません。 そして、殺すほどのことをしても犯罪にならないし。 まっさらのAIを入れ直せば、また初めから虐待することができます。 お金を払ってもらえるとなれば企業はAIをより人間らしくするでしょうが。 そんな風に開発されたAIに人権があるとしたら大問題になります。

関連するQ&A

専門家に質問してみよう