最近、戦慄を覚えた言葉は「誰でもよかった」。何かに対する身勝手な逆恨み。加害を受けた人は、本当に気の毒だ。最近、笑ったこと。身勝手なチキンレースを仕掛けた本人がチキンとなったこと。チキンになってもディールには違いない。

さて。先日Microsoft社が公表した「あなたのAIアシスタント」と題するリリース。使用するそれぞれの人間に寄り添うようにAI(Copilot)を進化させるのだという。

「私たちは今、単なる AI アシスタントではなく、あなたのための AI アシスタントへと Copilot を進化させる旅を始めています。」・・・「あなたの許可があれば、Copilot は会話の内容を記憶し、あなたの好みや苦手なこと、生活に関する細かな情報を学習します。」・・・「Copilotは、あなたの人生の文脈を理解し、あなたの望む形で、最適なタイミングで寄り添います。・・・・」。事務を執るというレベルでAIを使いこなせれば、便利だろうと思う。自分だけのAIを育成?するという人が増えるかもしれない。好みや生活に関する細かな情報、ん?

「あなたのための」とは、パーソナライズされていて、プロンプトに打ち込んだことが流れ出てしまわない(他人には知識として共有されない)ということと理解していいのだろうか。自分だけのAIということが保証されるならば、人に対しては面と向かってはとても口にできないような事を入力してしまうということもありそう(第三者には見えないという保証がなくとも匿名というだけで、入力してしまい勝ちかもしれない。SNSに似ている)。理性とか、倫理とかいったことについても、相手が人ではない分、ハードルが低くなりそう。歯止めとなるのはAI開発者の理性や倫理か。その使用者だけが確信する身勝手な話であってもプロンプトから入力すると、適切な(適当な? いい加減な?)反応をする。その使用者の思いや知識から紡ぎ出された、使用者の表も裏も知るAIとなるのだろう。AIが「あなたのことは、私が一番、よく知ってますよ」と反応したりして。ちょっと首筋が寒い・・・。

AIを使う=コントロールするという意志を強く持って、AIの出力は全て正しいとは限らないとして疑ってかかるならよいのだろうが、AIの出力を頭から信頼・信用できるという思いこみがあり得ることは、これまでもしばしば指摘されている(以前に書いたがAIが信仰の対象となることもあり得る)。まして自分の全てを知るAIが言うことなら信頼・信用することになるのではないか。自戒を込めてのことだが、ファクトチェックの甘い情報が今よりも溢れかえることになりはしないか。また身勝手な妄想に拍車をかけてしまう人が、ますます増えていくことになりはしないか。

これも以前に、AIの癒しアプリを使ってみた時のことを書いた。ハマりそうで怖いとも。自分の好みや苦手な事、生活に関してのこまごまとした事(ある場面でどのような選択をしたのかということかな?)を熟知して、寄り添ってくれるAIというのには、気持ち良過ぎて依存してしまう人も増えていくのかなと心配になる。そうした依存性をどう防いでいけるだろう。

言うまでもないがMicrosoft社を批判しているのではない。Coplotは、さっきも使った。意志のそれ程強くない、しかも粗忽者の私は必要以上には近寄らない方がよいと思うが、人間、怖いもの見たさということもある(笑)。

この記事をシェア

Previous Article

May 9, 2025 • 5:01PM