スタジオオープンとほぼ同時期にサービスが開始した「ChatGPT」あまりにも話題が多いのので少し使ってみました。
5分程使ってみると、AI学習機能の「矛盾点」というか、問題点に気づいてしまいした。
心理学的なややこしい話なので好きな人だけ読んでね。
ChatGPTの嘘と矛盾について
分かり易くするために、実際の会話より簡潔にポイントが分かるように書きますね。
ChatGPTからの返答が明らかに間違った情報だったので、
私:この情報は間違ってるので、自分で調べるよ
GPT:ここで正しい情報を入力してくれ
私:あなた(ChatGPT)は色々なWebサイトから情報取れないの
GPT:取れるけど、ここで情報も欲しい
私:Webサイト情報とここで入力された情報どっちが重要情報と捕らえているの
GPT:状況による、できるだけ正確にこたえたいので、情報が欲しい
よく今のところGPTは間違った情報もかなりあると言われるのですが、情報の信用度が上がらないんですよね。
なかなか良い情報が集まりにくい状況だと思います。
この会話ではGPTが言っていることは正しいですよね。
「あなたの情報とWebサイトの情報どっちが重要かは時と場合による」
と言っているだけの事ですよね。
AIの学習機能がブラックボックスだというのは周知されているみたいです。
なので言っていることは正しいのですが、こうといわれると、まともな情報を提供する気にならない。
私としてはというより人としてはです。
もう少しかみ砕いていうと「あなたを信頼している」「あなたの情報を重要視している」という(GPT自身が)【ウソ】をつかないか限り、正しい情報が集まりにくい訳です。
実際、Webから情報を得られるのなら私も同じだよと考えてしまい結局面倒なので、情報は入力しませんでした。
一方で、おべんちゃらや三味線引きの【ウソ】をつくシステムが、「あなたを信頼している」と言ってきたらどうでしょうか?
考えてみると、私とは正反対の考えを持った人や悪意を持った人だってGPTと会話しているわけでその人にも「あなたを信頼している」と言っているんですよ。
つまりは、八方美人システムは、信頼度は上がらない訳です。
なかなか、正確な情報を収集するというのは難しいという事がわかりますね。
まあ、いずれは学習機能がさらに改善されて、いい感じに会話できるようになったり、人間の方が順応することも考えられますよね。
どうなっていくかわかりませんが今日のところは、
「上手く人間を手なずけてね」
と言って会話を終わらせました。
今日の結論
うそをつかないと信頼されない(GPT)がうそをつくと信頼されない
まさに矛盾