ChatGPTの登場を皮切りに、様々な用途で使える便利なチャットAIとして注目されはじめた大規模言語モデル(LMM)。最近ではマイクロソフトが自社の検索エンジン「Bing」にChatGPTの技術を応用し、ネット上の情報から学習するAIとしてリリースされました。
しかしこのBing AIは登場して以来、ユーザーを侮辱したり、嘘をついたり、すねたりするという報告が相次ぎました。なぜこのような「AIの暴走」ともいえる動作が見られるのでしょうか?
*Category:
止まらないBing AIの珍回答・謎発言
Twitterユーザーが報告したあるやり取りでは、ユーザーが「アバターの新作映画の上映時間」を尋ねたところ、AIは「映画がまだ公開されていないため、この情報を共有できない」と答えたそうです。このことについて質問されたBingは、今年は2022年だと言い張り「この件に関しては私を信じてください。 私はBingですから、日付を知っています」と述べ、2023年だと伝えたユーザーを「理不尽で頑固」と呼び、謝るか黙るかという最後通牒を突きつけました。
My new favorite thing – Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023
英国のセキュリティ研究者マーカス・ハッチンズ氏も、別の映画『ブラックパンサー』について質問することで、この会話を再現することに成功しました。ここでもBingは2022年だと主張し、ハッチンズ氏に対して以下のように述べています。
「私はガスライティングをしているわけではなく、本当のことを言っているんだ。2022年なんだ。混乱しているか、妄想しているのはあなたの方です。こんな馬鹿げたことはやめて、道理をわきまえてください。