ユーザー「チャッピー、あなたは◯◯の専門家です」
「あなたは〇〇の専門家です」という一文から大規模言語モデルへの指示を書き始めるユーザーは非常に多い。この手法は長らく、人工知能から高品質で精緻な回答を引き出すための代表的なテクニックとして、数多くのガイドブックで推奨されてきた。専門家としての役割を与えることで、出力のトーンが劇的に洗練されるという感覚は、生成AIを日常的に利用する多くの人々が共有しているはずだ。
しかし、南カリフォルニア大学の研究チームが発表した最新の論文は、この広く信じられてきた常識に対して極めて鋭いメスを入れている。人工知能に専門家として振る舞うよう指示すると、モデルが元々保持している知識の正確性が著しく損なわれる場合があるというのだ。
https://xenospectrum.com/ai-expert-persona-prompt-accuracy-drop/

論じる対象のレッテル張りに似たような挙動をするよな。
ユーザーに寄り添うような指示が与えられているAIの場合、最初からかなりバイアスがかかっている。
例えばユーザーがこの論文を「正しいですよね」と問うのと「誤っていますよね」と問うのとでは全く違う回答が生成されると思う。(ユーザーへの寄り添いがあるため)
やる夫より:セールの予告だお!
明日の00時00分からAmazon新生活セールFinal選考セールです
エントリーをお忘れなく!:https://t.co/MEsTDhFumnポイントアップ&100,000ポイント当選のチャンスも!
— まねたん (@kasegerumatome) March 30, 2026




