【AI】OpenAI、GPT-4が怠け者になってきたという苦情に「修正を検討中」とポスト
米OpenAIは12月7日(現地時間)、ChatGPTでのGPT-4のパフォーマンスが低下している(lazier)というユーザーからのフィードバックがここ数カ月増えていることを認め、「修正を検討中」だとX(旧Twitter)の公式アカウントにポストした。
「モデルの動作は予測できない場合がある」としている。
特にコード生成での問題が増えており、11月末にはOpenAIでAPIのプロダクトマネジャーを務めるオーウェン・キャンベル-ムーア氏が苦情ポストに対し、「これはバグで、現在修正中です」とリプライしていた。
OpenAIは翌8日、状況を説明するポストを連投した。いわく、「チャットモデルのトレーニングは物理的な製造プロセスとは異なり、同じデータセットを使っても、異なるトレーニングを実行すると、性格や表現方法、拒否行動、評価性能、さらには政治的偏見さえも著しく異なるモデルが生成される可能性がある」。
そのため、新しいモデルをリリースする際には、オフラインの評価指標とオンラインのA/Bテストの両方でテストし、その後実際のユーザーにとってモデルが改善されているかどうかをデータに基づいて決定する。
このプロセスは、「複数の人間による職人技のような作業」だとOpenAIは説明している。
https://www.itmedia.co.jp/news/articles/2312/10/news059.html
> チャットモデルのトレーニングは物理的な製造プロセスとは異なり、同じデータセットを使っても、異なるトレーニングを実行すると、性格や表現方法、拒否行動、評価性能、さらには政治的偏見さえも著しく異なるモデルが生成される可能性がある
前々から言われていたとおり、AIの回答は都度異なってもおかしくない位揺れ動くもの。正しい回答が返ってくる保証はない。正しい回答が必要ない仕事でしかAIは使えないということ。
さっきのは間違いでしたソースありません、って返事が来てビックリしたことあるw
その点ではシンギュラリティが近いのかもしれん
学習の箱と聞かれ方の箱と
紐付けの紐、
とんちんかんな出力したときに何故その答えを出したのか
専門家が経路を分析しないと改善もできない、というもの。
経路は追えないのがAI
生成AIもそうでその場合
経路じゃなくてプロンプトの状況設定
つまり入力の改善
それにはRAGという前段階の仕組みを改善するというやり方もある
か
LLMのファインチューニングしかない
マシンでも楽するほうに行くのか
引用元: https://ift.tt/D1pQjak