画像の説明: 生成 AI (GPT-3、Copilot、Gemini、Gopher、Chinchilla、PaLM、Human など) は、人間が生成した大規模なデータ セット (テキスト、画像、オーディオ、またはビデオ) をトレーニングします。 ただし、これらの AI は、独自のトレーニング データを自分で生成すると「おかしく」なります。 画像ソースastronoo.com
「Self-Consuming Generative Models Go Mad」という概念は、人工知能の分野において、AI 自体による学習データの生成を指します。
生成モデルは、人間が作成した一連のトレーニング データを「模倣」することによって、新しいデータを生成する方法を学習するアルゴリズムです。 トレーニング データの作成には費用と時間がかかります。 AI が正しく使用できるように、データを収集、クリーニング、注釈付け、フォーマットする必要があります。
科学者は、新しいモデルをより迅速にトレーニングするために、生成モデル自体によって生成された合成データを使用したいという誘惑に抵抗できませんでした。
中心となるアイデアは、独自のトレーニング データを生成できる生成モデルを作成することです。 その後、このプロセスが繰り返され、モデルが改良され、ますます複雑で多数の新しいデータを生成できるようになります。
想像されるメリットは数多くあります。 まず第一に、モデルは初期トレーニング データの量によって制限されません。 したがって、彼は未知の領域を探索し、偶然に新しい概念を発見することができます。 さらに、モデルは、独自の自己教師あり学習のおかげで、それ自体を改良し、反復的にパフォーマンスを向上させることができます。 たとえば、このモデルは新薬の候補となる新しい分子構造を生成する可能性があります。
ただし、このアプローチには大きな課題があります。
自己消費型生成モデルの発狂は、生成 AI モデルが他の生成 AI モデルによって生成された合成データでトレーニングされ、それによってオートファジー (自己消費型) ループが作成されるときに発生する現象です。 AIが生成したコンテンツをAIが学習しようとすると、AIはおかしくなってしまいます。
このよく理解されていないプロセスが繰り返されることで、トレーニング データが混沌としたオートファジー ループが形成されます。 さらに、利用可能なデータが不足しているため、合成データを使用して実際のデータを増強または置き換えることが誘惑されます。 言い換えれば、オートファジー ループが生成されるたびにモデルに十分な新しい実際のデータがなければ、将来の生成モデルは失敗する運命にあります。
このオートファジーのプロセスにより、生成されるコンテンツの品質が徐々に低下し、多様性が薄れていきます。 これはプロセスの縮退によって特徴付けられ、モデルはますます一貫性のない冗長な出力を生成し始めます。
モデルが十分な種類の例にさらされていない場合、意味のあるパターンを学習することが難しく、反復的な生成に頼ってしまいます。
同様に、モデルが自身の出力の最適化のみに集中するように奨励されると、モデルは現実から逸脱し、ますます異常な出力を生成する可能性があります。
最後に、モデルはその応答をトレーニング データに合わせて調整しすぎる傾向があります (過剰適合)。 彼は取るに足らない詳細を記憶し始め、新しい例に一般化する能力を失います。 さらに、それ自体の偏見や欠点を際限なく再生産することができます。
理論的なシナリオによっては、生成モデルが「狂った」状態になったり、予期せぬ形で機能不全に陥ったりする可能性があり、自己破壊的な可能性があります。 たとえば、生成モデルは「新規性」を好む可能性があり、この絶え間ない探求により、モデルはますます未知の領域を探索するよう推進される可能性があります。
規制が存在しないことにより、モデルは暴走にさらされ、その内容はますます過激で攻撃的、不安や衝撃を与え、受け入れがたいものと戯れる可能性があります。 モデルによって生成された結果を理解または解釈できなくなる可能性があります。
この推測的な概念は、自律型または不十分に制御された人工知能モデルの使用に関連する潜在的な懸念を浮き彫りにします。 これは SF のアイデアのように思えるかもしれませんが、AI コミュニティでは、これらのテクノロジを責任を持って設計および規制する方法についての重要な考え方です。
要約すると、AI モデルが独自のデータでトレーニングすると、現実世界とその価値観からますます孤立し、狂ってしまいます。