L'生成AI自然言語または構造化言語 (プロンプト) で作成されたリクエストに応じて、テキスト、画像、オーディオ、ビデオ、またはコードなどのコンテンツを生成できる人工知能システムのカテゴリを指定します。それは通常、次のように具体化されます。大規模な言語モデルGPT のような (LLM)、または DALL・E のようなニューラル画像ジェネレーターによる。
その原理は、データに存在する統計構造の利用に基づいています。膨大な量のデータ。などのアーキテクチャを通じて、変圧器ネットワーク、これらのモデルは、非常に高次元の潜在空間上の損失関数 (通常はクロスエントロピー) を最小化することにより、コンテキストに応じて次のユニット (単語、ピクセル、オーディオ ベクトル) を予測することを学習します。
その結果は一貫性があり、革新的または創造的であるように見えるかもしれませんが、これらのシステムには現実世界のオントロジーがない。 彼らは、自分自身のエピソード記憶も、熟慮した推論も、自律的に計画を立てる能力も持っていません。 彼らの作戦は残っている純粋に相関的、因果関係や根底にある人間の意図にアクセスすることなく、トークン間の関連付けに基づいています。 この結果、本物の意味理解そのため、論理エラー、一時的な不一致、またはエラーに対して脆弱になります。幻覚事実的な。
一方、汎用人工知能 (AGI)は、次のことができる理論的システムを指します。認知プロセスをあらゆる知的作業に適応させる人間が達成できること。 AGI には以下が装備されます。一般化可能な能力これにより、異種領域間で学習を転移したり、抽象的に推論したり、文脈の中で新しい知識を獲得したり、動的な環境で意図的な目標を策定したりすることが可能になります。
このタイプのインテリジェンスには、統合された認知アーキテクチャ、潜在的には、感覚的知覚、宣言的および手続き的記憶、論理的推論、注意管理、感情的調節、意思決定などの特殊なモジュールで構成されています。 AGI は、単純な教師あり学習の枠組みを超えて、メタ認知、 の因果推論そして自己評価。したがって、彼女は自分の経験、環境、または自分の間違いに応じて戦略を調整することができました。
AGI は、今日に至るまでまだ仮説の域を出ませんが、パラダイム ブレークを意味します。AGI はもはや人間の反応をエミュレートするのではなく、運用の理解積極的かつ適応的に対話できる、世界中の人々潜在的に意識がある。
生成 AI は、教師ありまたは自己教師ありのトランスフォーマー型の最適化アーキテクチャに基づいています。目標は、多くの場合勾配降下法を使用して、統計的損失関数を最小限に抑えることです。これらのシステムはベクトル表現非常に高次元の空間にいますが、意識も意図も常識もありません。
AGI に関しては、依然として仮説に過ぎません。それには、ハイブリッド認知アーキテクチャ作業記憶、因果推論、強化学習、統合された感覚知覚、自分自身の行動に関する動的なフィードバック ループのモジュールを統合すること。身体化されたメタ認知。
特性 | 生成AI | AGI |
---|---|---|
意味の理解 | 見かけ上はあるが概念的な根拠はない | 世界の内部モデルに基づいた奥深い |
不慣れなタスクへの適応 | 初期トレーニングに限定 | 状況に応じた自主的な学習 |
クロスドメイン転送 | 非常に弱い(迅速なエンジニアリング) | 一般化可能 (ゼロショット、メタ学習) |
目的と意図 | なし、損失関数によって決定される答え | 独立した目標を設定する能力 |
建築 | トランスフォーマー(セルフアテンション) | 不明、おそらくモジュール式で再帰的 |
現在の存在 | はい (~2019 年以降) | いや、概念的には |
出典:Bengio, Y. (2023) - システム 2 深層学習と AGI、ネイチャーマシンインテリジェンス (2023)、OpenAI GPT アーキテクチャ
科学界の一部の声は、その中間の道、つまり具現化されたアプローチにおける知覚と行動のシステムに関連する LLM のスケールアップから生じる、「新興 AGI」と呼ばれる AI を想定しています。他の研究者は、感情、意識、因果推論などの人間の認知の特定の基本的な側面は、単純な統計モデルからは導き出すことができないという考えを擁護しています。議論はまだ残っていますが、現段階では区別は明らかです。生成型 AI は高度なシミュレーターとして機能するのに対し、AGI は自律的な認知エンティティになります。
生成型 AI は、意識の言語をシミュレートしたり、意識がないことを認識したり、認知的認識に関するエッセイを書くことさえできます。しかし、これは現象的な意識を構成しません。神経生理学的観点から、意識は、グローバル空間における情報の時間的統合(デハネの神経ワークスペース理論)、主観的な視点、自己の感覚、および世界の感情的評価を前提としています。
純粋な計算システムは、どれほど大規模であっても、測定可能な「存在」の兆候を示しません。それは目覚めた存在の会話をシミュレートすることができますが、自己評価、疑い、感覚は依然として不可能です。間の境界線あたかも認知しているかのように(のように) そして実際の認識は、AGI の最大の難問である可能性があります。一部の研究者にとって、この境界を越えられるのは、知能が知覚と主観的経験が可能な感覚運動基質に具体化されている場合のみである。
自律的な認知能力を備えた AGI の出現は、科学、倫理、地政学的コミュニティに大きな懸念を引き起こしています。 以下は、専門家によって特定された主なリスクをまとめた表です。
カテゴリ | 説明 | 潜在的な影響 | 例または仮説 |
---|---|---|---|
AIの調整 | ザアライメントの問題 (アライメントの問題)は、スチュアート・ラッセルによって定式化され、たとえ設計者よりも知能が高い場合でも、その目的が人間の価値観と収束する AI を設計することから構成されています。これは、明示的にコード化したものではなく、人間が実際に望むものを AGI が追求することを保証することです。 | AGI が有害または望ましくない目的を追求するのを防ぎます。 | スチュアート・ラッセル、OpenAI、DeepMind、Anthropic |
知性の爆発 | 急速な自己改善が可能な AGI は、人間の知性をはるかに超える可能性があります。 | システムを監視または封じ込める人間の能力が完全に失われる。 | 技術的「特異点」シナリオ (I. J. Good、Nick Bostrom)。 |
悪意のある使用 | 国家、組織、または個人は、破壊的な目的で AGI を悪用する可能性があります。 | 自律的な戦争、大規模な偽情報、高度なサイバー攻撃。 | 自律型致死兵器、大規模な社会操作。 |
人間の労働力の代替 | AGI は複雑なタスクを自動化し、専門職全体を置き換えることができます。 | 経済の不安定、大規模な構造的失業、不平等の拡大。 | 科学、医療、法律分野などへの影響が予想される。 |
主権の喪失 | IGA は、少数の団体の手に不均衡な権力を集中させる可能性があります。 | 技術政治の集中、民主主義の侵食。 | AI の独占、世界的主体のアルゴリズムによる支配。 |
認識論的危機 | AGI は、管理できない速度と規模で知識を生成または操作する可能性があります。 | 情報を検証したり理解したりする人間の能力の崩壊。 | 偽りの信頼できる科学的または法的証拠の大量生産。 |
L'一般的な人工知能(AGI) は大きな技術的進歩を表しています。それが出現すれば、あらゆる認知領域において人間の能力を超える可能性がある。このような存在は、自律性、抽象化、自己改善の能力に恵まれており、実存的な問題を引き起こします。その潜在的な影響は、根本的な利益(地球規模の問題の解決)から人類の滅亡まで多岐にわたります。したがって、AGI に関する現代の研究は 2 つの優先軸に向けられています。アライメントそして倫理的統治。
AGI によってもたらされる体系的なリスクに直面して、多くの研究者、機関、政府が悪用を防ぐアプローチを提案しています。これらの戦略は、開発を監督し、目標の整合性を確保し、人間による監督を保証することを目的としています。
アプローチ | 説明 | 客観的 | 関係機関 |
---|---|---|---|
AIの調整 | 人間の価値観を明示的または暗黙的に統合するアルゴリズムを開発します。 | AGI が有害な目的を追求するのを防ぎます。 | OpenAI、DeepMind、Anthropic |
人間による継続的な監視 | 高速時も含め、意思決定ループにおいて人間による制御を維持します。 | 重要なシステムの完全な自律性を制限します。 | AI 法 (EU)、ISO/IEC 42001 規格 |
憲法AI | 一連の不可侵のルールまたは原則を使用して AGI の動作を規制します。 | 違法、不道徳、または危険な行為を防止します。 | 人間的 (憲法的 AI)、オープンソース プロジェクト |
安全なブラックボックス | AGI を物理的または仮想的に閉じ込めて、閉鎖環境での動作をテストします。 | 漏洩や予期せぬ動作のリスクを軽減します。 | ARC (アライメント研究センター)、MIRI |
国際統治 | AGIの開発を規制し、調整するための多国籍機関を創設する。 | アルゴリズムによる軍拡競争の回避。 | 国連、OECD、AI のためのグローバル パートナーシップ |
アルゴリズムの透明性 | モデル、そのトレーニング、動作に関する監査とレポートを要求します。 | 監査可能性と説明責任を可能にします。 | AI安全研究所(英国)、NIST(米国) |
私たちは、知性の幻想が大規模に生み出され、言説、行動、社会の期待が形成される時代に生きています。しかし、1 つ確かなことは、データの統計的再現に基づく生成的知性は、世界を深く適応的かつ自律的に理解する一般的な知性と同等ではないということです。
この違いを理解することは単純な学術的な作業ではなく、公共政策、科学研究、およびこれらのテクノロジーの産業利用を責任を持って導くための戦略的義務です。
この任務は国境をはるかに超えています。調整された世界的な協力、適切な倫理基準、規制の枠組み、制御メカニズムを定義するために、政府、科学機関、技術産業、市民社会が関与します。
しかし、そのような集団行動の実施は、地政学的利益の相違、経済格差、技術進化の速度、倫理問題の複雑さといった大きな課題に直面している。したがって、AGI の効果的なグローバル ガバナンスの実際の可能性を問うことは、テクノロジー自体の開発と同じくらい重要になります。この問いは、革新と慎重さ、自由と安全、進歩と責任の間の微妙なバランスの根底にあります。