ラッセル氏によると、現在の AI システムの根本的な弱点は、出力を生成するために回路を使用していることです。 「私たちは、回路自体がかなり限定された計算形式である回路から高度にインテリジェントな動作を実現しようとしているのです。」回路がいくつかの基本的な概念を正確に表現し理解することができないということは、これらのシステムには多くのトレーニングが必要であることを意味すると彼は主張します。データを使用して、簡単なプログラムで定義できるいくつかの関数を学習します。彼は、人工知能の将来の発展の方向性は、形式知表現に基づくテクノロジーを使用することであると考えています。
Yao Qizhi氏は、薬剤の設計やがん問題の解決にAI手法を使用するなど、人間の幸福に役立つ活動にAIシステムを使用できるようにする「ホワイトリスト」を開発することが将来可能かどうかを尋ねた。
ラッセル氏は、ナノテクノロジーの創始者の一人であるK.エリック・ドレクスラー氏がここ数年AIの安全性に取り組んでおり、包括的なAIサービス(Comprehensive AI services、CAIS)、つまり人工知能システムを提案したと述べました。一般的な目的のために構築されたものではなく、タンパク質のフォールディングや交通予測など、特定の狭い問題を解決するために構築されています。これらのシステムによってもたらされる大規模なリスクは、一般的な人工知能と比較して比較的小さいです。
「AIが核兵器と同じかそれ以上に強力であれば、同様の方法でAIを管理する必要があるかもしれない」とラッセル氏は述べ、「核兵器技術が発明される前には、統治構造が必要だと信じる物理学者もいた」と述べた。 「テクノロジーが兵器の形ではなく、人類の利益のためにのみ使用されるようにすること。残念ながら、物理学界も政府も彼らの意見に耳を傾けていない。」同氏は、AIテクノロジーが核兵器や航空技術と同じくらい強力であることを強調した。そして各国は、この AI 安全協力をできるだけ早く開始するよう努めるべきです。
彼は次のように提案しました。まず、人間が理解できる AI システムを構築します。 「私たちは大規模な言語モデルとその仕組みを理解していません。安全性を確信するには、この理解が必要です。人間が AI システムを構築するために使用する手法は、トレーニングやブラック ボックスに大量のデータに依存すべきではありません」内部事情は不明。」
さらに、安全でない AI システム、特に悪意のある攻撃者による展開を防ぐには、「コンピューターの動作方法から始めて、デジタル エコシステム全体に変更を加える必要があります。つまり、コンピューターは安全でないと判断したソフトウェアを実行しません。」
スチュアート・ラッセル: 大きなモデルは AGI パズルの孤立したピースにすぎず、まだ見つかっていないパズルが存在します。
出典: ザ・ペーパー
ウー・ティエンイー記者 インターン チェン・シャオルイ
「AIの安全性を理解する唯一の方法は、システムのコピーを何億も現実世界に導入して結果を見ることだとは思いません。」 人間はワクチンではそんなことはしません、「ワクチンをテストする必要がある」何億人もの人々にそれを注入するつもりなので、それを導入する前に。」
「私たちは大規模な言語モデルとそれがどのように機能するかを理解していません。安全性を確信するには、この理解が必要です。人間が AI システムを構築するために使用する手法は、トレーニングやブラック ボックスのための大量のデータに依存すべきではありません。」知られざる内部事情。」
「人工知能は、私たちを前進させる未来からの巨大な磁石のようなものです。人間を超えた知性によって私たちがコントロールされないようにするにはどうすればよいでしょうか?」 6月10日、カリフォルニア大学バークレー校コンピュータサイエンス教授、人間互換人工知能センター(人間互換AIセンター)のスチュアート・ラッセル所長(スチュアート・ラッセル)は、2023年の北京知源会議で講演し、人工知能システムの設計は2つの原則に従わなければならないと述べた。第一に、AI は人類の最善の利益のために行動しなければならないこと、第二に、AI 自体がその利益が何であるかを認識すべきではありません。
対話セッションでは、ラッセル氏と、チューリング賞受賞者で中国科学院院士の姚其之氏が、人工知能の長期的な将来と人間との関係について話し合いました。すべての人の利益が適切に考慮されるべきです。」
ラッセル氏の共著『Artificial Intelligence: A Modern Approach』は、人工知能の分野で最も人気のある教科書として高く評価されており、135 か国の 1,500 以上の大学で採用されています。 2022 年に、人工知能に関する国際合同会議 (IJCAI) は、ラッセル氏に優秀研究賞を授与する予定で、彼は以前に IJCAI コンピュータおよび思想賞を受賞しており、人工知能国際会議で 2 つの主要な IJCAI 賞を受賞できる世界で 2 人目の科学者となりました。同時。
一般的な人工知能の実現はまだ遠い
北京会議で、ラッセル氏は「AI: いくつかの考え?」と題した講演で、タスクにおいて人間の能力を超える人工知能システムを汎用人工知能 (AGI) と定義した。この種の人工知能システムは、人間が処理できないタスクを含め、人間よりも優れた速度であらゆるタスクを学習して実行できます。また、速度、メモリ、通信、帯域幅における機械の大きな利点により、将来的には一般的な人工知能が実現されるでしょう。ほぼすべての分野で使用されると、人間の能力をはるかに超えます。
では、人間は一般的な人工知能からどれくらい離れているのでしょうか?ラッセル氏は、私たちは一般的な人工知能にはまだ程遠いと語った。 「実際のところ、まだ多くの重要な未解決の疑問が残っています。」
ラッセル氏は講演の中で、ChatGPTとGPT-4は世界を理解しておらず、質問に「答えている」わけでもないと指摘し、「一般的な人工知能が完全なパズルだとすれば、大きな言語モデルは1つのピースにすぎないが、私たちは本当に理解しているわけではない」と述べた。それをパズルの他のピースと結び付けて一般的な人工知能を実際に実現する方法を理解することです」と彼は言い、「欠けているパズルのピースでさえ、まだ見つかっていないものがあると信じています。」
ラッセル氏によると、現在の AI システムの根本的な弱点は、出力を生成するために回路を使用していることです。 「私たちは、回路自体がかなり限定された計算形式である回路から高度にインテリジェントな動作を実現しようとしているのです。」回路がいくつかの基本的な概念を正確に表現し理解することができないということは、これらのシステムには多くのトレーニングが必要であることを意味すると彼は主張します。データを使用して、簡単なプログラムで定義できるいくつかの関数を学習します。彼は、人工知能の将来の発展の方向性は、形式知表現に基づくテクノロジーを使用することであると考えています。
「技術的な問題はさておき、一般的な人工知能を作成できたら、次に何が起こるでしょうか?」ラッセル氏は、現代コンピューターサイエンスの創始者であるアラン・チューリングの言葉を引用し、「一度機械的思考法が開始されれば、それほど時間はかからないでしょう」それが私たちの弱い力を追い越すのではないかと恐ろしいようです。」
「私たちが人工知能にコントロールされていないことを永久に保証するにはどうすればよいでしょうか?これが私たちが直面している問題です。この質問に対する答えが見つからない場合は、汎用人工知能の開発を中止する以外に選択肢はないと思います。」ラッセルは言いました。
今年3月、ラッセル氏はテスラのイーロン・マスク最高経営責任者(CEO)や「AIゴッドファーザー」ジェフリー・ヒントン氏ら数千人との公開書簡に署名し、GPT-4より強力なAIシステムの訓練を少なくとも6カ月停止するよう求めた。
ラッセル氏は会議で、問題に対する答えは存在すると強調した。 AI システムの設計は 2 つの原則に従う必要があります。第一に、AI は人類の最善の利益のために行動しなければならないこと、第二に、AI 自体がその利益が何であるかを認識すべきではありません。そのため、彼らは人間の好みや将来について不確実であり、この不確実性が人間にコントロールを与えます。
ラッセル氏は、人々は考え方を変える必要があり、「機械は賢くなければならない」ことを追求するのではなく、機械が人類の基本的利益と一致するように、機械の「有益性」に焦点を当てる必要があると述べた。 「宇宙人は非常に知的ですが、私たちは必ずしも彼らが地球に来てほしいわけではありません。」
AIと孟子の友愛思想
対話セッションでは、ラッセル氏と姚其之氏が深く洞察力に富んだ議論を交わした。
人工知能と人間の関係の長期的な将来について姚其之氏に尋ねられたとき、ラッセル氏は、人間が自らの利益を満たすためにAIを利用し、AIを制御不能にする現象は功利主義から生じていると述べた。これは人類の進歩における重要なステップですが、同時にこれはいくつかの問題を引き起こします。」人々はあまり幸せではない大規模なグループを望んでいますか、それとも非常に幸せな小さなグループを望んでいますか? 「この種の質問に対する良い答えはありませんが、道徳哲学の中核となる質問には答える必要があります。AI システムには大きな力が備わっており、AI システムがその力を正しい方法で使用できるようにする必要があるからです。 」
ラッセル氏は回答の中で古代中国の哲学者孟子の言葉を引用し、「孟子は中国における友愛の概念について話しました。つまり、道徳的な決定を下す際には、全員の利益が考慮されるべきであり、全員の好みは平等に扱われるべきだということです。」と彼は信じています。複雑な形の選好功利主義に基づいたアプローチにより、AI システムが社会に代わって意思決定を行う際にすべての人の利益を合理的に考慮できるようになります。
ラッセル氏は、人間が 1 人で多数の機械が存在する場合、これらの機械が確実に相互に協力して人間を助けるにはどうすればよいかと尋ねました。これは、多くの人が多くの機械を所有している場合の道徳哲学の基本的な問題に触れます。彼は、AI システムはすべての人間に代わって機能するように設計されるべきだと信じています。 「AIシステムを個人の希望に合わせたいのであれば、AIシステムの行動範囲は個人の懸念事項に限定されており、AIシステムの行動範囲を追求することで他の個人に害を及ぼすことはできないことを証明する必要がある」なぜなら、他の個人のことは気にしないからです。ですから、AI システムが人間に代わって動作するのがデフォルトであるべきだと思います。」
さらに、議論の中でラッセル氏は「地位財」という経済用語に言及したが、「地位財」とは人々が物そのものではなく、他者よりも優れているという暗黙の意味を重視するという事実を指す。 「なぜノーベル賞に価値があるのか?それは他の誰もそれを持っておらず、それはあなたが世界中のほとんどすべての人よりも賢いことを証明するからだ」と彼は言った。
「位置財の性質は、ある意味ゼロサムゲームであるということです。簡単に言うと、誰もが上位1パーセントに入れるわけではありません。ですから、個人の価値を得るなら、1パーセントであることの誇りを与えることはできません」誇りと自尊心をすべての人に」とラッセルは語った。
では、AI システムは社会に代わって意思決定を行う際に位置財を考慮すべきでしょうか? 「もし私たちが『すべきではない』と言ったら、それは社会の仕組みに大きな変化をもたらすことになるでしょう。それははるかに難しい問題です。社会の内部摩擦の多くは実際には、単にそうすることのできないこれらの立場上の財によって引き起こされていると思います」全員が達成できるわけではない。」
ソーシャルメディアアルゴリズムのような危険
Yao Qizhi氏は、薬剤の設計やがん問題の解決にAI手法を使用するなど、人間の幸福に役立つ活動にAIシステムを使用できるようにする「ホワイトリスト」を開発することが将来可能かどうかを尋ねた。
ラッセル氏は、ナノテクノロジーの創始者の一人であるK.エリック・ドレクスラー氏がここ数年AIの安全性に取り組んでおり、包括的なAIサービス(Comprehensive AI services、CAIS)、つまり人工知能システムを提案したと述べました。一般的な目的のために構築されたものではなく、タンパク質のフォールディングや交通予測など、特定の狭い問題を解決するために構築されています。これらのシステムによってもたらされる大規模なリスクは、一般的な人工知能と比較して比較的小さいです。
ラッセル氏は、「短期的には、これは合理的なアプローチだ」としながらも、「人工知能の安全性を理解する唯一の方法は、システムのコピーを何億も現実世界に導入し、結果を観察してください」と同氏は述べ、人間はワクチンに対してこのようなことはしない、「何億人もの人に注射することになるので、配備する前にテストする必要がある」と語った。
したがって、現在、これらのシステムを使用する人々の安全を確保するためにさらなる取り組みが必要です。ラッセル氏は、AIシステムは対話を通じて何億人もの人々の見方や感情を変える可能性があると指摘した。 OpenAIなどのテクノロジー企業は、これらのシステムが対話を通じて人間の思考や行動を操作したり影響を与え、核戦争や気候変動などの壊滅的な結果をもたらす可能性があることを告げずに、何億人もの人々に新しいAIシステムをリリースするのをやめるべきである。 「何億人もの人々と話すことができれば、その何億人もの人々に他国に対してあまり友好的ではなくなるように説得することができ、人々に気候変動についてあまり心配しないように説得することができます。」
ラッセル氏は、「この状況はソーシャルメディアのアルゴリズムに似ており、それが公の議論や感情、他人や未来に対する見方を変えていることに私たちも気づいていない。これは非常に危険だ」と述べた。内部オブジェクトを検出し、AI が私たちをこの方向に押し進めることになります。」
では、人工知能技術の安全性と制御性を確保するにはどうすればよいでしょうか?
「AIが核兵器と同じかそれ以上に強力であれば、同様の方法でAIを管理する必要があるかもしれない」とラッセル氏は述べ、「核兵器技術が発明される前には、統治構造が必要だと信じる物理学者もいた」と述べた。 「テクノロジーが兵器の形ではなく、人類の利益のためにのみ使用されるようにすること。残念ながら、物理学界も政府も彼らの意見に耳を傾けていない。」同氏は、AIテクノロジーが核兵器や航空技術と同じくらい強力であることを強調した。そして各国は、この AI 安全協力をできるだけ早く開始するよう努めるべきです。
ラッセル氏は、AI の潜在的な利点を確保するには、規制や厳格なルールと安全基準の確立だけでなく、AI 分野全体の文化的な変化も含めた包括的な変化が必要であると考えています。
彼は次のように提案しました。まず、人間が理解できる AI システムを構築します。 「私たちは大規模な言語モデルとその仕組みを理解していません。安全性を確信するには、この理解が必要です。人間が AI システムを構築するために使用する手法は、トレーニングやブラック ボックスに大量のデータに依存すべきではありません」内部事情は不明。」
さらに、安全でない AI システム、特に悪意のある攻撃者による展開を防ぐには、「コンピューターの動作方法から始めて、デジタル エコシステム全体に変更を加える必要があります。つまり、コンピューターは安全でないと判断したソフトウェアを実行しません。」
議論の最後に、ラッセル氏は、人工知能は科学であるため、使用する前にその内部構造と動作原理を理解する必要があると結論付けました。 「私たちが飛行機を作るのと同じように、物理的な形状やエンジンなどに基づいて飛行機がどのように空中に留まっているのかを知ることができます。」と彼は言いました、「現時点では、特に大規模な言語モデルの分野では、人工知能はまだ達成されていません」 「そのようなレベルです。私たちは、それらがどのようにしてこれらの特性を生成するのか知りません。実際、それらがどのような特性を持っているのかさえ知りません。したがって、これらの現象をその内部の仕組みと結び付けることはできません。」 したがって、人工知能は、探査の科学。