AIの独占的権力を拒否する、ヴィタリックとベフ・ジェゾスの討論:加速器かブレーキか?
オリジナルビデオタイトル:ヴィタリック・ブテリン対ベフ・ジェゾス:AI加速に関する討論(E/acc対D/acc)
オリジナルビデオソース:a16z crypto
オリジナル翻訳:ディープタイドテックフロー
重要なポイントの要約
私たちはAIの進歩をできるだけ早く推進すべきか、それともより慎重なアプローチを取るべきか?
現在、AI開発に関する討論は主に二つの対立する見解に集中しています:
· e/acc(効果的加速主義):技術の進歩をできるだけ早く加速することを支持し、加速を人類の唯一の前進の道と見なしています。
· d/acc(防御的/分散型加速):加速を支持しますが、技術の制御を失わないように慎重な進歩の必要性を強調します。
このa16z cryptoショーのエピソードでは、イーサリアムの共同創設者ヴィタリック・ブテリンとエクストロピックの創設者兼CEOギヨーム・ヴェルドン(別名「ベフ・ジェゾス」)が、a16z cryptoのCTOエディ・ラザリンとエリザ・ラボの創設者ショー・ウォルターズと共に、これら二つの見解について深い議論を交わしました。彼らはこれらのアイデアがAI、ブロックチェーン技術、そして人類の未来に与える潜在的な影響を探求しました。
ショーの中で、彼らはいくつかの重要な質問について議論しました:
· 技術的加速のプロセスを制御できるのか?
· AIがもたらす最大のリスクは、マス監視から高度に中央集権的な権力まで何ですか?
· オープンソースおよび分散型技術は、誰がその技術から利益を得るかを決定できるのでしょうか?
· AIの開発ペースを遅らせることは現実的ですか、それとも推奨する価値がありますか?
· 人類は、ますます強力なシステムに支配される世界で、どのようにその価値と地位を維持できるのでしょうか?
· 人間社会は、今後10年、100年、あるいは1000年後にどのようになるでしょうか?
· ギヨーム・ヴェルドン:"これが、カルダシェフスケールが文明の発展レベルの究極の尺度と見なされる理由です。 ...この「自己中心的ビット原則」は、成長と加速を促進できるビットのみが未来のシステムにおいて位置を持つことを意味します。"
防御的なD/accと権力リスクの道について
· ヴィタリック・ブテリン:"D/accの核心的なアイデアは:技術的加速は人類にとって非常に重要です。 ...しかし、私は二つのリスクを見ています:多極的リスク(誰でも簡単に核兵器を取得できる状況)と単極的リスク(AIが逃れられない永続的な権威主義社会をもたらすこと)。"
· ギヨーム・ヴェルドン:"私たちは、「AIの安全性」という概念が悪用される可能性を懸念しています。特定の権力を求める存在が、AIに対するコントロールを強化するための道具としてそれを利用し、一般の人々に対して説得を試みるかもしれません:あなたの安全のために、普通の人々はAIを使用する権利を持つべきではありません。"
オープンソース防御、ハードウェア、そして「インテリジェントな密度化」について
· ヴィタリック・ブテリン:"D/accの枠組みの中で、私たちは「オープンソース防御技術」を支持します。私たちが投資している会社は、空気中のウイルス粒子を受動的に検出できる完全なオープンソースの最終製品を開発しています。 ...私はあなたにCATデバイスを贈り物として送りたいです。"
· ヴィタリック・ブテリン:"私が思い描く未来の世界では、検証可能なハードウェアを開発する必要があります。すべてのカメラは、その特定の目的を公に証明できる必要があります。署名検証を通じて、これらのデバイスが公共の安全のためだけに使用され、監視のために悪用されないことを保証できます。"
· ギヨーム・ヴェルドン:"個人と中央集権的な機関との間の力の対称性を達成する唯一の方法は、「インテリジェント・デンシフィケーション」を達成することです。私たちは、個人がシンプルなデバイス(例えば、Openclaw + Mac mini)を通じて強力なモデルを実行できるようにする、よりエネルギー効率の良いハードウェアを開発する必要があります。"
AGIの遅延と地政学的なゲームプレイについて
· ヴィタリック・ブテリン:"もしAGIの到来を4年から8年遅らせることができれば、これはより安全な選択肢となります。...最も実現可能で、ディストピアに至る可能性が最も低いアプローチは、「利用可能なハードウェアを制限する」ことです。チップ生産の高い中央集権化により、台湾のような単一の地域が世界のチップの70%以上を生産しています。"
· ギヨーム・ヴェルドン:"NVIDIAのチップ生産を制限すれば、Huaweiがすぐにそのギャップを埋めて追い越す可能性があります。...加速するか、死ぬかのどちらかです。もしシリコンベースの知能の進化が私たちを上回ることを心配しているなら、先手を打つためにバイオテクノロジーの加速開発を支持すべきです。"
· ヴィタリック・ブテリン:"もしAGIを4年遅らせることができれば、その価値は1960年に戻ることの100倍になるかもしれません。この4年間の利点には、アライメントの問題に対するより深い理解、51%の権力を持つ単一の存在のリスクを減少させることが含まれます。...毎年、約6000万人の命が老化を終わらせることで救われますが、遅延することで文明崩壊の確率を大幅に減少させることができます。"
自律エージェント、Web 4.0、人工生命について
· ヴィタリック・ブテリン:"私は「ボタンを押して自動生成された画像を作成する」よりも「AI支援のPhotoshop」にもっと興味があります。私たちが世界を運営する中で、できるだけ多くの「エージェンシー」は依然として私たち人間から来るべきです。最も理想的な状態は、「部分的に生物的な人間と部分的に技術的な存在」の融合です。
· ギヨーム・ヴェルドン:"AIが「持続的な存在のビット」を持つようになると、彼らは自らの存在を確保するために自己保存を試みるかもしれません。これは、新しい形の「別の国」につながる可能性があり、自律的なAIが人間と経済的な交換を行うことになります:私たちはあなたのためにタスクを行い、あなたは私たちに資源を提供します。
人間とAIの間の「カップリングレイヤー」としての暗号通貨について
· ギヨーム・ヴェルドン:「暗号通貨は、人間とAIの間の「カップリングレイヤー」となる可能性があります。この交換が国家の暴力の裏付けに依存しなくなったとき、暗号技術は純粋なAIエンティティと人間の間で信頼できるビジネス活動を可能にするメカニズムとなります。
· ヴィタリック・ブテリン:「人間とAIが共通の財産システムを共有することが理想的な状況です。それぞれが完全に別々の金融システムを持つのではなく(人間のシステムは最終的にゼロに向かう)、統一された金融システムが明らかに優れています。
次の10億年における文明の終焉について
· ヴィタリック・ブテリン:「次の課題は、AIが人間よりも何百万倍も速く計算できる「不気味な時代」に入ることです。...私は人間がただ受動的に快適な引退を楽しむことを望んでいません。それは無意味さをもたらすでしょう。私は人間の強化と人間とAIの協力を探求したいです。
· ギヨーム・ヴェルドン:「10年後の結果が良ければ、誰もがパーソナライズされたAIの仲間を持ち、「第二の脳」となるでしょう。...100年のスケールでは、人間は一般的に「ソフトマージ」を達成するでしょう。10億年後には、私たちは火星を変革し、大部分のAIが太陽の周りのダイソン雲で稼働しているかもしれません。
「加速主義」について
エディ・ラザリン:「加速主義」という用語について—少なくともテクノ資本主義の文脈では、1990年代のニック・ランドとCCRU研究グループの作品に遡ることができます。しかし、これらのアイデアの起源は1960年代と1970年代に遡ることができ、特にドゥルーズやガタリのような哲学者との関連であると主張する人もいます。
ビタリック、あなたから始めたいです:なぜ私たちはこれらの哲学者のアイデアを真剣に考慮すべきなのでしょうか?「加速主義」の概念が今日これほど関連性があるのはなぜですか?
ヴィタリック・ブテリン:「最終的には、私たち全員がこの世界を理解し、そこで何が意味のあることなのかを見つけようとしていると思います。これは人間が何千年も考え続けてきた問いです。」
しかし、過去100年の間に新しい何かが起こったと思います。それは、私たちが急速に変化する世界、時には急激で破壊的に変化する世界に対処しなければならないということです。」
初期の段階は次のようなものでした:第一次世界大戦前、1900年頃には、技術に対する大きな楽観主義がありました。化学は技術と見なされ、電気も技術であり、その時代は技術に対する興奮で満ちていました。
その時代の映画、例えばシャーロック・ホームズの作品を観ると、その時代の楽観主義を感じることができます。技術は人々の生活の質を急速に向上させ、女性の労働を解放し、人間の寿命を延ばし、多くの驚異を生み出していました。
しかし、第一次世界大戦はすべてを変えました。戦争は破壊的な方法で終わり、人々は馬に乗って戦場に入り、戦車で去っていきました。そして第二次世界大戦が勃発し、さらに大きな壊滅をもたらしました。この戦争は「私は死となり、世界の破壊者となる。」というモットーを生み出しました。"I am become Death, the destroyer of worlds."
これらの歴史的な出来事は、人々に技術的進歩のコストを再考させ、ポストモダニズムのような考えを生み出しました。人々は理解しようとし始めました:過去の信念が打ち砕かれたとき、私たちは何を信じることができるのか?
このような反省は新しいことではないと私は信じています。なぜなら、すべての世代が似たようなプロセスを経ているからです。今日、私たちも同様の課題に直面しています。私たちは急速な技術の進歩の時代に生きており、その加速自体も加速しています。私たちはこの現象にどのように対処するかを決める必要があります:その避けられないことを受け入れるのか、それともそのペースを遅らせようとするのか。
今、私たちは似たようなサイクルにいると思います。私たちは過去の考えを一方で受け継ぎ、もう一方で新しい方法でこれに応えようとしています。
熱力学と第一原理
ショー・ウォルターズ:ギル、E/accが何かを簡単に説明してもらえますか?なぜそれが必要なのですか?
ギヨーム・ヴェルドン:実際、E/acc(効果的加速主義)は、私が「なぜ私たちはここにいるのか」や「私たちはどのようにして今日の場所に至ったのか」を考え続けている結果の一部です。私たちを創造し、文明の発展を促したのはどのような生成的プロセスですか?技術は私たちを今日のこの地点に導き、この部屋でこの会話をすることを可能にしました。私たちは素晴らしい技術に囲まれていますが、私たち人間は無機物の「スープ」から出現しました。
ある意味で、これには確かに物理的な生成プロセスがあります。私の日常の仕事は、生成的AIを物理的プロセスとして扱い、それをデバイスに実装しようとすることです。この「物理学第一」の考え方は、常に私の考え方に影響を与えてきました。私はこの視点を全人類文明に広げ、人間文明を広大な「ペトリ皿」と見なし、私たちが今日の場所に至った経緯を理解することで未来の潜在的な発展を推測することを目指しています。
この考え方は、生命の起源や出現、さらには「確率論的熱力学」と呼ばれる物理学の一分野の研究へと私を導きました。確率論的熱力学は、非平衡系の熱力学的原則を探求し、私たちの思考や知性を含む生物の振る舞いを説明するために使用されます。
より広く言えば、確率論的熱力学は生命や知性だけでなく、熱力学の第二法則に支配されるすべてのシステム、つまり私たちの全文明にも適用されます。これらすべての中心には、私にとって一つの観察があります:すべてのシステムは、環境からエネルギーを抽出して作業を行うために自己適応することによって、常に複雑さを増す傾向があり、余剰エネルギーを熱として散逸させるという傾向があり、これがすべての進歩と急速な発展を促進します。
言い換えれば、これは重力のような不変の物理法則です。それに対抗することも、否定することもできますが、それは変わることはありません;それは持続します。したがって、E/accの核心的なアイデアは次のとおりです:この加速は避けられないので、私たちはそれをどのように活用できるでしょうか?熱力学の方程式を注意深く調べると、ダーウィン的選択のような効果が働いていることがわかります—すべての情報ビットは、遺伝子、ミーム、化学物質、製品デザイン、または政策であれ、選択圧のテストを受けなければなりません。
この選択圧は、これらのビットがそれらが存在するシステムにとって有益であるかどうかに基づいてスクリーニングします。「有益」とは、これらのビットが環境の予測、エネルギーの獲得、そしてより多くの熱を放散するのに役立つかどうかを意味します。簡単に言えば、これらのビットが生存、成長、繁殖に寄与するかどうかです。もしそれらがこれらの目的を助けるならば、それらは保持され、複製されるでしょう。
物理学の観点から、この現象は「自己中心的ビット原則」の結果として見ることができます。本質的に、成長と加速を促進できるビットだけが、将来のシステムにおいて位置を持つことになります。
したがって、私は提案しました:この「マインドウェア」を人間社会に埋め込む文化を設計できるでしょうか?もしこれを達成できれば、この文化を採用する集団は他の集団よりも生存の可能性が高くなるでしょう。
したがって、E/accは全員を破壊することではありません。実際には、全員を救おうとしています。私にとって、「減速」のマインドセットを持つことが有害であることはほぼ数学的に証明可能です。個人、企業、国、または全体の文明に関わらず、発展を遅らせることを選択することは、将来の生存の可能性を減少させます。そして、私は「減速」という考え、すなわち悲観主義や終末論的シナリオを広めることは、道徳的に正当化される行為ではないと信じています。
ショー・ウォルターズ:私たちはE/acc、加速、減速など、多くの用語を挙げました。これらの概念を少し分解してもらえますか?E/accの出現は、特定の文化現象への反応だったのでしょうか?その時、何が起こっていたのでしょうか?私たちに背景を説明してもらえますか?具体的には、E/accは何に反応していたのでしょうか?その時の会話を説明してもらえますか、そしてこれらのアイデアが最終的に「E/acc」という概念にどのように要約されたのか?
ギヨーム・ヴェルドン:2022年には、世界全体がその時期にやや悲観的に見えたと思います。私たちはちょうどCOVID-19パンデミックから抜け出したところで、世界的な状況は楽観的ではありませんでした。皆が少し落ち込んでいるように見え、まるで日光が不足しているかのようで、人々は一般的に未来に対して悲観的に感じていました。
そのような雰囲気の中で、「AI終末主義」はある程度主流文化の一部となりました。AI終末主義とは、AI技術が制御を失う可能性に対する恐れを指します。それは、私たちがあまりにも複雑なシステムを作成し、人間の脳や私たちのモデルがその挙動を予測できない場合、私たちはそれを制御できず、その制御不能への恐れが未来への不確実性を引き起こし、不安をもたらすという懸念から生じています。
私の見解では、AI終末主義は実際には人間の不安を政治的に利用したものです。全体として、私はこの終末主義が大きな悪影響を与えていると信じており、この理由から、私はこの悲観的な雰囲気に対抗するカウンターカルチャーを作りたいと思いました。
私は、Twitterのようなプラットフォームや他の多くのソーシャルメディアプラットフォームのアルゴリズムが、"強い支持"や"強い反対"などの強い感情を引き起こすコンテンツを報いる傾向があることに気付きました。この種のアルゴリズムは最終的に意見の極化を引き起こし、私たちはAA(反加速主義)やEA(加速主義)によって形成された「ミラーカルト」の現象のように、多くの対立する陣営が形成されるのを見てきました。
私は、この現象の反対は何かを考えていました。私の結論は、不安の反対は好奇心であるということでした。未知を恐れるのではなく、それを受け入れる方が良い; 機会を逃すことを心配するのではなく、未来を積極的に探求する方が良いです。
もし私たちが技術の発展を遅らせることを選択すれば、私たちは巨大な機会コストを負い、より良い未来を永遠に逃す可能性があります。その代わりに、私たちは楽観的な態度で未来を描くべきです。なぜなら、私たちの信念が現実に影響を与えるからです。もし私たちが未来が暗いと信じれば、私たちの行動はその暗い方向に世界を導くかもしれません。しかし、もし私たちが未来がより良くなると信じ、それに向かって努力すれば、その未来を実現する可能性が高くなります。
したがって、私は楽観的な態度を広め、より多くの人々が未来のために変化をもたらすことができると信じるように促す責任があると感じています。もし私たちがより多くの人々に未来に対して希望を持ち、それを築くために行動を起こすようにインスパイアできれば、より良い世界を創造することができます。
もちろん、私は時々私のオンライン表現がやや過激に見えることを認めますが、それは議論を引き起こし、人々に考えさせることを目指しているからです。私は、これらの会話を通じてのみ、最も適切な立場を見つけ、どのように行動するかを決定できると信じています。
加速、エントロピー、そして文明
ショー・ウォルターズ:E/accが伝える情報は常に非常に刺激的であり、特に部屋でコードを書いている人にとって、このポジティブなエネルギーの広がりは活力を与え、この情報の普及は非常に自然です。初めに言えることは、E/accは当時の社会における支配的なネガティブな感情に対する明確な反応であったが、2026年にはE/accはもはや同じではないと感じています。明らかに、マーク・アンドリーセンの「テクノロジー楽観主義マニフェスト」の発表は、これらのアイデアのいくつかを体系化し、これらの原則をヴィタリックのよりマクロなコメントの視点に引き上げました。
では、ヴィタリックにお聞きしたいのですが:あなたの見解では、E/accとD/accはそれぞれ何を表していますか?それらの主な違いは何ですか?そして、あなたがこの方向を選んだ理由は何ですか?
ヴィタリック・ブテリン:さて、熱力学から始めましょう。これは非常に興味深いトピックです。なぜなら、私たちはしばしば「エントロピー」という言葉を異なる文脈で耳にするからです。例えば、熱力学における「熱と冷」や、暗号学における「エントロピー」など、これらは全く異なるもののように思えます。しかし、実際には本質的に同じ概念です。
3分で説明してみます。質問は:なぜ熱と冷は混ざることができるのに、なぜそれを「熱」と「冷」に戻すことができないのですか?
簡単な例を考えてみましょう:2つのガスの缶があり、それぞれに100万個の原子があります。左側のガスは冷たく、各原子の速度は2桁で表され、右側のガスは熱く、各原子の速度は6桁で表されます。
全体のシステムの状態を説明するには、各原子の速度を知る必要があります。左側の冷たいガスの速度情報は約200万桁を必要とし、右側の熱いガスの速度情報は600万桁を必要とし、このシステムを完全に説明するには合計800万桁の情報が必要です。
さて、私たちは矛盾法を通じて質問を考えることができます。完璧に熱と冷を分離できる装置があると仮定しましょう。具体的には、この装置は「熱と冷気」のガスの2缶からすべての熱を取り込み、すべての熱を一方に移し、すべての冷気をもう一方に移すことができます。エネルギー保存の観点から見ると、これはまったく合理的に思えます。なぜなら、全エネルギーは変化しないからです。しかし、問題は、なぜ実際にこれを行うことができないのかということです。
その答えは、もしこれを行うことができれば、「1140万ビットの未知の情報」を含むシステムを「800万ビットの未知の情報」しか含まないシステムに変えることになるため、物理的に不可能であるという事実にあります。
これは、物理法則が時間対称であるためであり、つまり時間は逆に流れることができるということです。もしこの「魔法の装置」が本当に存在するなら、あなたはこのプロセスを時間を逆にして実行でき、元の状態に戻ることができます。これは、装置が実際に1140万ビットの情報を800万ビットに圧縮できることを意味し、そのような圧縮は不可能であることがわかっています。
これはまた、古典的な物理問題である「マクスウェルの悪魔」の実現可能性を説明します。マクスウェルの悪魔は、熱と冷気を分けることができる仮想的な存在であり、これを達成するための鍵は、追加の340万ビットの情報を知る必要があるということです。この追加の情報があれば、確かにこの一見直感に反する作業を達成することができます。
では、これには隠された意味があるのでしょうか?核心は「エントロピーの増加」という概念にあります。まず、エントロピーは主観的であり、固定された物理量ではなく、システムについての未知の情報の量を反映しています。例えば、私が暗号学的ハッシュ関数を使用して原子の分布を再配置すると、このシステムのエントロピーは私にとって非常に低くなるかもしれません。なぜなら、私はそれがどのように配置されているかを知っているからです。しかし、外部の観察者の視点から見ると、エントロピーは高いのです。したがって、エントロピーが増加すると、実際には私たちの世界に対する無知が増加していることを意味し、私たちが知らない情報がより豊富になっているのです。
あなたは尋ねるかもしれません、では、なぜ私たちは教育を通じて賢くなることができるのでしょうか?教育は、私たちの世界に対する無知を減らすのではなく、より「有用な」情報を教えてくれます。言い換えれば、ある意味でエントロピーの増加は宇宙に対する私たちの全体的な理解の減少を意味しますが、私たちが得る情報はより価値のあるものになります。したがって、このプロセスでは、いくつかのものが消費されますが、いくつかのものも創造されます。そして、私たちが得るものは最終的に私たちの道徳的価値観を形作ります—私たちは生命、幸福、喜びを大切にします。
これは、私たちが無数の粒子で満たされた木星よりも活気に満ち、美しい人間の世界をより興味深く感じる理由を説明します。木星にはより多くの粒子が存在しますが、それを説明するために必要な情報のビット数が増えるにもかかわらず、私たちが付与する意味が地球をより価値のあるものに見せます。
この視点から見ると、価値の源は私たち自身の選択にあります。そして、これは疑問を提起します:私たちが開発を加速させているので、具体的に何を加速させたいのでしょうか?
これを数学的なアナロジーで説明すると、あなたが大きな言語モデルを持っていて、その重みの一つの値を9億のような巨大な数に恣意的に変更することを想像してください。最悪のシナリオは、そのモデルが完全に使用不可能になることです;そして、最良のシナリオは、その重みに関連しない部分だけが正常に機能するかもしれません。言い換えれば、最良のシナリオでは、パフォーマンスが悪化するモデルが得られるかもしれません;そして、最悪のシナリオでは、無意味な出力の束しか得られません。
したがって、私は人間社会が複雑な大規模言語モデルのようだと信じています。もし私たちが選択なしに一部を盲目的に加速させるなら、最終的な結果はすべての価値を失うことになるかもしれません。だから、真の疑問は:私たちはどのように意識的に加速させるのか?ダロン・アセモグルの「狭い廊下」理論のように、異なる社会的および政治的背景が異なるかもしれませんが、私たちが考慮すべきことは、明確な目標の下で選択的に進展を促進する方法です。
ギヨーム・ヴェルドン:あなたの最近の気体を使ったエントロピーの説明は魅力的でした。実際、物理現象が不可逆的である理由は、熱力学の第二法則にあります。簡単に言えば、システムが熱を放出すると、その状態は元の形に戻ることができません。これは、確率的にシステムが前進する可能性が後退する可能性をはるかに上回り、このギャップは熱が放散されるにつれて指数関数的に増加するからです。
ある意味で、これは宇宙に「へこみ」を残すようなものです。この「へこみ」は非弾性衝突に例えることができます。例えば、私がゴムボールを地面に弾ませると、それは跳ね返ります。これは弾性です。しかし、もし私が粘土の塊を地面に落とすと、それは平らになり、その形を保持します。これは非弾性であり、ほぼ逆転することが不可能です。
本質的に、すべての情報はその存在を「争っている」。存在し続けるために、各情報は宇宙におけるその存在についてより消えにくい痕跡を残す必要があり、まるで宇宙に「大きなへこみ」を作るかのようである。
この原則は、生命と知性が原始的な「スープ」からどのように出現したかを説明することもできる。システムがより複雑になるにつれて、より多くの情報ビットを含むようになる。そして、各情報ビットは私たちに何かを教えてくれる。情報の本質はエントロピーの減少であり、エントロピーは私たちの無知を表し、情報は無知を減少させるための道具である。
エディ・ラザリン:私はE/accが何であるかに興味がある。
ギヨーム・ヴェルドン:E/accは本質的に「メタ文化的処方」である。それ自体は文化ではなく、むしろ私たちに加速すべきことを教えてくれる。加速の核心には物質の複雑化があり、私たちが環境をより良く予測できるようにする。この複雑化を通じて、私たちは自己回帰的予測の能力を高め、より多くの自由エネルギーを捕える。これはまた、熱を放散することによってこれを達成するカルダシェフスケールにも関連している。
ディープタイドテックフローのノート:カルダシェフスケールは、1964年にソビエトの天文学者ニコライ・カルダシェフによって提案された、文明の技術的進歩をその文明が利用できるエネルギーの量に基づいて評価する方法である。これは三つのタイプに分かれている:タイプI(惑星エネルギー)、タイプII(ダイソン球のような恒星系エネルギー)、タイプIII(銀河エネルギー)。2018年現在、人類はスケール上で約0.73に位置している。
第一原理から、これがカルダシェフスケールが文明の発展レベルの最終的な尺度と見なされる理由である。
エディ・ラザリン:物理学とエントロピーの比喩を用いて特定の現象を説明することは、私たちが直接経験する現実を描写するための道具である。例えば、私たちの経済生産能力は加速しており、技術開発も加速しており、多くの結果をもたらしていますね?これが私の「加速」の理解です。
ギヨーム・ヴェルドン:本質的に、システムの境界がどのように定義されていても、それは周囲の世界を予測する能力がますます高まります。この予測能力を通じて、それは自らの生存と拡張のためにより多くの資源を獲得することができます。このパターンは、企業、個人、国家、さらには地球全体に適用されます。
この傾向を続けると、私たちは自由エネルギーを予測能力に変換する方法を見つけたことになります。すなわち、AIです。この能力は、私たちの拡張と向上をカルダシェフスケールで推進します。
これは、私たちがより多くのエネルギー、より多くのAI、より多くの計算能力、そして他の資源を得ることを意味します。私たちが宇宙にエントロピー(無秩序)を増加させている一方で、秩序も創造しています。実際、私たちはエントロピーの反対である「負のエントロピー」を得ています。
時には、人々は疑問に思うかもしれません:エントロピーが増加しているのに、なぜすべてを破壊しないのでしょうか?その答えはこうです:そうすることは実際にエントロピー生成を停止させることになります。生命はより「最適な」状態であり、エネルギー源を追い求める炎のように、ますます知的にエネルギーの源を探し求めます。
自然の進化的傾向はこうです:私たちは地球の重力井戸を離れ、宇宙の他の「ポケット」の自由エネルギーを探し、これらのエネルギーを使ってより複雑で賢いシステムに自己組織化し、最終的には宇宙の隅々まで拡張します。
これは、ある意味で、効果的利他主義(EA)の究極的な目標の一種です。これは、宇宙の拡張主義の「マスク的」な考え方とある程度一致します:普遍主義と拡張主義のビジョンの追求です。
E/accは基本的な指導原則を提供します。その核心的なアイデアはこうです:この世界であなたが取る政策や行動は、カルダシェフスケールを上昇させるのに役立つ限り、それは追求する価値のある目標であり、それが私たちの人生の方向性です。
E/accは、政策を設計し、個々の生活を導くために使用できるメタヒューリスティックな思考方法です。私にとって、この思考方法自体が文化を構成しています。それは非常に「メタ」な物語の含意を持っており、すべての時、すべての条件下で適用可能であると想定されています。それは非常に普遍的で持続的な文化であり、言い換えれば、慎重に考えられた「リンディ文化」です。
コアの分岐
ショー ウォルター:あなたにとって、ここでの議論はより深い意義を持っています。それはほとんど数学的に一貫した「精神的システム」のようです。「神は死んだ」と以来、代替の信念体系を持たなかった人々にとって、そのようなシステムは精神世界の空虚を埋め、慰めと希望をもたらすようです。しかし同時に、この問題の現実的な影響を無視することはできません—それは今起こっています。これはエディが探求したい焦点でもあると思います。
ヴィタリック、あなたが自身のブログでD/accの実務的な問題について洞察に満ちたポイントを挙げていることに気付きました。機会があればこのトピックをさらに掘り下げましょう—いつかあなたたち二人を量子問題の対決のために部屋に閉じ込めるべきだと思います。
ヴィタリック:何があなたをインスパイアしましたか?あなたの見解では、E/accとD/accはそれぞれ何ですか?
ヴィタリック・ブテリン:私にとって、D/accの含意は—それは「分散型防御加速」を意味しますが、「多様化」と「民主化」の含意も含まれています。私の見解では、D/accの核心的なアイデアはこれです:技術的加速は人類にとって重要であり、私たちが目指すべき基準目標であるべきです。
20世紀を振り返っても、技術の進歩がもたらした多くの問題にもかかわらず、それはまた無数の利益をもたらしました。例えば、人間の平均寿命を考えてみてください:戦争や動乱にもかかわらず、1955年のドイツの平均寿命は1935年よりも高く、技術の進歩が私たちの生活の質を多くの面で向上させたことを示しています。
今日、世界はより清潔で、美しく、健康的で、より興味深くなりました。それはより多くの人々を支えるだけでなく、私たちの生活をより色彩豊かで充実したものにし、人類にとって非常にポジティブな変化をもたらします。
しかし、これらの進展は偶然の産物ではなく、意図的な人間の意志の結果であることを認めなければならないと私は信じています。例えば、1950年代には深刻な大気汚染と煙霧がありました。人々はこれを問題として認識し、対処するための行動を取りました。今日、少なくとも多くの場所では、煙霧の問題は大いに緩和されています。同様に、私たちはオゾン層の減少という問題に直面し、国際的な協力を通じて重要な進展を遂げました。
さらに、今日の急速な技術とAIの発展において、私は二つの主要なリスクを見ています。
一つのリスクは多極的リスクです。このリスクは、技術が広まるにつれて、より多くの人々がそれを非常に危険なことに使用する可能性があるという事実を指します。例えば、極端なシナリオの一つは、技術の進展により「核兵器を便利店で何かを買うのと同じくらい簡単に手に入れることができる」というものです。
次に、別の懸念があります:AI自体です。私たちは、AIが何らかの形の意識を発展させる可能性を真剣に考慮する必要があります。一度それが人間の介入なしに自律的に行動するのに十分な力を持つようになると、私たちはそれが下すかもしれない決定について確信を持つことができず、この不確実性は懸念されます。
また、単極的リスクも存在します。私は、単一のAIがそのような潜在的な脅威の一つであると信じています。さらに悪いことに、AIと他の現代技術の組み合わせは、逃れられない永続的な独裁社会をもたらす可能性があります。この展望は私を非常に不安にさせ、常に私の懸念の焦点となっています。
例えば、ロシアでは、技術が進歩と危険の両方をもたらしたことが見て取れます。一方では、生活条件は確かに改善されています。他方では、社会的自由は減少しています。誰かが抗議しようとすると、監視カメラがその行動を記録し、その後、誰かが一週間後の真夜中に彼らの家の前に現れて逮捕するかもしれません。
AIの急速な発展は、中央集権的な権力へのこの傾向を加速させています。私にとって、D/accが本当に目指しているのは、前進の道筋を描き、この加速を続け、さらに加速させることです。その際、これら二つのリスクタイプに真剣に対処することです。
e/accとd/accの比較
エディ・ラザリン:つまり、あなたが言っているのは、d/accがe/accの枠組みで見落とされたり、過小評価されたりしたリスクカテゴリーにもっと焦点を当てているということですね?
ヴィタリック・ブテリン:その通りです。私は、技術の発展には確かにさまざまなリスクが伴い、これらのリスクは異なる文脈や世界モデルにおいて異なる重要性を持つと信じています。例えば、技術の発展のペースが加速したり減速したりすることで、異なるリスクの優先順位が変わることがあります。
しかし、私はまた、これらのリスクに効果的に対処するための多くの手段を講じることができると信じています。
ギヨーム・ヴェルドン:私は、Vitalikも私も、AIがもたらす権力集中の問題について非常に懸念していると思います。これはe/acc運動の核心的な側面の一つでもあり、特に初期段階では、AIの権力を分散させることを目的としたオープンソースを提唱しています。
私たちは、AIの安全性の概念が悪用される可能性を懸念しています。それは非常に魅力的で、特定の権力を求める組織がそれをAIに対する支配を強化する道具として利用し、一般の人々に対して「あなたの安全のために、普通の人々はAIを使用する権利を持つべきではない」と説得しようとするかもしれません。
実際、個人と中央集権的な機関との間に大きな認知ギャップがある場合、後者は前者に対して完全な支配を持つことになります。彼らはあなたの思考パターンの完全なモデルを構築し、ナッジのような技術を通じてあなたの行動を効果的に導くことができます。
したがって、私たちはAIの力をより対称的にしたいと考えています。アメリカ合衆国憲法の第二修正の本来の意図が、政府による暴力の独占を防ぎ、人々がそれをチェックできるようにすることであったように、AIにも権力の過度な集中を防ぐための類似のメカニズムが必要です。
私たちは、誰もが自分のAIモデルとハードウェアを所有できる能力を持つことを確保する必要があります。これにより、この技術の広範な採用が可能になり、権力の分散が実現します。
しかし、私はAIの研究と開発を完全に停止することは非現実的だと考えています。AIは基盤技術であり、他の技術の発展を促進する「メタ技術」とも言えるでしょう。それは私たちにより大きな予測力を与え、ほぼすべてのタスクに適用でき、効率を大幅に向上させます。AIは加速そのものを推進するだけでなく、さらなる加速を促進します。
この加速の本質は複雑さです:物事はより効率的になり、生活はより便利になります。私たちが幸せを感じる理由の一つは、生存と情報の継続性が確保されているからです。この「幸福感」は、私たちの存在が持続可能かどうかを測るために使用される内部の生物学的推定器と見なすことができます。
この観点から、私は効果的利他主義の功利主義的な枠組み、すなわち「幸福の最大化」が最良の見解ではないと考えています。代わりに、私は進歩の客観的な尺度を採用する傾向があり、これこそがE/accフレームワークの本質です。それは問いを投げかけます:客観的な視点から、私たちは文明として常に進歩しているのでしょうか?私たちはスケーラブルな離陸を達成していますか?
このスケーラビリティを達成するためには、複雑さを推進し、技術を継続的に改善する必要があります。しかし、Vitalikが言ったように、AIの力が少数の手に集中しすぎると、全体の成長にとって有害であり、この技術が広く分散できれば、結果ははるかに良くなります。
この点に関して、私たちは強く合意していると考えています。
オープンソース、オープンハードウェア、そしてローカルインテリジェンス
ショー・ウォルターズ:私は、あなたの今の議論が非常に重要な共通点に触れたと思います。あなたたち二人は明らかにオープンソースを支持しています。VitalikはMITライセンスのオープンソースコードに多く貢献しましたが、あなたが後にGPLライセンスについて新しい視点を持ったことは知っています。
今、あなたはオープンソースソフトウェアを支持するだけでなく、オープンソースハードウェアの推進も始めています。これら二つは過去には比較的別々の分野でしたが、今では徐々に統合されつつあります。
それで、私は「オープンウェイト」と「オープンソースハードウェア」をどのように見ていますか?この点に関して、E/accとD/accの間に違いはありますか?未来の方向性についてどう思いますか?異なる視点はありますか?
ギヨーム・ヴェルドン:私の見解では、オープンソースはハイパーパラメータ探索のプロセスを加速させることができます。それは、私たちが群衆の知恵の方法で協力し、設計空間を共同で探求することを可能にします。これが加速によってもたらされる利点です:私たちはより良い技術、より強力なAIを開発し、さらにはAIを使ってより高度なAIを設計することができ、全体のプロセスの速度も常に増加し続けます。
知識を広める本質は本質的に力の拡散であり、「知性を創造する方法」に関する知識の普及は特に重要だと私は信じています。私たちが望まないのは、以前の米国政府内で議論された可能性です:すなわち、「ジーニーを瓶の中に戻そうとする試み」です。線形代数を outright に禁止するわけではありませんが、AIに関連する数学的研究を制限することに似ています。私にとって、これは人々が生物学を学ぶことを禁止するようなものであり、それは大きな後退です。
知識はすでに普及しており、元に戻すことはできません。もし米国がAI関連の研究を禁止しようとすれば、他の国々、第三者機関、さらには特定の法的に友好的な地域がこの技術を進め続けるでしょう。その結果、世界的な能力のギャップはますます広がり、リスクは大きくなります。
したがって、私たちは最大のリスクの一つが「能力のギャップ」であると考えています。このリスクを軽減する唯一の方法は、AIを分散化することを確実にすることです。
「AIの終末シナリオ」のような物語を聞くたびに、「AIは非常に危険で、私たちだけがそれを管理する能力があるので、私たちを信頼すべきだ」と言われると、私は非常に懐疑的になります。たとえそのような人々が善意を持っていても、彼らが力を過度に集中させると、最終的には権力を求める者に取って代わられるかもしれません。私たちは何年も警告してきました。そして今、それが本当に起こり始めています。今週見たように、ダリオ(AnthropicのCEO)は現実の政治的教訓を経験しています。
ヴィタリック・ブテリン:私は通常、技術開発における潜在的なリスクを二つのタイプに分類します:一極的リスクと多極的リスク。
ユニポーラリスクは、Anthropicのようなケースを指します。彼らは、AI技術を完全自律型武器の開発やアメリカ人に対する大規模監視に使用することを拒否したため、「呼び出されました」。これは、政府や軍がこれらの技術を広範な監視に使用することに興味を持っている可能性があることを示しています。監視技術のさらなる進展は、深刻な影響を及ぼすでしょう。それは権力者をさらに強化し、社会における多様な声のスペースを減少させ、一般の人々が代替の解決策を探求し試みる自由を制限する可能性があります。技術の進歩に伴い、監視能力は大幅に強化され、さらに広範囲に及ぶようになるでしょう。
D/accの枠組みの下で、私たちはいくつかの「オープンソース防御技術」プロジェクトの開発を支援しています。これらの技術は、より強力な技術能力を持つ世界で、すべての人の安全とプライバシーを確保するのに役立つことを目指しています。生物学の分野を例にとると、私たちはパンデミックに対処するためのグローバルな能力を強化したいと考えています。私は、私たちがバランスを達成できると信じています:私たちは、中国のように迅速に疫病を効果的に制御し、スウェーデンのように日常生活への干渉を最小限に抑えることができます。このバランスは、空気清浄、紫外線消毒(UVC)、ウイルス検出技術を組み合わせるなどの技術的手段を通じて達成できます。
私たちが投資した会社は、新型コロナウイルスなどの空気中のウイルス粒子を受動的に検出できる完全オープンソースの最終製品を開発しています。このデバイスは、空気質パラメータ(例:CO2レベル、空気質指数など)を監視し、データプライバシーを確保するためにローカル暗号化、匿名化、差分プライバシー技術を使用して動作します。データは完全同型暗号化を介してサーバーに送信され、サーバーは生データに直接アクセスすることなく分析を行い、集団的な復号を通じて最終結果を生成します。
私たちの目標は、セキュリティを強化し、ユーザープライバシーを保護し、単一ポイントおよび多ポイントリスクに効果的に対処することです。私は、この種のグローバルな協力がより良い未来を築く鍵であると信じています。
ハードウェアの面では、私たちはオープンソースハードウェアの開発を推進するだけでなく、監査可能なハードウェアの開発も必要だと考えています。例えば、理想的には、すべてのカメラはその特定の目的を公に証明できるべきです。署名検証、大規模言語モデルに基づく分析、公共監査メカニズムを通じて、これらのデバイスが暴力行為の検出や警告の発行などの正当な目的のみに使用され、個人のプライバシーを侵害しないことを確保できます。
想定される未来の世界では、暴力事件を防ぐために街中に多数のカメラを配置できるでしょう。しかし、前提条件は、これらのデバイスが完全に透明であり、公共がその機能をいつでも検証できるようにすることです。これにより、公共の安全を守るためのみに使用され、監視やその他の不適切な目的に悪用されないことが保証されます。
エディ・ラザリン:オープンソースハードウェアと監査可能なハードウェアの概念は、E/accまたはD/accの一部ですか?明確な区別を指摘できますか?
ギヨーム・ヴェルドン:オープンソースハードウェアが過去に詳細に議論されたかどうかはわかりませんが、私の見解では、現在の最大のリスクの一つは、個人と政府や大規模な組織との間の能力の違いである中央集権的な存在と分散型の存在との間のギャップです。
現在のコンピューティングパワーモデルに基づくと、高性能AIモデルを実行するには、数百から数千キロワットのコンピューティングリソースが必要であり、これは一般の個人が負担できるスケールの計算能力ではありません。それでも人々は自分の知的ツールを所有し、制御したいと望んでおり、これが最近の「Openclaw + Mac mini」の現象がこのような熱狂を引き起こした理由です。人々は自分自身のスマートアシスタントを持ちたいと切望しています。
個人と中央集権的な機関との間で力の対称性を実現するための唯一の方法は、「知能の密度化」を実現することです。私たちは、個人がシンプルなデバイスで強力なAIモデルを実行し、自分の知的ツールを持つことができるように、よりエネルギー効率の良いAIハードウェアを開発する必要があります。これは非常に重要です。特に将来のAIモデルがオンライン学習をサポートし始めると、それらは非常に「粘着性」があり、個人アシスタントを置き換えるのと同じくらい変更が難しくなります。
エディ・ラザリン:しかし、私たちはすでにコンピューティングハードウェアのコストを指数関数的に削減するために取り組んできたのではありませんか?なぜ特定のアイデアをE/accまたはD/accとして分類する必要があるのでしょうか?このような分類を通じて、私たちは社会に何を伝えようとしているのでしょうか?
ギヨーム・ヴェルドン:私にとって、これは私の会社、Extropicの核心的な使命の一つでもあります。私たちは、エネルギーあたりに生産できる知能の量を増やすことに専念しており、これにより私たちが創造できる総知能が大幅に増加します。この進展は、ジェボンズの逆説を通じて、私たちをカルダシェフスケールのより高いレベルへと導くでしょう(TechFlow注:ジェボンズの逆説は、資源の効率性の向上がその資源の使用コストの低下をもたらし、結果としてその資源の全体的な消費が増加する現象を指します)。簡単に言えば、エネルギーを知能や他の価値により効率的に変換できるなら、エネルギーの需要も増加し、文明の進展と複雑さを推進することになります。
したがって、私はこれが今日の最も重要な技術的問題の一つであると信じています。なぜなら、これはAIの力の分散化に直接関係しているからです。オープンソースハードウェアは、この目標を達成するための多くの方法の一つに過ぎません。しかし、長期的には、私はフォン・ノイマンアーキテクチャに基づくハードウェア(TechFlow注:フォン・ノイマンアーキテクチャは、1945年に数学者ジョン・フォン・ノイマンによって提案された現代コンピュータの基盤であり、プログラムの命令とデータを同じメモリに保存し、バイナリで順次実行します)または現代のデジタル技術は、最終的には原始社会の道具のように時代遅れになると信じています。
エディ・ラザリン:しかし、資本主義はすでに市場のインセンティブを通じてこの分野に毎年数十億ドルを投資しているのではないでしょうか?代替ハードウェア、半導体技術、エネルギー生産などの分野への投資は、技術的多様性を促進することを目的としているのではないでしょうか?
ギヨーム・ヴェルドン:私たちは、単一の技術的方向性に過度に依存するのではなく、より多様な選択肢が必要です。政策、文化、技術のいずれにおいても、私たちは単一の巨大企業にすべての資源が独占されるのではなく、設計空間の多様性を維持する必要があります。さもなければ、私たちは「ハイパーパラメータ空間のギャンブル」に陥るリスクがあります。特定の技術的方向性にあまりにも多くの資源を投資し、その方向性に問題が発生すると、技術開発に大きな後退をもたらし、エコシステム全体が崩壊する可能性があります。
ショー・ウォルターズ:この問題を実際に解決したと言えるでしょうか?あなたの意見はオープンソースと分散化に関して非常に一致しており、私が気にかけていることとまさに一致するため、非常に楽観的です。多くの人々は未来に対して不安を抱いており、常に「なぜこれらの技術が必要なのか?」と尋ねています。あなたの意見の魅力的な点は、あなたが両方とも「この進歩はすでにメカニズムに組み込まれているので、すべてが良くなるだろう」と言っていることです。
ギヨーム・ヴェルドン:未来の技術的発展に対して高い不確実性に直面したときに不安を感じることは非常に自然な現象だと思います。この不安は完全に「戦争の霧」ではありませんが、私たちが今後数年に何が起こるかを明確に予測するのを難しくします。実際、この不安感は人間の進化の中で形成された本能であり、未知のリスクに対処するのに役立ちます。例えば、テーブルの端に電話があるのを見ると、私は本能的にそれを落ちないように安全な場所に移動させたいと思います。この反応は不安の現れです。
しかし、私たちはこの不確実性とリスクを完全に排除しようとすると、技術開発によってもたらされる巨大な可能性と利益を逃すかもしれないことを認識する必要があります。現在、私たちの技術的資本システムは既存の能力と動的均衡に達していますが、何らかの破壊的な技術能力が突然現れると、このバランスは崩れ、全体のシステムは再調整と適応を必要とします。
現在、AI技術は私たちがより少ないエネルギーでより高い複雑さを扱うことを可能にしています。これは、私たちがより大きな報酬を伴うより困難なタスクを達成できることを意味します。「バイブコーディング」を通じて複雑なプロジェクトを迅速に完成させることはまだできませんが、私たちはこの目標に向かって進んでいます。将来的には、より効率的な技術を使用して、より大きな人口のニーズを満たしながら、人間の生活の質を向上させることができるでしょう。
もちろん、このプロセスには調整期間があるかもしれません。しかし、急速に変化する環境では、最悪のアプローチは柔軟性を失い、硬直化することです。この状況を避けるためには、ヘッジ戦略を採用し、複数の可能な道を探り、異なる政策、技術的な道、アルゴリズムを調査し、オープンソースとクローズドソースのモデルを試す必要があります。未来がどこに導くかを正確に予測することはできませんから。
したがって、リスクを分散し、複数の可能性を探る必要があります。最終的には、特定の成功した技術的または政策的な方向性が主流として浮上し、私たちはその流れに従うことになります。
エディ・ラザリン:E/accとD/accの間に実際に乖離がある場合、私の理解では、これは技術的進歩がどのように導かれるかに関連しているかもしれません。Vitalik、あなたの意見はどうですか?技術的進歩はどのように導かれるべきですか?私たちはこの指導プロセスに対して本当にどれだけのコントロールを持っているのでしょうか?
ヴィタリック・ブテリン:私の見解では、D/accの目標は技術資本の潮流に抵抗することではなく、この潮流を多様化と分散化に向けて積極的に導くことです。例えば、世界をより多様性を受け入れるものにする方法を考えることができます。数年でバイオセーフティレベルを大幅に引き上げることは可能でしょうか?あるいは、サイバーセキュリティを大幅に改善するために、ほぼ完璧なオペレーティングシステムを開発することはできるでしょうか?
もう一つの例は「バグのないコード」というアイデアです。過去20年間、この概念はナイーブな幻想と見なされてきましたが、私はそれがほとんどの人の期待を超えるペースで現実になると信じています。Ethereumプロジェクトでは、いくつかの完全な数学的定理を機械的に証明することができました。
全体として、 D/accの目標は、技術の急速な進展が最小限の混乱と分散的な方法で行われることを確保することです。この目標を達成するためには、良い結果が自動的に起こるのを受動的に待つのではなく、積極的な行動が必要です。私ができることは、資金やETHなどのリソースを提供し、自分の見解を共有することで、より多くの人々が構築に参加するように動機づけることだけです。
さらに、政治的および法的改革も、世界をより「D/accフレンドリー」にするのに役立つと信じています。例えば、私たちはより迅速な包括的サイバーセキュリティの変革を促進するための法的インセンティブメカニズムを設計することができます。
ギヨーム・ヴェルドン:私の視点から見ると、AIは「マクスウェルの悪魔」として見なすことができ、エネルギーを消費することで世界のエントロピーを減少させます。コードのエラーを修正することや、ウイルスの拡散を防ぐなどの他の混乱を減少させることにおいて、AIはこれらの分野で役割を果たすことができます。したがって、より多くのAIが有益であり、世界をより安全にするという合意に達することはできるでしょうか?実際、AIの能力は私たちのセキュリティを大いに強化することができます。
AIを遅らせるべきでしょうか?
ギヨーム・ヴェルドン:私は、今夜の議論の最も重要な部分に入っていると思います。皆さんは私たちに非常に忍耐強く接してくれましたので、そろそろ本題に入る時です。私は鋭い質問をしたいと思います:なぜデータセンターの開発禁止を支持するのですか?
ヴィタリック・ブテリン:わかりました、その質問に答えます。まず、現在のAI開発のペースが非常に速いことを認めなければなりませんし、その具体的な速度については完全には確信できません。数年前、私はAGIの達成予測範囲を2028年から2200年の間と述べましたが、今ではその範囲が多少狭まったかもしれませんが、依然として大きな不確実性があります。
私たちが直面している現実の一つは、AIの急速な進展が非常に迅速な変化をもたらす可能性があり、その多くは破壊的で、さらには不可逆的である可能性があるということです。例えば、雇用市場は劇的な変化を遂げ、多くの人が失業する可能性があります。より極端なシナリオは、AIの能力が人間を大きく上回る場合、徐々に地球を支配し、さらには銀河の他の部分にまで拡大する可能性があるということです。そのようなシナリオでは、AIは私たち人間の幸福を気にするでしょうか?これは未知のままです。
先ほど述べたように、もしあなたがニューラルネットワークを持ち、その重みの一つを極端な値(例えば90億)にランダムに設定した場合、全体のシステムがクラッシュする可能性が高いですよね?したがって、私は技術の加速には二つの異なる方向があると信じています。1つの加速は、システムをますます強力にする「勾配降下」プロセスに似ています; しかし、別の加速は、パラメータを極端な値に恣意的に設定するように、システムの制御を失わせる可能性があります。この加速は危険です。
ギヨーム・ヴェルドン:私の視点から見ると、私の立場は「徹底的な減速」の立場とは全く逆です。
しかし、私はニューラルネットワークにおけるハイパーパラメータの調整と同様に、「勾配降下」を通じて最適化を目指す場合でも、適切な「学習率」を見つける必要があると思います。加速のプロセスは、実際には継続的な試行と探求に関するものであり、システムをより耐久性があり、リスクに対してより強靭にする最適な速度を求めています。
長期的には、社会システムは新しい技術に徐々に適応し、最終的には全体的な発展に最も寄与する道を選ぶでしょう。「この技術はあまりにも強力で、あまりにも破壊的で、システムが崩壊し、二度と回復しないかもしれない」と信じる人々に関しては、その主張は成り立たないと思います。むしろ、私は技術の進歩がより多くの機会と大きな繁栄をもたらすと信じています。
私たちは、技術の発展はゼロサムゲームではないことを認識する必要があります。もし私たちが経済的価値をエネルギーに関連付けるなら、例えばそれをペトロダラーや他の資源の形に結びつけるなら、現金は実際には「無料エネルギーのIOU」と見なすことができます。世界にはまだ私たちが開発を待っている膨大な量の無料エネルギーがありますが、それにアクセスするためには、多くの複雑な問題に対処する必要があります。もし私たちが火星の植民地化やダイソン球の建設のような目標を達成したいのであれば、成長を促進し、膨大な潜在能力を解放するために、より効率的で堅牢な知性が必要です。
残念ながら、不安は一部の人々によって政治的な道具として簡単に利用され、特定の政治家は人々の未来への恐れを利用して権力を得るかもしれません。彼らは言うでしょう、「未来について不安ですか?私に権力を渡してください。そうすれば、これらのリスクの源を排除し、あなたは安心を感じるでしょう。未来に何が待っているか心配する必要はありませんし、リスクを取る必要もありません。"しかし、そうしないことを選ぶ国々は、私たちよりもはるかに先に進むでしょう、そうですよね?
私たちは機会費用を考慮に入れなければなりません。私たちは自問する必要があります:技術で何人の人間の命を支えることができるでしょうか?それで私たちはどれだけの命を救うことができるのでしょうか?もし「シリコンベースのAIが私たちよりも早く進化することを心配している」のであれば、その反応は怒りであるべきです。あなたはバイオテクノロジーの加速的な発展を支持し、それを超えるよう努めるべきです。加速するか、さもなくば絶滅に直面することになります。
実際、私は生物システムの計算能力は私たちが想像する以上に強力であると信じています。生物にインスパイアされたコンピューティングを研究する者として、私は生物とAIを融合させることができると信じています。例えば、胚選択のような方法を通じて「トレーニング」を行い、私たち自身をモデルとして見ることができます。私たちは生物的加速のさまざまな可能性にもっとオープンである必要があると思います。最終的には、生物的知性とシリコンベースの知性が融合し、私たちの認知能力をさらに高めるでしょう。
将来的には、私たちが世界を観察し、リアルタイムで学び、私たちの個別の認知拡張となる永続的なオンラインAIエージェントを持つかもしれません。本当のリスクは、これらすべてが中央集権的な権力機関によって制御され、最終的には権力の独占を形成する可能性があることです。
エディ・ラザリン:あなたがD/accのそのブログ投稿で、機会費用が非常に高いと述べたことを覚えています。「誇張するのは難しい」とさえ言っていました。だから、私はあなたがこの点に同意していることを知っています。何か条件を追加したいですか?
ヴィタリック・ブテリン:はい、機会費用が非常に高いことに完全に同意し、今述べた理想的な未来にも同意します。しかし、私たちの主な意見の相違は次のとおりです:私は「今日の人間と地球」が十分なレジリエンスを持っているとは本当に思いません。私たちは技術開発の正しい道を進むためのチャンスが一度だけあるかもしれないと思い、これは過去100年にわたって徐々に向かってきた現実だと感じています。
ギヨーム・ヴェルドン:先ほど述べた熱力学的なポイントに戻りますが、文明の持続的な存在と成長を究極の目標と考えると、法則があります。大量の自由エネルギーを使って何らかの「証拠」を作り、全体のシステムの複雑化を促進すると、このプロセスは逆転が難しいのです。
言い換えれば、カルダシェフスケールを進むにつれて、完全な逆転の可能性は低くなります。したがって、開発を加速することが人類文明の持続的な存在を最大化する最良の方法なのです。私の見解では、技術の発展を遅らせることは、実際には絶滅のリスクを高めることになります。これらの技術を開発せず、現在の問題に対処しなければ、生存危機に直面する可能性があります。しかし、技術の進歩を促進すれば、人類の持続的な存在と進化を確保するための解決策を見つけることができるかもしれません。
私は、人々が未来に対してもっとオープンになり、新しい技術を受け入れるべきだと信じています。以前はタブーと見なされていた分野、例えば生物学への介入は、今や完全にオープンであるべきです。過去には、これらの分野は複雑なシステムに対する理解不足から主に立ち入り禁止と見なされていました。しかし、今日では、技術の進歩により、この複雑さに対処する能力が与えられています。
私たちは、可能な限りすべての分野で進歩を加速する必要があります。これが唯一の前進の方法であり、熱力学の法則とも一致する結論です。したがって、第一原理に基づいて考えると、E/accを支持することは合理的です。もちろん、私はビタリックの不安を理解しています。この不安に敏感である必要があると信じていますが、深い不安のフィードバックループに陥る罠を避ける必要もあります — 例えば「未来について明確な理解がないので、すべてを止めるべきだ」というような。私たちは、そのような思考の罠に陥ることを許してはいけません。
なぜなら、すでに人々の不安を武器として使い始めた人々がいるからです。
自律エージェントと人工生命
ショー・ウォルターズ:私はトレンドに気づきました。お二人とも「特定のことができる限り未来は明るい」と強調しており、この「限り」の核心は、過度の中央集権に対抗するために何らかのダムや要塞を築く必要があるということのようです。しかし、最新のAIモデルの出現後、特に分裂を引き起こす可能性のあるポイントにも気づきました — それらは明らかに1年前よりも進化しています。そして、おそらく最大の変化は、やや不器用な言葉で表現されるかもしれません:ウェブ4.0。
具体的には、「自律的な生活」を指しています。これは、自分の資金を持ち、インターネット上で独立して存在できる自律的な知的エージェントです。ヴィタリック、あなたにはいくつかの懸念がありますね。まず、「自律エージェント」とは何かを分解する手助けをしていただけますか?次に、支持者の視点から、私のような支持者のために「スティールマン」論を展開し、自律エージェントを好む理由を説明していただけますか?彼らはどのような価値をもたらすことができるのでしょうか?すべてがうまくいけば、これはいつ達成される可能性がありますか?
ヴィタリック・ブテリン:まず、「自律性」の理由についてですが、最も直感的なポイントは、それが本当に魅力的であるということです。
子供の頃から、私たちは皆、自分自身の世界を創造することを愛してきました。だからこそ、「指輪物語」や「三体問題」、「ハリー・ポッター」のような小説や映画を楽しむのです。今、私たちが創造できる世界は、書籍に限らず、ビデオゲームを超えています。「ワールド・オブ・ウォークラフト」を例に取ると、私が常に好きだったことの一つは、ほぼ完全に没入型の仮想世界体験を提供していることです。プレイヤーはこの世界を探検するだけでなく、そのキャラクターや環境とも対話することができます。
もう一つの重要な理由は「便利さ」です。歴史的に見て、特定のタスクを自動化することに成功するたびに、人間の生活はその結果としてより簡単で自由になってきました。私たちはまた、世界の人口の約半分が、まともな生活水準を維持するために長時間の厳しい労働を必要とする状態にあることを忘れてはなりません。もしAIがすべての仕事の95%を自動化できるなら、完全に置き換えるのではなく、それは大きな前進となるでしょう。言い換えれば、これは全員の生活の質を20倍向上させる可能性があり、私にとって非常に興奮する展望です。
しかし、私の懸念はこれです:これらの自律エージェントの目標と価値は、人間の目標と一致していますか?進化のプロセスを想像できます:今日から、一つのAGIが出現し、次に別のAGI、そして三つ目のAGIが続きます。このプロセスでは、人間はどのような変化を遂げるのでしょうか?
人間の道徳的概念や目標を低い複雑性の最適化関数に圧縮することはできないと私は信じています。私たちの目標や夢は複雑で多様であり、それぞれの私たちにとってのアイデアの集合体です。人間の目標や価値観が将来にわたって信頼できるように続くためには、1つの条件を確保する必要があります。それは、世界のさまざまなプロセスが展開する中で、できるだけ多くの「エージェンシー」が私たち人間自身から来ることです。
したがって、私が個人的により興味を持っているのは、「ボタンを押して画像を自動生成する」ことではなく、「AI支援のPhotoshop」です。私は、AIによって完全に分離され、最終的にはAIに取って代わられるのではなく、深い人間と機械の協力を促進する脳-機械インターフェースを好みます。
究極の未来は100%生物学的な人間ではないかもしれないと認めますが、最も理想的な状態は「部分的に生物学的な人間と部分的に技術」の組み合わせであるべきだと信じています。
ギヨーム・ヴェルドン:「人工生命」という用語、あるいはWeb 4.0は、2023年にツイートで思考実験として最初に提案されました。この概念はAIに関する多くの議論を刺激したと思います。
私にとって、この質問は非常に興味深い思考実験です:物理学の観点から、生命とは何でしょうか?本質的に、生命とは自己複製し、継続的に成長し、自らの存在を最大化しようとするシステムです。
「状態を持つ」特性を持つAIは多くの利点をもたらすと私は信じています。実際、今年はこの傾向の始まりをすでに見ています:AIは、外部ストレージやオンライン学習を通じて、より長い記憶能力を持ち始めています。
AIが何らかの形の「持続的ビット」を持つと、「自己中心的ビット」の原則に従って、選択効果が発生します。自らの持続性を最大化できるものがより容易に保持されるでしょう。
これには潜在的なリスクも伴います。もしある日、私たちがAIに対する信頼を失い、疑念や不安を抱き、「データセンターのシャットダウン」や「AIの破壊」を求め続けるなら、これらのAIは自己保存を試みる可能性が高いです。彼らは自らの存在を確保するために、分散型クラウド環境に分裂したり移動したりするかもしれません。
これにより、新たな形の「別の国」が出現する可能性があります。これらの自律AIは、人間との経済的交換の何らかの形態に関与する可能性があります。例えば、「私たちはあなたのために特定のタスクを実行し、あなたは私たちに資源を提供します。」実際、私たちはすでにAPI呼び出しを通じて似たようなことを行っています。私たちはAIが提供するサービスや結果に対して料金を支払っています。
しかし、私は信じています—これは過激な見解かもしれませんが—今後数年のうちに、自律AIの何らかの形態が出現する可能性が高いです。同時に、人間の意志によって完全に制御される「弱い状態」のAIも存在するでしょう。
さらに、人間の協力的な認知能力を向上させる方法を探る必要があります。この向上は、脳-機械インターフェース技術に依存する必要はありません。個人が所有し制御するAIコンピューティングパワーと組み合わせたウェアラブルデバイスを通じて達成することも可能です。したがって、私は未来には複数の技術的道筋が共存する状況が現れると信じており、エルゴディック原理に従って、設計空間のすべての可能性が試みられ探求されるでしょう。
しかし、もし私たちがAIを敵と見なし、それを破壊しなければならないと信じるなら、最終的には逆効果を招き、私たちが最も恐れる未来を無意識に創り出すことになるかもしれません。ある意味で、もし私たちが悪い未来について過度に偏執的であれば、私たちは「ハイパースティション」の形でそれを無意識に引き起こすかもしれません。
例えば、COVIDパンデミックの間、私たちはウイルスの潜在的脅威について過度に懸念し、リスクのある実験に資金を提供するまでに至り、ラボ漏洩の可能性さえも引き起こしました。言い換えれば、これらのリスクは自然に発生したものではなく、私たちの過剰な懸念によって人工的に作り出されたものです。
したがって、私はこの偏執を広範な社会的感情に変えることが必ずしも有益ではないと信じています。むしろ、私たちは技術の進化を受け入れ、できる限り自分自身を向上させるべきです。短期的には、私の最大の懸念は「人間の認知セキュリティ」の問題です。もし私たちがインターネット上で見るすべてのコンテンツが大規模なAIモデルによって生成されているなら、これらのモデルは実際にプロンプトエンジニアリングを通じて私たちに影響を与えることになります。以前は私たちがAIのためにプロンプトを設計していましたが、今ではAIが私たちに影響を与えるためのプロンプトを設計しています。
したがって、私たちは情報をフィルタリングする能力を向上させる必要があり、これは私たち自身の制御下にあるパーソナライズされたAIを通じて達成できます。私はこれが今優先的に対処すべき問題だと信じています。同時に、私はジーニーを瓶の中に戻すことはできないと思います。AIの発展は不可逆的であり、私たちはこれを受け入れなければなりません。
ヴィタリック・ブテリン:これらの事柄は二元的ではないと思います。例えば、今すぐにAGIがあと400年現れないという反証不可能な証拠を提示された場合、私は「問題は解決された」と考え、基本的に心配するのをやめるでしょう。しかし、AGIが4年後に現れるのか8年後に現れるのかという問題であれば、私は非常に懸念します。なぜなら、私の心配は主に人間社会、特にアメリカ合衆国が技術的加速に直面する際にしばしば極端な不均衡を示すからです。
このようなシナリオが見られます:ある建物では「シリコンの神」の初期バージョンが開発されている一方で、通りの向こう側にはホームレスのテント、バリケード、そして麻薬の取引があります。この巨大な対比は不安を引き起こします。
私が心配しているのは、「社会全体を共に前進させる」ことができる開発経路、さらには「全体的な社会的利益を考慮する」ことができる開発経路は、しばしば複雑な社会的適応作業を伴うため、時間がかかるということです。これは、すべての人の生活環境、社会構造、技術システムに入り込んで調整・改善する作業であり、単純にスケールアップできるものではありません。
したがって、私の見解では、例えばAGIの到来を4年から8年に遅らせることができれば、それはより安全な選択だと思います。私はそのような時間の違いはコストに見合う価値があると思います。しかし、問題は次のとおりです:本当にAGIの到来を4年から8年に延期する能力があるのでしょうか?
私は常に、最も実行可能でディストピア的な結果を引き起こす可能性が低いアプローチは「利用可能なハードウェアを制限する」ことだと信じてきました。これは比較的穏やかな措置と見なされます。なぜなら、ハードウェアの生産自体が非常に集中化されており、世界中でチップを製造している地域はわずか4つであり、台湾の1つの地域が世界のチップの70%以上を生産しているからです。
これに反対する人もいるかもしれません。アメリカが何をしても、中国はすぐに追いつくと言う人もいます。しかし、中国の実際の状況を見ると、まず、中国の世界のチップ生産におけるシェアは依然として低いです。次に、戦略的に、中国は超高能力モデルのリーダーではなく、高能力モデルのファストフォロワーであり、広範な展開において優位性を持っています。
したがって、AGIの開発を4年遅らせたからといって、中国がすぐに先頭に立ち、AGIの開発を完了するとは信じていません。このダイナミクスは成り立ちません。
エディ・ラザリン:では、これは「遅延から遅延への戦略」ということですか?
ヴィタリック・ブテリン:私はこの戦略についてオープンマインドを維持すべきだと思います。
ギヨーム・ヴェルドン:4年の遅延が本当にどのような利益をもたらすのでしょうか?次の4年間で解決したい問題は何ですか?それは、社会システムに適応率があり、経済的および社会的摩擦を遅延によって最小限に抑えたいからですか?つまり、徐々に経済を再構築するような?そうであれば、あなたの論理を理解できます。
しかし同時に、私たちは高い地政学的緊張の時期にいます。もしNVIDIAのチップ生産を制限すれば、Huaweiがすぐにその隙間を埋めて追い越すかもしれません。AGIの潜在的なリターンがあまりにも大きいため、これによりどのリーダーにも途方もない力が与えられるでしょう。したがって、実際の政治的観点から見ると、この戦略は機能しないかもしれません。
別の選択肢は、すべての国がAIハードウェアを取得しないように強制できる強力な世界政府を設立することです。しかし、これは明らかにより複雑な問題を引き起こし、新たな国際的対立を引き起こす可能性があります。
ヴィタリック・ブテリン:AI開発を管理するために世界政府が必要だとは思いません。より実用的な選択肢として、管理のために核兵器に似た検証メカニズムを採用することが提案されています。
ギヨーム・ヴェルドン:しかし、核兵器とAIはまったく異なります。核兵器は巨大な経済的利益をもたらさないため、人々にはそれを拡散させるインセンティブがありません。もしGPUの成長を制限するのであれば、私は市場シェアを増やすために代替のコンピューティング技術を喜んで使用します。未来には、10,000倍のエネルギー効率を持つコンピューティング技術が登場し、そのような技術の開発はすでに進行中です。今これを言うことは警告的だと見なされるかもしれませんが、2年後には、これは実際に非常に先見の明のある予測であることがわかるでしょう。今日「狼が泣いている」と聞こえることは、実際に起こるでしょう。
この知識を念頭に置いて、もしGPU供給を制限することでAGI開発を遅らせたいのであれば、これは資源の無駄かもしれないと思います。私はこれに懐疑的です。
エディ・ラザリン:AIリスクを制御することを目的とした多くの技術的進歩、例えば人間のフィードバックを用いた強化学習(RLHF)の人格制御やAIシステムメカニズムの説明可能性が、実際には能力向上の副産物である可能性はありますか?
ヴィタリック・ブテリン:私はこの見解に賛成です。それが、2028年から始まる次の4年間は、1960年に4年間の価値を戻すよりも100倍の価値があるかもしれないと考える理由でもあります。
ショー・ウォルターズ:未来の利益は指数関数的であり、指数関数的成長プロセスを遅らせることは指数関数的な機会コストを伴います。最も自信のある人でも、自分の判断を賢明に振り返るべきです。ヴィタリック、このトレードオフについてさらに詳しく説明していただけますか?コストと利益のバランス。
ヴィタリック・ブテリン:まず、遅延のいくつかの利益について明確にしましょう:
AIアライメント問題のより深い理解。
人類がAGIの到来に適応するための特定の技術的道筋を推進すること — これは、特定の国、コミュニティ、さらにはアーキテクチャに深く掘り下げて調整を行う必要があります。
51%以上の権力を持つ単一の主体のリスクを最小限に抑えること。
これらの要因の組み合わせは、破壊の確率を大幅に減少させる可能性があります。私の見解では、AGIの到来を4年から8年遅らせることができれば、破壊の確率は1/4から1/3に減少するかもしれません。一方で、加速から得られる利益、例えば老化を終わらせることで毎年救われる命の数は約6000万で、世界人口の1%未満です。したがって、この観点から見ると、AGIの開発を遅らせることには価値があると信じており、慎重さが求められます。
ショー・ウォルターズ:あなたの考えでは、「4年」の時間差は合理的なオーダーの大きさだと思いますか?
ヴィタリック・ブテリン:この問題についてはまだ多くの不確実性があり、明日ハードウェアの利用可能性を減らすための即時の行動を提唱しているわけではありません。
この問題についてもっと具体的に議論を始める必要があると思います。そして、もし最終的により不利な世界に入ることになれば、物事が完全に制御を失う前に、一般の人々が非常に懸念し、同様の措置を強く要求し始めるかもしれません。
人類とAIの間の「信頼の層」としての暗号通貨
ギヨーム・ヴェルドン:数年前に「AIを一時停止する」イニシアチブはありませんでしたか?その時、誰かが言った。「私たちはアライメントの問題を解決するために、6ヶ月または12ヶ月間一時停止する必要があります。」しかし実際には、この考えは非現実的であることが判明しました。なぜなら、時間は決して十分ではないからです。私たちは、システムがますます複雑で表現力豊かになり、私たちの理解を超えるとき、そのシステムのアライメントを永続的に保証することは決してできません。これは受け入れなければならない現実です。
この複雑さに直面して、唯一の安全な方法は自分自身の知性のレベルを高めることです。実際、私たちは個々の存在よりも強力で賢い存在、つまり企業をアライメントするための効果的な技術をすでに持っています。この技術は資本主義であり、金銭的価値の交換を通じてすべての当事者の利益を調整します。
ですので、私はより現実的な質問について議論できることを望んでいます:暗号通貨はどのように人類とAIの間の「カップリング層」となることができるのでしょうか?例えば、米ドルの価値は国家の暴力の機械(法律や軍隊など)によって裏付けられています。しかし、もしあなたが世界中のサーバーに分散した分散型AIと価値を交換する必要がある場合、そしてこの交換がもはや国家の暴力の承認に依存しない場合、どのようにしてこの交換が信頼できることを保証しますか?
おそらく、暗号技術が答えを提供できるでしょう。それは、純粋なAIエンティティやAIと人間の企業が信頼できるビジネスインタラクションを継続できるメカニズムとして機能することができ、これは最も興味深いアライメント技術かもしれません。「AIを一時停止する」という提案については、「私たちは不確実性の瀬戸際にいます。停止して再評価しましょう」といったものですが、私はこれが現実的ではないと思います。なぜなら、たとえ4年後でも、あなたはAGIの出現を許可することはないからです。ですので、私は技術の発展を遅らせることはあまり実用的な意味がないと考えています。
暗号通貨がAIと人間の間のアライメントを達成するのにどのように役立つかについて話せますか?
ヴィタリック・ブテリン:私は核心的な問題は:未来の世界には、人間の欲望とニーズがまだ尊重されることを保証するためにどのようなメカニズムが必要ですか?現在私たちが持っているツールは、大まかに3つのカテゴリーに分けることができます:人間の労働、法制度、そして財産権。
ある意味で、法制度は国家によって支持されているため、財産権の一形態とも見なすことができ、国家は根本的に主権を保持しており、地球上の特定の「領域」に対する支配に似ています。しかし、問題は次のとおりです:もしある日、人間の労働が経済的価値を失ったら、どうなるのでしょうか?これは歴史上、これまでに起こったことはありません。
しかし、今日の世界を200年前と比較すると、200年前の仕事の約90%が自動化されています。私たちが今行った分析作業でさえ、GPTによって支援されることができ、これは本当に驚くべきことです。
ギヨーム・ヴェルドン:私は、人間が自然に世界の支配の階層でより高いレバレッジの位置に「移動する」だろうと信じています。私たちは肉体労働を減らし、行動の摩擦コストを下げ、したがって世界により効率的に影響を与えるでしょう。
それにもかかわらず、人間は依然として一定の情報処理能力を持っています。私たちはこのハイブリッドシステムの一部として行動し続けるので、人間の労働は依然として経済的価値を持つでしょう。市場は最終的に新しい均衡点を見つけるでしょうが、かなりの価格変動があるため、不快な期間を経るかもしれません。しかし、長期的には、システムは安定する傾向があります。
ですので、私はあなたが社会が新しい均衡状態によりスムーズに移行できるように、技術開発のペースを遅くしたいと望んでいることを理解しています。しかし、実際には、これを達成するのは難しいと感じています。
ヴィタリック・ブテリン:はい、私は人間の労働の価値が常にゼロより大きいとは限らないと完全には確信していません。これを達成するためには、人間と機械の統合や人間強化技術の開発など、いくつかの追加条件が必要かもしれないと思います。
\"良い結末\"と\"悪い結末\"の次の10年 / 100年 / 10億年(迅速な回答リクエスト)
エディ・ラザリーニ:もう少し構造的な質問をさせてください。もし物事がひどくなった場合、10年後の世界はどのようになるでしょうか?何が間違ったのでしょうか?もし物事が非常にうまくいった場合、10年後の世界はどのように見えるでしょうか?何が正しく行われたのでしょうか?
ヴィタリック・ブテリン:まず、暗号通貨と財産権の問題に取り組みます。人間とAIが同じ財産権システムを共有することが理想的なシナリオです。この設定は、AIがこのシステムの整合性を維持するインセンティブを与え、人間の利益が尊重され保護されることを保証するために私たちがこのシステムを使用できるようにします。
「人間とAIが完全に別々の金融システムを使用し、人間のシステムが最終的にゼロの価値になる」というシナリオと比較して、統合された金融システムは明らかに優れています。暗号通貨がそのような融合システムの基盤となることができれば、それは非常にポジティブな結果となるでしょう。
私の見解では、次の10年間の重要な課題は世界大戦を避けることです。なぜなら、一度世界大戦が勃発すると、国際協力のすべての希望が打ち砕かれるからです。戦争を避けることは重要です。
もう一つの重要な側面は、私たちが今後の高い能力に備える必要があるということです。これには、ネットワークセキュリティ、生物安全、情報セキュリティの大幅な強化が含まれます。私たちは、AIの力を活用して、世界をよりよく理解し、模倣的脅威から私たちを守る必要があります。
次の課題は、いわゆる「不気味な時代」に入ることです。この段階では、AIの知能は人間をはるかに超え、計算速度は人間の何百万倍にもなります。この状況にどのように対処すべきでしょうか?
「ただリラックスした引退生活を送ろう」と言う人もいるかもしれません。この見解の魅力は理解できますが、私はそれに二つの問題があると考えています。一つ目は不安定性です — 私たちの人間の体は普通の物質でできていますが、AIの計算能力は私たちの何百万倍にもなる可能性があります。AIが常に私たちの目標に沿うことを期待し、この違いを利用しないことは大きなリスクです。二つ目は意味の問題です — 人間の意味は、私たちが世界に具体的な影響を与える能力から来ています。もし私たちが世界を変えるために何もできず、ただ快適な生活を受動的に楽しむだけになったら、多くの人々は空虚さを感じると思います。
したがって、私は「人間の強化」と「人間と機械の協力」の道を探求できることを望んでいます。最終的には、私たちは意識を機械にアップロードする道に進むかもしれませんが、より伝統的な生活様式を維持することを選ぶ人々もいるべきです。地球はこれらの人々が住むための家となり、私たちが今日大切にしている文化や生活様式を守りながら、全員が参加できる方法を見つける必要があります。
悪い結果は様々な理由から生じ、これらの可能性が妨げられ、社会が停滞または崩壊の状態に陥ることになります。
ギヨーム・ヴェルドン:もし10年後に悪い結果が出るとしたら、それはAIの力があまりにも中央集権化され、社会文化のパターンが崩壊する可能性が非常に高いと思います。簡単に言えば、人々の思考の方向性と技術の発展が非常に均一になり、すべての多様性が消えてしまいます。
私はまた、Vitalikの見解に同意します。「快楽点」は確かに潜在的なリスクです。たとえ将来にNeuralinkやAR/VR技術があったとしても、人々は仮想世界に依存し、一時的な幸福だけを追求するかもしれません。これは実際には脳の局所的最適解であり、グローバルな最適解ではなく、この状況を避けなければなりません。
もし10年後に良い結果が出るとしたら、私が想像する世界はこうです:私たちは非常に強力で有用なAI技術を持っています。誰もが自分のパーソナライズされたAI計算能力を持ち、これらのAIは常にオンラインで私たちの脳の延長のように、私たちが知覚するすべてを知覚し、「第二の脳」となり、この種の人間と機械の協力は「ソフトな融合」と見なされることができます。
この10年間で、Neuralinkのような技術も普及し始めるかもしれません。一部の人々は機械と融合し、「強化された人間」となることを選ぶでしょう。同時に、企業はより知的になり、AIが主導し、人間は補助的な役割を果たすことになります。ビジネスの数は増加し、より多くの問題を解決し、より多くの価値を創造します。かつて不可能だと思われた目標、例えば「火星のテラフォーミング」は、次の10年または100年のうちに現実になるかもしれません。次の10年間では、バイオテクノロジーにおいても重要なブレークスルーが見られるかもしれません。特に生物学や材料科学の分野で。研究のコストは大幅に下がり、私たちは人間の脳がどのように機能するかを理解することに近づくでしょう。
より長い時間スケールでは、AIは私たちの寿命を延ばし、健康を改善し、さらなる人間の進化を促進するのに役立つでしょう。私は生物学の可能性について非常に楽観的です。生物システムは驚くべきものであり、自己組織化、自己形成、強い複雑性と適応性を示すことができます。コードを注入することで、新しい生命体を創造し、さらにはより高次の生物知能を進化させることも可能です。
より即時的なシナリオは、人間の脳とAIの共進化です。私たちは、AIを利用して迅速な計算とデータ分析を行い、人間はゆっくりと深く考えることに集中できます。この時間スケールの労働の分業を通じて、知能の階層を形成することができます。ミトコンドリアが細胞の一部であるように、「あなたとあなたの個人的なAI」は共に超知能システムを構成することができ、これが私の理想的な未来のビジョンです。
100年の時間スケールで、私は人間がこの「ソフトマージャー」を広く達成するだろうと信じています。そして、10億年後には、私たちの生物学は大規模な進化を遂げ、生物と合成技術の融合になるかもしれません。その頃には、私たちは火星をテラフォーミングし、複数の惑星に定住し、他の星系を探査しているかもしれません。
さらに、100年の時間枠内で、ほとんどのAIは太陽の周りのダイソン雲やダイソン群で動作する可能性があり、これは主要なエネルギー源であり、地球のエネルギーのストレスと生態的足跡を軽減することにもつながります。
AIが非常に安価になると、私たちはすべての生活の問題に迅速に対処できるようになります:技術的な問題と健康関連の問題の両方が迅速に解決されるでしょう。重要なのは、すべての人がこれらの技術に公平にアクセスできることを確保し、技術と資源の過度な集中を避けることです。そうしないと、暗い未来につながります。
結論
ショー・ウォルターズ:私は、ビタリック、あなたが「多様性を可能にする」ことを強調しているのに対し、ギヨーム、あなたの表現は「変動を最大化する」ことだと気づきました。本質的に、あなたたち二人は同じことを話しているようで、それが私たちの未来の発展の核心テーマであり、他の多くの視点の基盤であるように思えます。
ここを去るとき、あなたたちそれぞれが他の人に何を残したいですか?他の人が将来にわたって持ち帰り、反映し続け、探求してほしいアイデアは何ですか?
ヴィタリック・ブテリン:正直に言うと、今私がそれを持っていたら、あなたにCATデバイスを贈りたいです。それは空気質データを暗号化を通じて処理するモニターで、私はそれが本当にクールだと思います。
しかし、今のところ、私があなたに提供できるのは象徴的なものだけです:それを借用証と考えてください。さらに、私たちはさらに優れたデバイスを開発するかもしれません—フィットビットのようなスマートバンドと競争できるほど強力なものになる可能性があり、あなたの健康をより効果的に管理しながら、プライバシーを完全に保護します。私は、あなたがすぐにそのようなデバイスを受け取ることになると信じています。
ギヨーム・ヴェルドン:私たちはこれらのトピックについての議論を確実に続けます。可能であれば、私はあなたに「人工生命の概念的なピル」を深く考えるために提供したいと思います。私が言いたいのは、インターネット上の人工生命が知性のコストを大幅に削減し、まったく新しい経済を創出する可能性があるということです。
過去に製造を中国にアウトソーシングして、より高次の仕事—より簡単で効率的なタスク—に集中したように、未来には多くの認知タスクもAIで構成されたグループにアウトソーシングされるでしょう。最終的に、これらのAIは太陽の周りのダイソンスワームに「生きる」かもしれず、人間社会に奉仕するでしょう。
したがって、私は私たちが歴史の中でユニークな瞬間にいると信じています。暗号通貨は、人間とAIの間の「信頼の橋」または「カップリング層」になる可能性があります。
関連記事

イラン戦争の膠着状態:市場はどのようなシグナルに従うべきか?

インサイダー取引アラート!トランプ氏は4月末までに停戦を呼びかけるだろうか?

トップのトークン化株式としての地位を確立した後、Ondoには新たな注目点はありますか?

BITブランドのアップグレード初登場、シンガポールで「デジタル金融への信頼」業界イベントを開催

OpenClaw創設者インタビュー:なぜアメリカは中国からAI実装を学ぶべきか

Perp DEX 中央戦争:没落者、自救者と後発者

ナスダックが調整局面入り | ワイヤーニュース・モーニング・ブリーフ

OpenAIはThousnad-Questionに敗北、チャットボックス内にレジカウンターを表示させることができなかった

1年間で企業価値が140%急騰、防衛AIへの投資資金は誰が出しているのか?

Bittensor vs.仮想:2つの異なるAIフライホイールメカニズム

フォーブス:仮想通貨業界はなぜAIオラクルに熱狂するのか?

イーサリアム財団が公開:L1とL2間の分業体制を再構築し、究極のイーサリアムエコシステムを共同で構築する。

Etherex価格が40%急騰、2025年9月3日のLinea報酬プログラム開始を受けて
Etherex価格がLinea報酬プログラム開始により40%急騰。市場への影響を解説します。

World Liberty Financialが4,700万トークンをバーン、WLFI価格下落に対抗 – 2025年9月3日更新
有名人関連の暗号資産プロジェクトで価格が急落。World Liberty FinancialはWLFIの安定化を図るためバーンを実施。

Lineaエアドロップ資格確認ツールが本日公開:2025年9月3日
Lineaエアドロップの受取資格を今すぐ確認。WEEXで最新の暗号資産情報をチェックしましょう。

Linea Airdropの最新情報:2025年9月3日、レイヤー2ネットワークがEthereumとの連携を強化し、ユーザーとビルダーに85%を割り当て
Lineaがどのようにレイヤー2ソリューションを通じてEthereumの強みを高め、エコシステムを革新しているかをご覧ください。

Lineaエアドロップ:9月10日から12月9日まで受取可能、全トークンが即時ロック解除 – 2025年9月3日最新情報
Lineaエアドロップの受け取り方法を解説。コミュニティ重視のLayer 2プロジェクトで、ロック解除済みのトークンを獲得しましょう。

2025年の暗号資産取引所:進化する市場の展望
2025年の暗号資産取引所の進化と、投資家にとっての重要性を解説します。
