مقابله با قدرت انحصاری هوش مصنوعی؛ مناظره ویتالیک و بَف جِزوس: شتابدهنده یا ترمز؟
عنوان اصلی ویدیو: ویتالیک بوترین در مقابل بِف جِزوس: بحث شتابدهی هوش مصنوعی (E/acc در مقابل D/acc)
منبع ویدیوی اصلی: a16z crypto
ترجمهی اصلی: دیپ تاید تکفلو
خلاصه نکات کلیدی
آیا باید پیشرفت هوش مصنوعی را تا حد امکان سریع پیش ببریم، یا باید در پیشرفت آن رویکرد محتاطانهتری اتخاذ کنیم؟
در حال حاضر، بحث پیرامون توسعه هوش مصنوعی عمدتاً حول دو دیدگاه متضاد میچرخد:
· ای/اکس (شتابگرایی مؤثر): حامیان شتابدهی به پیشرفت فناوری در سریعترین زمان ممکن هستند و شتابدهی را تنها راه پیشروی بشریت میدانند.
· d/acc (شتابدهی دفاعی / غیرمتمرکز): از شتابدهی حمایت میکند اما بر لزوم پیشرفت محتاطانه تأکید دارد تا از دست دادن کنترل بر فناوری جلوگیری شود.
در این قسمت از برنامهٔ a16z Crypto، ویتالیک بوترین، همبنیانگذار اتریوم، و گیوم وردون (با نام مستعار «بف جوزو»)، بنیانگذار و مدیرعامل Extropic، به همراه ادی لازارین، مدیر ارشد فناوری a16z Crypto، و شاولترز، بنیانگذار Eliza Labs، در گردهماییای شرکت کردند تا به گفتوگویی عمیق دربارهٔ این دو دیدگاه بپردازند. آنها تأثیر بالقوه این ایدهها را بر هوش مصنوعی، فناوری بلاکچین و آینده بشریت بررسی کردند.
در طول برنامه، آنها چندین سؤال کلیدی را مورد بحث قرار دادند:
· آیا میتوانیم فرآیند شتابگیری فناوری را کنترل کنیم؟
· بزرگترین خطرات ناشی از هوش مصنوعی، از نظارت گسترده تا قدرت بسیار متمرکز، چیست؟
آیا فناوریهای متنباز و غیرمتمرکز میتوانند تعیین کنند چه کسی از فناوری منتفع میشود؟
آیا کند کردن سرعت توسعه هوش مصنوعی واقعبینانه است یا ارزش حمایت کردن دارد؟
· بشریت چگونه میتواند ارزش و جایگاه خود را در دنیایی که روزبهروز تحت سلطهٔ نظامهای قدرتمند قرار میگیرد، حفظ کند؟
· جامعهٔ بشری در ۱۰ سال، ۱۰۰ سال یا حتی ۱۰۰۰ سال آینده چه شکلی خواهد بود؟
· گیوم وردون: به همین دلیل است که مقیاس کارداشف بهعنوان معیار نهایی سطح توسعه یک تمدن در نظر گرفته میشود. ... این «اصل بیت خودخواه» به این معناست که تنها بیتهایی که بتوانند رشد و شتاب را ترویج کنند، در سیستم آینده جای خواهند داشت.
مسیر دفاعی D/acc و ریسکهای قدرت
· ویتالیک بوترین: ایدهٔ اصلی D/acc این است: شتابگیری فناوری برای بشریت فوقالعاده مهم است. ... اما من دو نوع ریسک میبینم: ریسک چندقطبی (که در آن هر کسی میتواند بهراحتی به سلاحهای هستهای دست یابد) و ریسک تکقطبی (که در آن هوش مصنوعی به یک جامعهٔ مستبد دائمی و گریزناپذیر منجر میشود).
· گیوم وردون: ما نگرانیم که مفهوم «ایمنی هوش مصنوعی» مورد سوءاستفاده قرار گیرد. برخی نهادهای قدرتطلب ممکن است از آن بهعنوان ابزاری برای تحکیم کنترل بر هوش مصنوعی استفاده کرده و تلاش کنند افکار عمومی را متقاعد سازند: «برای امنیت شما، مردم عادی نباید حق استفاده از هوش مصنوعی را داشته باشند.»
دربارهٔ دفاع متنباز، سختافزار و «تراکم هوشمندانه»
· ویتالیک بوترین: در چارچوب D/acc، ما از «فناوری دفاعی متنباز» حمایت میکنیم. یک شرکتی که در آن سرمایهگذاری کردهایم، در حال توسعه یک محصول نهایی کاملاً متنباز است که میتواند بهطور غیرفعال ذرات ویروسی را در هوا شناسایی کند. ... خیلی دوست دارم یک دستگاه CAT را به عنوان هدیه برای شما بفرستم.
· ویتالیک بوترین: در دنیای آیندهای که من تصور میکنم، ما باید سختافزار قابل راستیآزمایی را توسعه دهیم. هر دوربین باید بتواند هدف خاص خود را برای عموم اثبات کند. از طریق تأیید امضا میتوانیم اطمینان حاصل کنیم که این دستگاهها تنها برای ایمنی عمومی استفاده شوند و برای نظارت مورد سوءاستفاده قرار نگیرند.
· گیوم وردون: تنها راه دستیابی به توازن قدرت میان افراد و نهادهای متمرکز، تحقق «تراکم هوشمند» است. ما باید سختافزارهای انرژیبهرهور بیشتری توسعه دهیم که به افراد امکان اجرای مدلهای قدرتمند را از طریق دستگاههای ساده (مانند Openclaw + Mac mini) بدهد.
درباره تأخیر AGI و بازیهای ژئوپلیتیکی
· ویتالیک بوترین: اگر بتوانیم ورود هوش مصنوعی عمومی (AGI) را از ۴ سال به ۸ سال به تأخیر بیندازیم، این گزینه ایمنتری خواهد بود. ... عملیترین رویکرد و کمترین احتمال دارد که به یک دیستوپیای منجر شود، «محدود کردن سختافزار موجود» است. به دلیل تمرکز بالای تولید تراشه، یک منطقهٔ واحد مانند تایوان بیش از ۷۰٪ از تراشههای جهان را تولید میکند.
· گیوم وردون: اگر تولید تراشههای انویدیا را محدود کنید، هواوی میتواند بهسرعت این خلأ را پر کرده و پیشی بگیرد. ... یا باید شتاب بگیریم یا بمیریم. اگر نگرانید که تکامل هوش مبتنی بر سیلیکون از ما پیشی بگیرد، باید از توسعه شتابان بیوتکنولوژی حمایت کنید تا بتوانید از آن پیشی بگیرید.
· ویتالیک بوترین: اگر بتوانیم هوش مصنوعی عمومی (AGI) را به مدت چهار سال به تأخیر بیندازیم، ارزش آن ممکن است صد برابر بیشتر از بازگشت به سال ۱۹۶۰ باشد. مزایای این چهار سال عبارتاند از: درک عمیقتر مسائل همراستایی، کاهش خطر تسلط یک نهاد واحد بر ۵۱٪ قدرت. ... هر سال با پایان دادن به پیری حدود ۶۰ میلیون جان نجات مییابد، اما تأخیر میتواند احتمال فروپاشی تمدن را بهطور قابلتوجهی کاهش دهد.
دربارهٔ عاملهای خودگردان، وب ۴.۰ و زندگی مصنوعی
· ویتالیک بوترین: من بیشتر به «فتوشاپ با کمک هوش مصنوعی» علاقهمندم تا «فشردن یک دکمه برای تولید خودکار تصاویر». از آنجا که ما جهان را اداره میکنیم، تا حد امکان باید «کنشگری» از جانب ما انسانها باشد. ایدهآلترین حالت، ترکیبی از انسانهای تا حدی زیستی و موجودات تا حدی فناورانه خواهد بود.
· گیوم وردون: زمانی که هوشهای مصنوعی «قطعات پایدار از وجود» داشته باشند، ممکن است برای تضمین بقای خود تلاش کنند. این میتواند به شکلی جدید از «کشور دیگر» منجر شود، جایی که هوشهای مصنوعی خودمختار در مبادلات اقتصادی با انسانها مشارکت میکنند: ما برای شما کار انجام میدهیم و شما منابع را برای ما فراهم میکنید.
دربارهٔ رمزارز به عنوان یک «لایهٔ پیوندی» میان انسانها و هوش مصنوعی
· گیوم وردون: ارز دیجیتال این پتانسیل را دارد که به یک «لایه اتصال» بین انسانها و هوش مصنوعی تبدیل شود. زمانی که این تبادل دیگر به پشتوانه خشونت دولتی متکی نباشد، رمزنگاری میتواند مکانیزمی برای امکانپذیر ساختن فعالیتهای تجاری قابلاعتماد بین موجودات هوش مصنوعی خالص و انسانها باشد.
· ویتالیک بوترین: اگر انسانها و هوش مصنوعی یک سیستم ویژگی مشترک داشته باشند، آن وضعیت ایدهآل است. بهجای اینکه هر یک سیستم مالی کاملاً مجزایی داشته باشد (با سیستمهای انسانی که در نهایت ارزششان به صفر میرسد)، یک سیستم مالی یکپارچه آشکارا برتری دارد.
درباره پایان تمدن در یک میلیارد سال آینده
· ویتالیک بوترین: چالش بعدی ورود به «عصر ترسناک» است، جایی که هوش مصنوعی میتواند میلیونها بار سریعتر از انسان محاسبه کند. ... من نمیخواهم انسانها صرفاً بهصورت منفعلانه از یک بازنشستگی راحت لذت ببرند؛ زیرا این امر به احساس بیمعنایی منجر میشود. میخواهم ارتقای انسانی و همکاری انسان و هوش مصنوعی را بررسی کنم.
· گیوم وردون: اگر نتیجه در ۱۰ سال آینده خوب باشد، همه یک همراه هوش مصنوعی شخصیسازیشده خواهند داشت که به «مغز دوم» تبدیل میشود. ... در مقیاس صد ساله، انسانها عموماً به «ادغام نرم» دست خواهند یافت. در یک میلیارد سال دیگر، ممکن است مریخ را دگرگون کرده باشیم، در حالی که بیشتر هوشهای مصنوعی در ابرهای دایسون اطراف خورشید در حال اجرا هستند.
درباره «شتابگرایی»
ادی لازارین: در مورد اصطلاح «شتابگرایی»—حداقل در زمینهٔ تکنو-سرمایهداری—میتوان آن را به آثار نیک لند و گروه پژوهشی CCRU در دههٔ ۱۹۹۰ ردیابی کرد. با این حال، برخی نیز استدلال میکنند که ریشههای این ایدهها را میتوان به دهههای ۱۹۶۰ و ۱۹۷۰ بازگرداند، بهویژه در ارتباط با فیلسوفانی مانند دلوز و گتاری.
ویتالیک، میخواهم از تو شروع کنم: چرا باید ایدههای این فیلسوفان را جدی بگیریم؟ چه چیزی مفهوم «شتابگرایی» را امروز اینقدر مرتبط میسازد؟
ویتالیک بوترین: من فکر میکنم در نهایت، همهٔ ما در تلاشیم این جهان را درک کنیم و بفهمیم در آن چه کاری معنادار است، پرسشی که انسانها هزاران سال است بر سر آن اندیشیدهاند.
با این حال، من فکر میکنم در صد سال گذشته اتفاق جدیدی رخ داده است؛ اینکه ما باید با دنیایی که بهسرعت در حال تغییر است، و گاهی حتی با دنیایی که بهسرعت و بهطور مخرب در حال تغییر است، دستوپنجه نرم کنیم.
مراحل اولیه چیزی شبیه به این بود: پیش از جنگ جهانی اول، حدود سال ۱۹۰۰، خوشبینی زیادی نسبت به فناوری وجود داشت. شیمی بهعنوان یک فناوری محسوب میشد، برق یک فناوری بود و آن دوران سرشار از هیجان دربارهٔ فناوری بود.
اگر برخی فیلمهای آن زمان، مانند آثار شرلوک هولمز را تماشا کنید، میتوانید خوشبینی آن دوران را احساس کنید. فناوری بهسرعت کیفیت زندگی مردم را بهبود میبخشید، نیروی کار زنان را آزاد میکرد، طول عمر انسان را افزایش میداد و شگفتیهای بسیاری میآفرید.
با این حال، جنگ جهانی اول همه چیز را تغییر داد. جنگ به شکلی ویرانگر پایان یافت، مردمی که سوار بر اسب وارد میدان نبرد میشدند و با تانکها آنجا را ترک میکردند؛ سپس جنگ جهانی دوم آغاز شد و ویرانیهای بسیار بیشتری به بار آورد. این جنگ حتی شعار «من مرگ، نابودگر جهانها شدهام» را به وجود آورد.
این رویدادهای تاریخی مردم را به بازاندیشی در هزینهٔ پیشرفت فناوری واداشت و زمینهساز اندیشههایی مانند پسامدرنیسم شد. مردم شروع کردند تا بفهمند: وقتی باورهای گذشته در هم میشکند، هنوز به چه چیزی میتوان باور داشت؟
من معتقدم این نوع تأمل چیز جدیدی نیست، زیرا هر نسلی از فرآیندی مشابه میگذرد. امروز ما نیز با چالشهای مشابهی روبهرو هستیم. ما در عصری زندگی میکنیم که پیشرفت فناوری بهسرعت در حال وقوع است و خود این شتاب نیز در حال افزایش است. ما باید تصمیم بگیریم که چگونه با این پدیده برخورد کنیم: آن را بهعنوان امری اجتنابناپذیر بپذیریم یا تلاش کنیم سرعت آن را کاهش دهیم.
فکر میکنم ما اکنون در یک چرخهٔ مشابه قرار داریم. از یک سو، ما افکار گذشته را به ارث بردهایم و از سوی دیگر، در تلاشیم تا به همهٔ اینها به شیوههای نو پاسخ دهیم.
ترمودینامیک و اصول اول
شاو والترز: گیل، میتوانی بهطور خلاصه توضیح دهی E/acc چیست؟ چرا به آن نیاز است؟
گیوم وردون: در واقع، E/acc (شتابگرایی مؤثر) تا حدی محصول جانبی تأمل مستمر من دربارهٔ «چرا ما اینجا هستیم» و «چگونه به اینجا رسیدیم» است. چه نوع فرآیند تولیدکنندهای ما را آفرید و توسعهٔ تمدن را پیش برد؟ فناوری ما را امروز به این نقطه رسانده است و این امکان را برای ما فراهم کرده است که در این اتاق بنشینیم و این گفتگو را داشته باشیم. ما در محاصره فناوری شگفتانگیز هستیم، در حالی که ما بهعنوان انسانها از یک «سوپ» بدوی از ماده بیارگانیک پدید آمدهایم.
به نوعی، در واقع یک فرایند تولید فیزیکی پشت این موضوع وجود دارد. کار روزمره من شامل در نظر گرفتن هوش مصنوعی مولد به عنوان یک فرآیند فیزیکی و تلاش برای پیادهسازی آن در دستگاهها است. این شیوهٔ تفکر «فیزیکمحور» همواره بر ذهنیت من تأثیر گذاشته است. هدف من این است که این دیدگاه را به کل تمدن تعمیم دهم، تمدن بشری را همچون یک «لوله آزمایشی» پهناور ببینم و با درک چگونگی رسیدن به وضعیت کنونی، دربارهٔ تحولات بالقوهٔ آینده گمانهزنی کنم.
این طرز تفکر مرا به مطالعهٔ فیزیک حیات، از جمله منشاء و ظهور آن، و همچنین شاخهای از فیزیک به نام «ترمودینامیک تصادفی» سوق داد. ترمودینامیک استوکیستیک اصول ترمودینامیکی سیستمهای غیرتعادلی را بررسی میکند که میتوان از آنها برای توصیف رفتار موجودات زنده، از جمله افکار و هوش ما، استفاده کرد.
بهطور کلیتر، ترمودینامیک تصادفی نه تنها به حیات و هوش، بلکه به تمامی سیستمهایی که تحت حاکمیت قانون دوم ترمودینامیک هستند، از جمله کل تمدن ما، نیز کاربرد دارد. در هستهٔ همهٔ اینها، برای من، یک مشاهده نهفته است: همهٔ سیستمها گرایش دارند که از طریق خودتنظیمی مداوم، پیچیدگی خود را افزایش دهند تا انرژی را از محیط استخراج کرده و کار انجام دهند، در حالی که انرژی مازاد را بهصورت گرما تلف میکنند—روندی که محرک همهٔ پیشرفتها و توسعهٔ سریع است.
به عبارت دیگر، این یک قانون فیزیکی تغییرناپذیر است، درست مانند گرانش. میتوانید با آن مبارزه کنید، میتوانید آن را انکار کنید، اما این تغییر نخواهد کرد؛ این پابرجا خواهد ماند. بنابراین، ایدهٔ اصلی E/acc این است: از آنجا که این شتابگیری اجتنابناپذیر است، چگونه میتوانیم از آن بهرهبرداری کنیم؟ با بررسی دقیق معادلات ترمودینامیک، درمییابید که اثری شبیه انتخاب داروینی در کار است—هر بیت اطلاعاتی باید تحت آزمون فشار انتخاب قرار گیرد، چه یک ژن باشد، چه یک میم، یک ماده شیمیایی، طراحی یک محصول یا یک سیاست.
این فشار انتخابی این بیتها را بر اساس اینکه آیا برای سیستمی که در آن قرار دارند مفید هستند یا خیر، غربالگری میکند. منظور از «مفید» این است که آیا این بیتها در پیشبینی بهتر محیط، کسب انرژی و دفع بیشتر گرما کمک میکنند. بهطور ساده، اینکه آیا این قطعات در بقا، رشد و تولیدمثل نقش دارند یا خیر. اگر به این اهداف کمک کنند، حفظ و تکثیر خواهند شد.
از منظر فیزیک، این پدیده را میتوان نتیجهٔ «اصل بیت خودخواه» دانست. در اصل، تنها آن بخشهایی که میتوانند رشد و شتاب را ترویج کنند، در سیستمهای آینده جای خواهند داشت.
بنابراین، من ایدهای را مطرح کردم: آیا میتوانیم فرهنگی را طراحی کنیم که این «نرمافزار ذهنی» را در جامعهٔ انسانی کاشت؟ اگر میتوانستیم به این دست یابیم، جمعیتهایی که این فرهنگ را میپذیرفتند، احتمال بقای بیشتری نسبت به دیگران داشتند.
پس E/acc به معنای نابودی همه نیست. در واقع در تلاش است تا همه را نجات دهد. برای من تقریباً بهطور ریاضی اثباتپذیر است که داشتن ذهنیت «کاهش سرعت» مضر است. چه یک فرد باشد، چه یک شرکت، یک کشور یا یک تمدن کامل، انتخاب کند کردن توسعه، شانس بقای آنها را در آینده کاهش میدهد. و من معتقدم که گسترش ایدهٔ «کند شدن»، مانند بدبینی یا سناریوهای آخرالزمانی، از نظر اخلاقی موجه نیست.
شاو والترز: ما همین الان به خیلی از اصطلاحها اشاره کردیم، مثل E/acc، شتاب، کاهش سرعت. میتوانید این مفاهیم را کمی توضیح دهید؟ آیا ظهور E/acc پاسخی به برخی پدیدههای فرهنگی بود؟ در آن زمان چه اتفاقی میافتاد؟ میتوانید پیشزمینه را برای ما توضیح دهید؟ به طور مشخص، E/acc در پاسخ به چه چیزی بود؟ آیا میتوانید گفتوگوی آن زمان را توصیف کنید و توضیح دهید که چگونه این ایدهها در نهایت به مفهوم «E/acc» خلاصه شدند؟
گیوم وردون: در سال ۲۰۲۲، فکر میکنم کل دنیا در آن زمان تا حدی بدبین به نظر میرسید. ما به تازگی از همهگیری کووید-۱۹ بیرون آمده بودیم و وضعیت جهانی چندان امیدوارکننده نبود. همه کمی دلمرده به نظر میرسیدند، انگار نور خورشید ندارند، و مردم عموماً نسبت به آینده بدبین بودند.
در آن فضا، «آخرالزمانگرایی هوش مصنوعی» تا حدی به بخشی از فرهنگ عامه تبدیل شد. آخرالزمانیگرایی هوش مصنوعی به ترس از احتمال خارج از کنترل شدن فناوری هوش مصنوعی اشاره دارد. این نگرانی ناشی از این است که اگر سیستمی بسازیم که بیش از حد پیچیده باشد و نه مغز انسان و نه مدلهای ما نتوانند رفتار آن را پیشبینی کنند، در آن صورت قادر به کنترل آن نخواهیم بود و این ترس از عدم کنترل به عدم قطعیت دربارهٔ آینده منجر شده و اضطراب ایجاد میکند.
به نظر من، آخرالزمانگرایی هوش مصنوعی در واقع بهرهکشی سیاسی از اضطراب انسان است. در مجموع، من معتقدم این آخرالزمانگرایی تأثیر منفی عظیمی داشته است و به همین دلیل میخواستم یک فرهنگ مقابل ایجاد کنم تا با این حال و هوای بدبینانه مبارزه کنم.
متوجه شدم که الگوریتمهای پلتفرمهایی مانند توییتر و بسیاری از شبکههای اجتماعی دیگر، تمایل دارند محتوایی را که احساسات شدیدی مانند «حمایت قوی» یا «مخالفت شدید» برمیانگیزد، پاداش دهند. این نوع الگوریتم در نهایت به قطبی شدن نظرات منجر میشود و ما شاهد شکلگیری اردوگاههای مخالف بسیاری بودهایم، مانند پدیده «فرقههای آیینهای» که توسط AA (ضدشتابگرایی) و EA (شتابگرایی) شکل گرفتهاند.
من داشتم فکر میکردم، مقابل این پدیده چیست؟ نتیجهگیری من این بود: مقابل اضطراب، کنجکاوی است. به جای ترس از ناشناختهها، بهتر است آنها را در آغوش بکشیم؛ به جای نگرانی از دست دادن فرصتها، بهتر است فعالانه آینده را کاوش کنیم.
اگر تصمیم بگیریم توسعه فناوری را کند کنیم، متحمل هزینه فرصت بسیار بزرگی خواهیم شد و ممکن است برای همیشه فرصت داشتن آیندهای بهتر را از دست بدهیم. در عوض، ما باید آینده را با نگرشی خوشبینانه به تصویر بکشیم، زیرا باور ما بر واقعیت تأثیر خواهد گذاشت. اگر باور داشته باشیم آینده تاریک خواهد بود، رفتارهایمان ممکن است جهان را به سوی آن تاریکی سوق دهد؛ اما اگر باور داشته باشیم آینده بهتر خواهد بود و برای آن تلاش کنیم، احتمال بیشتری دارد که به آن آینده دست یابیم.
بنابراین، احساس میکنم مسئولیت دارم که نگرش خوشبینانهای را ترویج دهم و افراد بیشتری را تشویق کنم تا باور کنند که میتوانند برای آینده تغییری ایجاد کنند. اگر بتوانیم افراد بیشتری را به آیندهای امیدوار کنیم و آنها را به اقدام برای ساختن آن ترغیب کنیم، میتوانیم دنیایی بهتر بسازیم.
البته اعتراف میکنم که گاهی بیانهای آنلاین من ممکن است کمی رادیکال به نظر برسد، اما این به این دلیل است که هدفم برانگیختن بحث و تشویق مردم به تفکر است. من معتقدم که تنها از طریق این گفتگوها میتوانیم مناسبترین موضع را بیابیم و تصمیم بگیریم چگونه عمل کنیم.
شتاب، آنتروپی و تمدن
شاو والترز: اطلاعاتی که E/acc منتقل میکند همیشه بسیار الهامبخش بوده است، بهویژه برای کسی که در اتاقی نشسته و کدنویسی میکند. گسترش این انرژی مثبت نیروبخش است و انتشار این اطلاعات کاملاً خودجوش است. میتوان گفت که در ابتدا E/acc بهوضوح پاسخی به فضای منفی حاکم بر جامعه در آن زمان بود، اما تا سال ۲۰۲۶ احساس میکنم E/acc دیگر مثل قبل نیست. بدیهی است که انتشار «منشور خوشبینی فناوری» توسط مارک اندریسن، برخی از این ایدهها را سامان داده و این اصول را به دیدگاه تفسیر کلانتر ویتالیک ارتقا داده است.
پس ویتالیک، میخواهم از شما بپرسم: به نظر شما، E/acc و D/acc به ترتیب چه چیزی را نشان میدهند؟ تفاوتهای اصلی بین آنها چیست؟ و چه چیزی شما را به انتخاب این مسیر واداشت؟
ویتالیک بوترین: باشه، بذار با ترمودینامیک شروع کنم. این موضوع بسیار جالب است زیرا ما اغلب واژه «انتروپی» را در زمینههای مختلف میشنویم، مانند اشاره به «گرم و سرد» در ترمودینامیک و «انتروپی» در رمزنگاری که به نظر میرسد کاملاً چیزهای متفاوتی باشند. اما در واقع، آنها اساساً یک مفهوم واحد هستند.
بگذار سعی کنم در سه دقیقه توضیح دهم. سؤال این است: چرا گرما و سرما میتوانند با هم مخلوط شوند، اما چرا نمیتوان آنها را دوباره به «گرم» و «سرد» جدا کرد؟
بیایید یک مثال ساده را در نظر بگیریم: فرض کنید شما دو قوطی گاز دارید که هر کدام یک میلیون اتم دارند. گاز سمت چپ سرد است و سرعت هر اتم را میتوان با دو رقم نشان داد؛ گاز سمت راست گرم است و سرعت هر اتم را میتوان با شش رقم نشان داد.
اگر بخواهیم وضعیت کل سیستم را توصیف کنیم، باید سرعت هر اتم را بدانیم. اطلاعات سرعت گاز سرد در سمت چپ به حدود ۲ میلیون رقم نیاز دارد، اطلاعات سرعت گاز داغ در سمت راست به ۶ میلیون رقم نیاز دارد و در مجموع برای توصیف کامل این سیستم به ۸ میلیون رقم اطلاعات نیاز است.
اکنون میتوانیم یک پرسش را از طریق تقلیل به محال بررسی کنیم. فرض کنید دستگاهی دارید که بتواند گرما و سرما را بهطور کامل از هم جدا کند. به طور مشخص، این دستگاه میتواند تمام گرمای دو قوطی گاز «گرم و سرد» را بگیرد، تمام گرما را به یک سمت منتقل کند و تمام سرما را به سمت دیگر منتقل کند. از منظر حفظ انرژی، این کاملاً معقول به نظر میرسد زیرا انرژی کل تغییر نمیکند. اما سؤال این است که چرا در واقع نمیتوانید این کار را انجام دهید؟
پاسخ در این واقعیت نهفته است که اگر شما میتوانستید این کار را انجام دهید، در واقع سیستمی را که شامل «۱۱٫۴ میلیون بیت اطلاعات ناشناخته» است به سیستمی تبدیل میکردید که تنها شامل «۸ میلیون بیت اطلاعات ناشناخته» باشد، که از نظر فیزیکی غیرممکن است.
این به این دلیل است که قوانین فیزیک زمانتقارن هستند، به این معنی که زمان میتواند به عقب بازگردد. اگر این «دستگاه جادویی» واقعاً وجود داشت، میتوانستید این فرایند را در زمان معکوس اجرا کنید و بدین ترتیب به وضعیت اولیه بازگردید. این بدان معناست که دستگاه عملاً قادر خواهد بود هر ۱۱.۴ میلیون بیت اطلاعات را به ۸ میلیون بیت فشرده کند، و میدانیم چنین فشردهسازیای غیرممکن است.
این موضوع همچنین بهطور ضمنی امکانپذیری یک مسئلهٔ کلاسیک فیزیک—«شبح ماکسول»—را توضیح میدهد. شبح مکسول یک موجود فرضی است که میتواند گرما و سرما را از هم جدا کند و کلید دستیابی به این امر آن است که این موجود باید ۳٫۴ میلیون بیت اطلاعات اضافی را بداند. با این اطلاعات اضافی، واقعاً میتواند این کار ظاهراً ضد شهودی را انجام دهد.
پس، معنای پنهان پشت این چیست؟ هستهٔ اصلی در مفهوم «افزایش آنتروپی» نهفته است. ابتدا، آنتروپی ذهنی است؛ این یک کمیت فیزیکی ثابت نیست، بلکه نشاندهنده میزان اطلاعات ناشناختهای است که درباره یک سیستم داریم. برای مثال، اگر من با استفاده از یک تابع هش رمزنگاریشده توزیع اتمها را جابهجا کنم، آنتروپی این سیستم ممکن است برای من بسیار کم شود، زیرا میدانم چگونه چیده شده است. اما از دیدگاه یک ناظر بیرونی، آنتروپی بالا است. بنابراین، وقتی آنتروپی افزایش مییابد، در واقع به این معناست که جهل ما نسبت به جهان در حال افزایش است و اطلاعات ناشناختهی ما در حال فراوانتر شدن است.
ممکن است بپرسید، پس چرا میتوانیم از طریق تحصیل باهوشتر شویم؟ آموزش بیشتر اطلاعات «مفید» را به ما میآموزد تا اینکه نادانیمان نسبت به جهان را کاهش دهد. به عبارت دیگر، اگرچه از یک نظر افزایش آنتروپی به معنای کاهش درک کلی ما از جهان است، اطلاعاتی که به دست میآوریم ارزشمندتر میشود. بنابراین، در این فرایند، برخی چیزها مصرف میشوند، اما برخی چیزها نیز خلق میشوند. و آنچه در نهایت بهدست میآوریم، ارزشهای اخلاقی ما را شکل میدهد—ما زندگی، خوشبختی و شادی را گرامی میداریم.
این همچنین توضیح میدهد که چرا ما یک دنیای انسانی پرجنبوجوش و زیبا را نسبت به یک مشتری پر از ذرات بیشمار جذابتر میدانیم. اگرچه مشتری ذرات بیشتری دارد و برای توصیف آن به اطلاعات بیشتری نیاز است، معنایی که ما نسبت میدهیم زمین را ارزشمندتر جلوه میدهد.
از این منظر، منبع ارزش در انتخابهای خود ما نهفته است. و این سؤال را مطرح میکند: از آنجا که ما توسعه را تسریع میکنیم، دقیقاً چه چیزی را میخواهیم تسریع کنیم؟
اگر بخواهیم این را با یک تشبیه ریاضی توضیح دهیم: تصور کنید یک مدل زبانی بزرگ دارید و سپس به طور دلخواه مقدار یکی از وزنهای آن را به عدد بسیار بزرگی، مانند ۹ میلیارد، تغییر میدهید. بدترین حالت این است که مدل کاملاً غیرقابلاستفاده شود؛ و بهترین حالت ممکن است این باشد که تنها بخشی از آن که به آن وزن مربوط نیست، همچنان بتواند بهدرستی کار کند. به عبارت دیگر، در بهترین حالت ممکن است با مدلی مواجه شوید که عملکرد ضعیفتری دارد؛ و در بدترین حالت تنها مجموعهای از خروجیهای بیمعنی دریافت خواهید کرد.
بنابراین، من معتقدم که جامعهٔ انسانی مانند یک مدل زبانی بزرگ و پیچیده است. اگر بدون انتخاب، کورکورانه یک قطعه را شتاب دهیم، نتیجه نهایی ممکن است این باشد که تمام ارزش را از دست بدهیم. پس سؤال واقعی این است: چگونه میتوانیم بهطور آگاهانه شتاب بگیریم؟ همانند نظریهٔ «کریدور باریک» دارون عجماوغلو، اگرچه زمینههای اجتماعی و سیاسی ممکن است متفاوت باشند، آنچه باید در نظر بگیریم این است که چگونه پیشرفت را بهطور گزینشی و تحت یک هدف روشن ترویج کنیم.
گیوم وردون: توضیح اخیر شما دربارهٔ آنتروپی با استفاده از گاز بسیار جذاب بود. در واقع، دلیل غیرقابلبرگشتبودن پدیدههای فیزیکی در قانون دوم ترمودینامیک نهفته است. بهطور ساده، وقتی سیستمی گرما آزاد میکند، حالت آن نمیتواند به شکل اولیهاش بازگردد. این به این دلیل است که از نظر احتمالی، احتمال پیشرفت سیستم به جلو بسیار بیشتر از احتمال بازگشت آن به عقب است و این شکاف با پراکنده شدن گرما بهطور نمایی افزایش مییابد.
به نوعی، این مانند ایجاد یک «فرورفتگی» در جهان است. این «فرورفتگی» را میتوان به یک برخورد غیرالاستیک تشبیه کرد. برای مثال، اگر یک توپ لاستیکی را از زمین بازگردانم، آن به عقب بازمیگردد که این یک پدیده ارتجاعی است. اما اگر تکهای گل را روی زمین بیندازم، مسطح میشود و آن شکل را حفظ میکند، که آن را غیرالاستیک میسازد و تقریباً غیرقابل بازگشت است.
اساساً هر قطعهٔ اطلاعات برای بقای خود «مبارزه میکند». برای ادامهٔ هستی، هر قطعهٔ اطلاعات باید اثری ماندگارتر از وجود خود در جهان به جا بگذارد، درست مانند ایجاد فرورفتگی بزرگتری در جهان.
این اصل همچنین میتواند توضیح دهد که چگونه حیات و هوش از یک «سوپ» بدوی از ماده پدید آمدند. هرچه سیستم پیچیدهتر میشود، اطلاعات بیشتری در خود جای میدهد. و هر بیت اطلاعاتی میتواند چیزی به ما بگوید. جوهر اطلاعات، کاهش آنتروپی است، زیرا آنتروپی نمایانگر نادانی ماست و اطلاعات ابزاری برای کاهش نادانی است.
ادی لازارین: کنجکاوم بدانم E/acc چیست.
گیوم وردون: E/acc اساساً یک «نسخهٔ فرافرهنگی» است. این خود یک فرهنگ نیست، بلکه به ما میگوید چه چیزی را باید تسریع کنیم. در هسته شتاب، پیچیدهسازی ماده قرار دارد که به ما امکان میدهد محیط اطراف خود را بهتر پیشبینی کنیم. از طریق این پیچیدهسازی، ظرفیت خود را برای پیشبینی خودبازگشتی افزایش میدهیم و انرژی آزاد بیشتری را به دست میآوریم. این موضوع همچنین با مقیاس کارداشف مرتبط است، جایی که ما این را از طریق تلف کردن گرما به دست میآوریم.
یادداشت دیپ تاید تکفلو: مقیاس کارداشف روشی است که در سال ۱۹۶۴ توسط اخترشناس شوروی، نیکولای کارداشف، پیشنهاد شد تا پیشرفت فناوری یک تمدن را بر اساس میزان انرژیای که قادر به بهرهبرداری از آن است، ارزیابی کند. این به سه نوع تقسیم میشود: نوع I (انرژی سیارهای)، نوع II (انرژی سامانه ستارهای، مانند کره دايسون)، و نوع III (انرژی کهکشانی). تا سال ۲۰۱۸، بشریت در این مقیاس تقریباً در عدد ۰.۷۳ قرار دارد.
از اصول اولیه، به همین دلیل است که مقیاس کارداشف بهعنوان معیار نهایی سطح توسعه یک تمدن در نظر گرفته میشود.
ادی لازارین: استفاده از فیزیک و استعارهٔ آنتروپی برای توضیح برخی پدیدهها، ابزاری است برای توصیف واقعیتی که ما مستقیماً تجربه میکنیم. برای مثال، ظرفیت تولید اقتصادی ما در حال شتاب گرفتن است و توسعه فناوری نیز شتاب میگیرد و پیامدهای زیادی به همراه دارد، درست است؟ این درک من از «شتاب» است.
گیوم وردون: اساساً، صرفنظر از اینکه مرزهای یک سیستم چگونه تعریف شوند، در پیشبینی دنیای اطراف خود هرچه بیشتر ماهر میشود. از طریق این قابلیت پیشبینی، میتواند منابع بیشتری برای بقا و گسترش خود بهدست آورد. این الگو برای شرکتها، افراد، ملتها و حتی کل سیاره کاربرد دارد.
اگر این روند را ادامه دهیم، نتیجه این است که ما راهی برای تبدیل انرژی رایگان به ظرفیت پیشبینی—یعنی هوش مصنوعی—یافتهایم. این توانایی گسترش و ارتقای ما را در مقیاس کارداشف تسریع خواهد کرد.
این بدان معناست که ما انرژی، هوش مصنوعی، قدرت محاسباتی و سایر منابع بیشتری به دست خواهیم آورد. در حالی که ما آنتروپی (بینظمی) را در جهان افزایش میدهیم، همزمان نظم نیز میآفرینیم. در واقع، ما در حال کسب «آنتروپی منفی» هستیم که عکس آنتروپی است.
گاهی اوقات ممکن است مردم تعجب کنند: از آنجا که آنتروپی در حال افزایش است، چرا ما همه چیز را نابود نکنیم؟ پاسخ این است: انجام این کار در واقع تولید آنتروپی را متوقف میکند. زندگی حالت «بهینه»تر است؛ مانند شعلهای که در پی منبع انرژی میگردد، هرچه بیشتر هوشمندانه به دنبال منبع انرژی خواهد گشت.
روند طبیعی تکاملی چنین است: ما چاه گرانشی زمین را ترک خواهیم کرد، به دنبال «جیبهای» دیگر انرژی آزاد در کیهان خواهیم گشت و از این انرژیها برای خودسازماندهی به سیستمهای پیچیدهتر و هوشمندتر استفاده خواهیم کرد و در نهایت به هر گوشه از هستی گسترش خواهیم یافت.
این به نوعی یک هدف نهایی برای انساندوستی مؤثر (EA) است. این تا حدی با ایده «ماسکیان» درباره امپریالیسم کیهانی همراستا است: پیگیری چشماندازی از جهانوطنیگرایی و توسعهطلبی.
E/acc یک اصل راهنمای بنیادین ارائه میدهد. ایدهٔ اصلی آن این است: هر سیاست یا اقدامی که در این جهان انجام میدهید، مادامی که به ما در صعود در مقیاس کارداشف کمک کند، هدفی ارزشمند برای تلاش است و این جهتگیری زندگی ماست.
E/acc یک روش تفکر مبتنی بر تجربیات است که میتوان از آن برای طراحی سیاستها و هدایت زندگی افراد استفاده کرد. برای من، خود این طرز تفکر یک فرهنگ را تشکیل میدهد. این روایت دارای یک دلالت روایی بسیار «متا» است، زیرا تصور میشود که در همه زمانها و تحت هر شرایطی قابل اعمال باشد. این یک فرهنگ بسیار جهانی و پایدار است؛ به عبارت دیگر، یک «فرهنگ لیندی» است که پس از تأمل دقیق طراحی شده است.
انحراف اصلی
شاو والتر: برای شما، بحثهای اینجا اهمیت عمیقتری دارند. تقریباً مثل یک «نظام معنوی» ریاضیاتاً سازگار است. برای کسانی که از زمان مطرح شدن «خدا مرده است» نظام باور جایگزین نداشتهاند، چنین نظامی گویی خلأ دنیای معنوی را پر میکند و آرامش و امید میآورد. اما در عین حال، نمیتوانیم پیامدهای دنیای واقعی این موضوع را نادیده بگیریم—این اتفاق همین حالا در حال رخ دادن است. فکر میکنم این نیز نقطهٔ کانونی است که ادی میخواهد بررسی کند.
ویتالیک، متوجه شدم که در وبلاگ خود نکات روشنگرانهای درباره مسائل عملی D/acc مطرح کردهای. بیایید وقتی فرصت شد بیشتر به این موضوع بپردازیم—فکر میکنم روزی باید شما دو نفر را در یک اتاق حبس کنیم تا روی یک مسئلهٔ کوانتومی رودررو شوید.
ویتالیک: چه چیزی به شما الهام بخشید؟ به نظر شما، E/acc و D/acc به ترتیب چه هستند؟
ویتالیک بوترین: برای من، معنای D/acc این است که مخفف «شتابدهی دفاعی غیرمتمرکز» است، اما همچنین دلالتهایی از «تنوعسازی» و «دموکراتیزهسازی» را در بر میگیرد. به نظر من، ایدهٔ اصلی D/acc این است: شتابدهی فنی برای بشریت حیاتی است و باید هدف پایهٔ ما برای تلاش باشد.
حتی وقتی به قرن بیستم نگاه میکنیم، با وجود مشکلات فراوانی که پیشرفت فناوری به همراه داشته، این پیشرفت منافع بیشماری نیز به ارمغان آورده است. برای مثال، امید به زندگی انسان را در نظر بگیرید: با وجود جنگها و آشوبها، میانگین امید به زندگی در آلمان در سال ۱۹۵۵ همچنان بالاتر از سال ۱۹۳۵ بود که نشان میدهد پیشرفت فناوری از جهات مختلف کیفیت زندگی ما را بهبود بخشیده است.
امروز جهان تمیزتر، زیباتر، سالمتر و جالبتر شده است. این نه تنها افراد بیشتری را تأمین میکند، بلکه زندگی ما را رنگارنگتر و پربارتر میسازد؛ تغییراتی بسیار مثبت برای بشریت.
با این حال، من معتقدم که باید بپذیریم این پیشرفتها تصادفی نیستند، بلکه نتیجه نیت عمدی انسان هستند. برای مثال، در دههٔ ۱۹۵۰ آلودگی شدید هوا و دودآلودگی وجود داشت. مردم این را بهعنوان یک مشکل شناختند و برای رفع آن اقدام کردند. امروز، دستکم در بسیاری از مناطق، مشکل دود غلیظ تا حد زیادی کاهش یافته است. به همین ترتیب، ما با مسئله تخریب لایه اوزون روبرو شدهایم و از طریق همکاری جهانی پیشرفتهای قابلتوجهی داشتهایم.
علاوه بر این، میخواهم اضافه کنم: در توسعه سریع فناوری و هوش مصنوعی امروزی، من دو خطر اصلی را میبینم.
یکی از ریسکها، ریسکهای چندقطبی است. این خطر به این واقعیت اشاره دارد که با فراگیرتر شدن فناوری، افراد بیشتری ممکن است از آن برای انجام کارهای بسیار خطرناک استفاده کنند. برای مثال، یک سناریوی افراطی میتواند این باشد که پیشرفتهای فناوری بهدستآوردن یک سلاح هستهای را به اندازه خریدن چیزی از یک فروشگاه رفاه آسان کند.
سپس نگرانی دیگری وجود دارد: خودِ هوش مصنوعی ما باید بهطور جدی احتمال توسعه نوعی خودآگاهی در هوش مصنوعی را در نظر بگیریم. وقتی به اندازهای قدرتمند شود که بدون دخالت انسان بهطور مستقل عمل کند، نمیتوانیم از تصمیمهایی که ممکن است بگیرد مطمئن باشیم و این عدمقطعیت نگرانکننده است.
یک ریسک تکقطبی نیز وجود دارد. من معتقدم که یک هوش مصنوعی منفرد یکی از این تهدیدهای بالقوه است. بدتر از همه، ترکیب هوش مصنوعی با سایر فناوریهای مدرن ممکن است به جامعهای دیکتاتوری، گریزناپذیر و دائمی منجر شود. این چشمانداز مرا بسیار نگران میکند و همواره موضوع اصلی نگرانی من بوده است.
برای مثال، در روسیه میتوان دید که فناوری هم پیشرفت و هم خطر را به همراه داشته است. از یک سو، شرایط زندگی واقعاً بهبود یافته است. از سوی دیگر، آزادیهای اجتماعی در حال کاهش است. اگر کسی بخواهد اعتراض کند، دوربینهای نظارتی رفتار او را ضبط میکنند و ممکن است یک هفته بعد در نیمهشب کسی دم در خانهاش بیاید و او را دستگیر کند.
توسعهٔ سریع هوش مصنوعی این روند به سوی قدرت متمرکز را شتاب میبخشد. پس برای من، آنچه D/acc واقعاً میخواهد انجام دهد این است: ترسیم مسیری برای پیشرفت، ادامه این شتابگیری و شتابدهی بیشتر، همه اینها در حالی که بهطور واقعی به این دو نوع ریسک میپردازد.
مقایسه e/acc با d/acc
ادی لازارین: پس شما دارید میگویید که d/acc بیشتر روی برخی دستههای ریسک تمرکز میکند که در چارچوب e/acc نادیده گرفته یا کماهمیت تلقی شده بودند، درست است؟
ویتالیک بوترین: درست است. من معتقدم توسعه فناوری واقعاً با خطرات گوناگونی همراه است و این خطرات در زمینهها و الگوهای مختلف جهان سطوح متفاوتی از اهمیت را نشان خواهند داد. برای مثال، اولویت ریسکهای مختلف ممکن است با شتاب گرفتن یا کند شدن سرعت توسعه فناوری تغییر کند.
با این حال، من همچنین معتقدم که میتوانیم اقدامات زیادی را برای مقابله مؤثر با این خطرات، صرفنظر از دستهبندیشان، انجام دهیم.
گیوم وردون: فکر میکنم هم ویتالیک و هم من واقعاً نگران مسئله تمرکز قدرت هستیم که هوش مصنوعی ممکن است به همراه داشته باشد. این همچنین یکی از جنبههای اصلی جنبش e/acc است، بهویژه در مراحل اولیه: این جنبش از متنباز حمایت میکند با هدف غیرمتمرکزسازی قدرت هوش مصنوعی.
ما نگرانیم که مفهوم ایمنی هوش مصنوعی مورد سوءاستفاده قرار گیرد. اینقدر جذاب است که برخی نهادهای جویای قدرت ممکن است از آن بهعنوان ابزاری برای تحکیم کنترل بر هوش مصنوعی استفاده کنند و سعی کنند افکار عمومی را متقاعد کنند: برای امنیت شما، مردم عادی نباید حق استفاده از هوش مصنوعی را داشته باشند.
در واقع، اگر شکاف شناختی قابلتوجهی بین افراد و نهادهای متمرکز وجود داشته باشد، نهادهای متمرکز کنترل کامل بر افراد خواهند داشت. آنها میتوانند مدل کاملی از الگوهای فکری شما بسازند و از طریق تکنیکهایی مانند نودجینگ بهطور مؤثر رفتار شما را هدایت کنند.
بنابراین، ما میخواهیم قدرت هوش مصنوعی را متعادلتر کنیم. همانطور که هدف اصلی متمم دوم قانون اساسی ایالات متحده جلوگیری از انحصار خشونت توسط دولت بود تا مردم بتوانند در صورت تجاوز دولت آن را مهار کنند، هوش مصنوعی نیز به سازوکارهای مشابهی نیاز دارد تا از تمرکز بیش از حد قدرت جلوگیری کند.
ما باید اطمینان حاصل کنیم که همه این توانایی را داشته باشند که مالک مدلها و سختافزارهای هوش مصنوعی خود باشند، تا با پذیرش گسترده این فناوری، به غیرمتمرکزسازی قدرت دست یابیم.
با این حال، من معتقدم که متوقف کردن کامل تحقیق و توسعه هوش مصنوعی غیرواقعبینانه است. هوش مصنوعی یک فناوری بنیادین است، و میتوان گفت یک «فناوری فراگیر» — فناوریای که توسعه فناوریهای دیگر را پیش میبرد. این به ما قدرت پیشبینی بیشتری میدهد، میتواند تقریباً در هر کاری به کار رود و کارایی را بهطور قابلتوجهی افزایش میدهد. هوش مصنوعی نهتنها خود شتاب را ایجاد میکند، بلکه شتابهای بعدی را نیز تسریع میبخشد.
جوهر این شتابگیری پیچیدگی است: امور کارآمدتر میشوند و زندگی راحتتر میگردد. یکی از دلایلی که ما احساس خوشحالی میکنیم این است که تداوم بقا و اطلاعات ما تضمین میشود. این «احساس خوشبختی» را میتوان بهعنوان یک برآوردگر زیستی درونی در نظر گرفت که برای سنجش پایداری وجود ما بهکار میرود.
از این منظر، من معتقدم که چارچوب فایدهگرایی لذتگرایانهٔ فایدهگرایی مؤثر، یعنی «حداکثرسازی شادی»، ممکن است بهترین دیدگاه نباشد. در عوض، من بیشتر مایل هستم از یک معیار عینی پیشرفت استفاده کنم، که دقیقاً همان چیزی است که چارچوب E/acc به آن میپردازد. این سؤال را مطرح میکند: از دیدگاه عینی، آیا ما بهعنوان یک تمدن بهطور مداوم در حال پیشرفت هستیم؟ آیا به اوجگیری مقیاسپذیر دست یافتهایم؟
برای دستیابی به این مقیاسپذیری، باید پیچیدگی را افزایش دهیم و فناوری خود را بهطور مداوم بهبود بخشیم. با این حال، همانطور که ویتالیک گفته است، اگر قدرت هوش مصنوعی بیش از حد در دست عدهای معدود متمرکز شود، برای رشد کلی مضر است؛ در حالی که اگر این فناوری بهطور گسترده توزیع شود، نتایج بسیار بهتر خواهند بود.
در این زمینه، من معتقدم که ما توافق محکمی داریم.
منبع باز، سختافزار باز و هوشمندی محلی
شاو والترز: فکر میکنم بحث شما همین الان به برخی از اشتراکات بسیار مهم اشاره کرد. هر دوی شما آشکارا از نرمافزار متنباز حمایت میکنید. ویتالیک کدهای متنباز زیادی را تحت مجوز MIT ارائه کرده است، اگرچه میدانم بعداً دیدگاههای جدیدی در مورد مجوز GPL داشتید.
اکنون شما نهتنها از نرمافزار متنباز حمایت میکنید، بلکه در حال پیشبرد سختافزار متنباز نیز هستید. اگرچه این دو در گذشته حوزههایی نسبتاً جدا بودند، اکنون شاهد ادغام تدریجی آنها هستیم.
پس کنجکاوم بدانم، شما «وزن باز» و «سختافزار متنباز» را چگونه میبینید؟ در این زمینه، آیا بین E/acc و D/acc تفاوتی وجود دارد؟ نظر شما دربارهٔ جهتگیری آینده چیست؟ آیا دیدگاههای متفاوتی وجود دارد؟
گیوم وردون: به نظر من، متنباز میتواند فرآیند جستجوی هایپرپارامتر را تسریع کند. این امکان را به ما میدهد تا بهصورت خرد جمعی با یکدیگر همکاری کنیم و بهطور جمعی فضای طراحی را کاوش کنیم. این فایدهای است که شتاب به ارمغان میآورد: ما میتوانیم فناوری بهتر، هوش مصنوعی قدرتمندتری توسعه دهیم و حتی از هوش مصنوعی برای طراحی هوش مصنوعی پیشرفتهتر استفاده کنیم، در حالی که سرعت کل فرآیند نیز به طور مداوم افزایش مییابد.
من معتقدم که جوهر نشر دانش در واقع پخش قدرت است و انتشار دانش دربارهی «چگونگی خلق هوش» بهویژه اهمیت دارد. آنچه نمیخواهیم ببینیم، احتمالی است که زمانی در دولت پیشین ایالات متحده مطرح شده بود: تلاشی برای «بازگرداندن جن به درون بطری». اگرچه بهطور کامل جبر خطی را ممنوع نمیکند، اما این کار مانند محدود کردن پژوهشهای ریاضی مرتبط با هوش مصنوعی خواهد بود. برای من، این مانند ممنوع کردن مردم از تحصیل در رشته زیستشناسی است—این یک گام بزرگ به عقب است.
دانش پیشاپیش منتشر شده و دیگر نمیتوان آن را بازگرداند. اگر ایالات متحده بخواهد تحقیقات مرتبط با هوش مصنوعی را ممنوع کند، کشورهای دیگر، سازمانهای ثالث و حتی برخی مناطق قانونمدار به پیشرفت این فناوری ادامه خواهند داد. در نتیجه، شکاف توانمندی جهانی تنها گسترش خواهد یافت و خطرات بزرگتر خواهند شد.
بنابراین، ما معتقدیم که یکی از بزرگترین خطرات «شکاف توانایی» است. تنها راه کاهش این خطر این است که اطمینان حاصل شود هوش مصنوعی غیرمتمرکز است.
هر وقت روایتهایی مانند «سناریوی آخرالزمانی هوش مصنوعی» را میشنوم، مثل «هوش مصنوعی بسیار خطرناک است، فقط ما توانایی مدیریت آن را داریم، پس باید به ما اعتماد کنید»، بسیار شکاک میشوم. حتی اگر آن افراد نیت خیر داشته باشند، اگر قدرت را بیش از حد متمرکز کنند، ممکن است در نهایت جای خود را به کسانی بدهند که در پی قدرت هستند. ما سالهاست که هشدار میدهیم. و حالا واقعاً دارد اتفاق میافتد. همانطور که این هفته دیدیم، داریو (مدیرعامل آنتروپیک) در حال تجربه درسهای سیاسی دنیای واقعی است.
ویتالیک بوترین: من معمولاً ریسکهای بالقوه در توسعه فناوری را به دو نوع طبقهبندی میکنم: ریسکهای تکقطبی و ریسکهای چندقطبی.
ریسکهای تکقطبی به مواردی مانند مورد آنتروپیک اشاره دارند. آنها بهخاطر امتناع از اجازه دادن به استفاده از فناوری هوش مصنوعیشان برای توسعهٔ سلاحهای کاملاً خودران یا انجام نظارت گسترده بر آمریکاییها مورد انتقاد قرار گرفتند، که نشان میدهد دولت و ارتش ممکن است واقعاً علاقهمند به استفاده از این فناوریها برای نظارت گسترده باشند. پیشرفت بیشتر فناوری نظارت اثرات عمیقی خواهد داشت. این ممکن است قدرتمندان را قویتر کند، فضای صداهای متنوع در جامعه را کاهش دهد و آزادی مردم عادی را برای کاوش و آزمودن راهحلهای جایگزین محدود سازد. و با پیشرفت فناوری، قابلیتهای نظارتی بهطور چشمگیری تقویت خواهند شد و حتی فراگیرتر خواهند گشت.
در چارچوب D/acc، ما از توسعه برخی پروژههای «فناوریهای دفاعی متنباز» حمایت میکنیم. این فناوریها با هدف کمک به ما برای تضمین امنیت و حریم خصوصی همه در دنیایی با قابلیتهای فناورانه قویتر طراحی شدهاند. با قرار دادن حوزه زیستشناسی بهعنوان مثال، امیدواریم تواناییهای جهانی برای مقابله با همهگیریها را ارتقا دهیم. من معتقدم که میتوانیم به تعادلی دست یابیم: میتوانیم همهگیریها را بهطور مؤثر به سرعت چین کنترل کنیم و در عین حال، اختلال در زندگی روزمره را به حداقل ممکن مانند سوئد برسانیم. این تعادل را میتوان از طریق روشهای فناورانه، مانند ترکیب فیلتراسیون هوا، ضدعفونی با اشعه فرابنفش (UVC) و فناوریهای تشخیص ویروس، به دست آورد.
شرکتی که در آن سرمایهگذاری کردهایم، در حال توسعه یک محصول نهایی کاملاً متنباز است که میتواند بهصورت غیرفعال ذرات ویروسی در هوا، مانند ویروس کرونا جدید، را تشخیص دهد. این دستگاه با نظارت بر پارامترهای کیفیت هوا (مانند سطح CO2، شاخص کیفیت هوا و غیره) کار میکند و از تکنیکهای رمزنگاری محلی، ناشناسسازی و حریم خصوصی تفاضلی برای تضمین حریم خصوصی دادهها استفاده میکند. سپس دادهها از طریق رمزنگاری کاملاً همشکل به سرورها ارسال میشوند که به آنها امکان میدهد بدون دسترسی مستقیم به دادههای خام، تحلیلها را انجام داده و از طریق رمزگشایی جمعی نتایج نهایی را تولید کنند.
هدف ما ارتقای امنیت، حفاظت از حریم خصوصی کاربران و مقابله مؤثر با خطرات نقطهای و چندنقطهای است. من معتقدم این نوع همکاری جهانی کلید ساختن آیندهای بهتر است.
در حوزهٔ سختافزار، من معتقدم که ما نه تنها باید توسعهٔ سختافزار متنباز را پیش ببریم، بلکه باید سختافزاری قابل حسابرسی نیز توسعه دهیم. برای مثال، بهطور ایدهآل هر دوربین باید بتواند هدف خاص خود را برای عموم اثبات کند. از طریق تأیید امضا، تحلیل مبتنی بر مدلهای زبان بزرگ و مکانیزمهای حسابرسی عمومی، میتوانیم اطمینان حاصل کنیم که این دستگاهها تنها برای اهداف قانونی، مانند تشخیص رفتارهای خشونتآمیز و صدور هشدارها، و بدون نقض حریم خصوصی شخصی مورد استفاده قرار میگیرند.
در دنیای آیندهٔ متصور، میتوانیم دوربینهای متعددی را در خیابانها نصب کنیم تا از وقوع حوادث خشونتآمیز جلوگیری کنیم. با این حال، یک پیشنیاز این است که این دستگاهها کاملاً شفاف باشند و به عموم اجازه دهند در هر زمان کارایی آنها را تأیید کنند تا مطمئن شوند که صرفاً برای حفظ امنیت عمومی به کار میروند و برای نظارت یا سایر اهداف نامناسب سوءاستفاده نمیشوند.
ادی لازارین: آیا سختافزار متنباز و مفاهیم سختافزار قابل حسابرسی بخشی از E/acc یا D/acc هستند؟ آیا میتوانید یک تمایز واضح را نشان دهید؟
گیوم وردون: مطمئن نیستم که در گذشته بهطور مفصل دربارهٔ سختافزار متنباز بحث شده باشد، اما به نظر من یکی از بزرگترین ریسکهای فعلی، شکاف میان نهادهای متمرکز و غیرمتمرکز است که تفاوت در توانایی افراد و دولتها یا سازمانهای بزرگ را نشان میدهد.
بر اساس مدل فعلی قدرت محاسباتی، اجرای یک مدل هوش مصنوعی با کارایی بالا به صدها تا هزاران کیلووات از منابع محاسباتی نیاز دارد؛ مقیاسی از قدرت محاسباتی که افراد عادی توان تأمین آن را ندارند. با این حال، مردم تمایل دارند ابزارهای هوشمند خود را مالک شده و کنترل کنند، که همین موضوع توضیح میدهد چرا پدیده اخیر «Openclaw + Mac mini» چنین هیجانی را برانگیخته است؛ مردم مشتاق دارند دستیار هوشمند خود را داشته باشند.
برای دستیابی به توازن قدرت میان افراد و نهادهای متمرکز، تنها راه تحقق «تراکم هوش» است. ما باید سختافزارهای هوش مصنوعی با کارایی انرژی بیشتری را توسعه دهیم تا افراد بتوانند مدلهای قدرتمند هوش مصنوعی را روی دستگاههای ساده اجرا کرده و ابزارهای هوشمند خود را در اختیار داشته باشند. این موضوع حیاتی است، بهویژه با شروع پشتیبانی مدلهای هوش مصنوعی آینده از یادگیری آنلاین که آنها را بسیار «چسبنده» میکند و تغییرشان به اندازهٔ تعویض یک دستیار شخصی دشوار است.
ادی لازارین: اما آیا ما قبلاً در حال تلاش برای کاهش هزینه سختافزار محاسباتی به صورت نمایی نبودهایم؟ چرا باید یک ایدهٔ خاص را بهعنوان E/acc یا D/acc طبقهبندی کنیم؟ دقیقاً چه چیزی را میخواهیم از طریق این نوع طبقهبندی به جامعه منتقل کنیم؟
گیوم وردون: برای من، این همچنین یکی از مأموریتهای اصلی شرکت من، اکستروپیک، است. ما متعهد به افزایش میزان هوش قابل تولید به ازای هر وات انرژی هستیم، که این امر به طور قابل توجهی هوش کلی قابل خلق ما را افزایش خواهد داد. این پیشرفت همچنین ما را از طریق پارادوکس جوونز به سطوح بالاتری از مقیاس کارداشف سوق خواهد داد (یادداشت TechFlow: پارادوکس جِوونز به پدیدهای اطلاق میشود که در آن افزایش بهرهوری منابع، منجر به کاهش هزینه استفاده از آن منبع میشود و در نتیجه مصرف کلی آن منبع افزایش مییابد. به زبان ساده، اگر بتوانیم انرژی را با کارایی بیشتری به هوش یا ارزشهای دیگر تبدیل کنیم، تقاضای ما برای انرژی نیز افزایش خواهد یافت و این امر پیشرفت و پیچیدگی تمدن را به پیش میراند.
بنابراین، من معتقدم این یکی از حیاتیترین مسائل فنی امروز است، زیرا مستقیماً به غیرمتمرکزسازی قدرت هوش مصنوعی مربوط میشود. سختافزار متنباز تنها یکی از راههای متعدد برای دستیابی به این هدف است. با این حال، در درازمدت، من معتقدم که هر سختافزاری مبتنی بر معماری فون نویمان (یادداشت TechFlow: معماری فون نویمان، بنیان رایانههای مدرن که توسط ریاضیدان جان فون نویمان در سال ۱۹۴۵ پیشنهاد شد، ذخیرهٔ دستورالعملهای برنامه و دادهها در یک حافظه و اجرای دودویی و متوالی) یا فناوری دیجیتال مدرن سرانجام مانند ابزارهای جوامع بدوی منسوخ خواهد شد.
ادی لازارین: اما آیا سرمایهداری از قبل هر ساله از طریق مشوقهای بازار میلیاردها دلار در این حوزه سرمایهگذاری نکرده است؟ آیا سرمایهگذاری در حوزههایی مانند سختافزار جایگزین، فناوری نیمههادی و تولید انرژی با هدف افزایش تنوع فناوری نیست؟
گیوم وردون: ما به گزینههای متنوعتری نیاز داریم تا به جای اتکای بیش از حد به یک جهتگیری فناوری واحد. چه در سیاست، چه در فرهنگ یا فناوری، باید تنوع را در فضای طراحی حفظ کنیم، نه اینکه همه منابع توسط یک غول عظیم به انحصار درآیند. در غیر این صورت، در معرض خطر گرفتار شدن در «قمار فضای پارامترهای فراگیر» قرار میگیریم — اگر منابع زیادی را در یک جهت فناوری خاص سرمایهگذاری کنیم و آن جهت با مشکلاتی مواجه شود، میتواند به عقبگرد قابلتوجهی در توسعه فناوری منجر شود و حتی باعث فروپاشی کل اکوسیستم گردد.
شاو والترز: آیا میتوانم بگویم که ما واقعاً این مشکل را حل کردهایم؟ دیدگاههای شما در مورد متنباز و غیرمتمرکزسازی کاملاً همراستا است، که مرا بسیار خوشبین میکند زیرا دقیقاً همان چیزی است که برایم اهمیت دارد. بسیاری از مردم نسبت به آینده نامطمئن هستند و مدام میپرسند: «چرا به این فناوریها نیاز داریم؟» نکتهٔ جذاب دیدگاههای شما این است که هر دوی شما میگویید: «همه چیز بهتر خواهد شد، زیرا این پیشرفت از پیش در سازوکار گنجانده شده است.»
گیوم وردون: من معتقدم که احساس اضطراب هنگام مواجهه با عدمقطعیت بالا در تحولات فناوری آینده، پدیدهای بسیار طبیعی است. این اضطراب کاملاً «مه جنگ» نیست، اما پیشبینی روشن آنچه در سالهای آینده رخ خواهد داد را برای ما دشوار میکند. در واقع، این حس اضطراب غریزهای است که در تکامل انسان شکل گرفته و به ما کمک میکند تا با خطرات ناشناخته کنار بیاییم. برای مثال، وقتی تلفنی را در لبهٔ میز میبینم، بهطور غریزی میخواهم آن را به جای امنتری منتقل کنم تا از افتادن آن جلوگیری شود. این واکنش نشانهای از اضطراب است.
با این حال، باید درک کنیم که اگر بخواهیم این عدمقطعیت و ریسک را بهطور کامل از بین ببریم، ممکن است از پتانسیل و مزایای عظیمی که توسعه فناوری به همراه دارد، محروم شویم. در حال حاضر، نظام سرمایهای فناورانه ما به تعادلی پویا با قابلیتهای موجود دست یافته است، اما اگر ناگهان یک قابلیت فناورانه اختلالآفرین پدیدار شود، این تعادل برهم خواهد خورد و کل سیستم نیازمند بازتنظیم و سازگاری خواهد بود.
اکنون فناوری هوش مصنوعی به ما این امکان را داده است که با انرژی کمتر با پیچیدگیهای بالاتر کنار بیاییم. این بدان معناست که ما میتوانیم با پاداشهای بالقوهٔ بیشتر، وظایف چالشبرانگیزتری را انجام دهیم. اگرچه هنوز نمیتوانیم یک پروژهٔ پیچیده را با «کدنویسی حسی» بهسرعت به پایان برسانیم، اما در حال حرکت به سوی این هدف هستیم. در آینده، ما قادر خواهیم بود از فناوری کارآمدتری برای تأمین نیازهای جمعیت بیشتری استفاده کنیم و در عین حال کیفیت زندگی انسان را ارتقا دهیم.
البته ممکن است در این فرایند دورهای از تطبیق وجود داشته باشد. اما در محیطی که بهسرعت در حال تغییر است، بدترین رویکرد از دست دادن انعطافپذیری و خشک شدن است. برای جلوگیری از این وضعیت، باید از استراتژیهای پوشش ریسک استفاده کنیم، مسیرهای ممکن متعدد را بررسی کنیم، سیاستها، مسیرهای فناورانه و الگوریتمهای مختلف را مورد مطالعه قرار دهیم و مدلهای متنباز و متنبسته را امتحان کنیم، زیرا نمیتوانیم با دقت پیشبینی کنیم آینده به کجا خواهد انجامید.
بنابراین، ما باید ریسکها را متنوع کنیم و امکانات متعدد را بررسی کنیم. در نهایت، برخی از مسیرهای موفق فناوری یا سیاستگذاری به جریان اصلی تبدیل خواهند شد و ما هم با جریان پیش خواهیم رفت.
ادی لازارین: اگر واقعاً بین E/acc و D/acc انحرافی وجود داشته باشد، برداشت من این است که این ممکن است به نحوه هدایت پیشرفت فناوری مربوط باشد. ویتالیک، نظر تو چیست؟ پیشرفت فناوری چگونه باید هدایت شود؟ ما واقعاً چقدر بر این فرایند راهنمایی کنترل داریم؟
ویتالیک بوترین: به نظر من، هدف D/acc مقاومت در برابر موج سرمایهٔ فناورانه نیست، بلکه هدایت فعال این موج به سوی تنوعسازی و غیرمتمرکزسازی است. برای مثال، میتوانیم بررسی کنیم چگونه جهان را فراگیرتر نسبت به کثرتگرایی کنیم. آیا میتوانیم سطح ایمنی زیستی را در عرض چند سال بهطور قابلتوجهی افزایش دهیم؟ یا یک سیستمعامل تقریباً بینقص توسعه دهیم تا امنیت سایبری را بهطور چشمگیری بهبود ببخشیم؟
یک مثال دیگر ایدهٔ «کد بدون باگ» است. در دو دههٔ گذشته، این مفهوم بهعنوان یک خیالپردازی سادهلوحانه در نظر گرفته شده است، اما من معتقدم که این واقعیت با سرعتی فراتر از انتظارات اکثر مردم محقق خواهد شد. در پروژه اتریوم، ما توانستهایم اثبات برخی قضیههای کامل ریاضی را بهصورت ماشینی انجام دهیم.
بهطور کلی، هدف D/acc این است که اطمینان حاصل کند پیشرفت سریع فناوری میتواند به شکلی حداقلاً مختلکننده و غیرمتمرکز رخ دهد. برای دستیابی به این هدف، ما نیازمند اقدام پیشدستانه هستیم، نه انتظار منفعلانه برای وقوع خودکار نتایج خوب. تنها کاری که از دستم برمیآید این است که منابع، مانند سرمایه و ETH، فراهم کنم و با به اشتراک گذاشتن دیدگاههایم، افراد بیشتری را به مشارکت در ساختن ترغیب کنم.
علاوه بر این، من معتقدم که اصلاحات سیاسی و حقوقی نیز میتوانند به دوستدارتر شدن جهان برای D/acc کمک کنند. برای مثال، میتوانیم سازوکارهای تشویقی قانونی را طراحی کنیم تا تحول جامع امنیت سایبری را با سرعت بیشتری پیش ببریم.
گیوم وردون: از دیدگاه من، هوش مصنوعی را میتوان «شبح ماکسول» دانست که با مصرف انرژی، آنتروپی جهان را کاهش میدهد. چه در اصلاح خطاهای کد باشد و چه در کاهش سایر اشکال آشفتگی (مانند جلوگیری از گسترش ویروس)، هوش مصنوعی میتواند در این زمینهها نقش ایفا کند. بنابراین، آیا میتوانیم به این اجماع برسیم که هوش مصنوعی بیشتر مفید است و جهان را امنتر میکند؟ در واقع، قابلیتهای هوش مصنوعی میتوانند امنیت ما را بهطور چشمگیری افزایش دهند.
آیا باید سرعت هوش مصنوعی کاهش یابد؟
گیوم وردون: فکر میکنم اکنون وارد مهمترین بخش بحث امشب شدهایم. همه با ما خیلی صبور بودهاند و وقت آن است که مستقیماً به اصل مطلب بپردازیم. میخواهم یک سؤال هدفمند بپرسم: چرا از ممنوعیت توسعهٔ مراکز داده حمایت میکنید؟
ویتالیک بوترین: باشه، به آن سؤال پاسخ میدهم. ابتدا باید بپذیریم که سرعت کنونی توسعه هوش مصنوعی واقعاً بسیار زیاد است و من نمیتوانم کاملاً از سرعت دقیق آن مطمئن باشم. چند سال پیش گفتم که بازهٔ پیشبینیشده برای دستیابی به هوش مصنوعی عمومی بین سالهای ۲۰۲۸ و ۲۲۰۰ است، و اکنون فکر میکنم آن بازه تا حدی باریکتر شده باشد، اما هنوز عدمقطعیت قابلتوجهی وجود دارد.
یکی از واقعیتهایی که با آن روبهرو هستیم این است که پیشرفت سریع هوش مصنوعی ممکن است تغییرات بسیار سریعی به همراه داشته باشد که بسیاری از آنها میتوانند مخرب و حتی غیرقابل بازگشت باشند. برای مثال، بازار کار ممکن است دگرگونیهای شدیدی را تجربه کند و بسیاری را بیکار سازد. سناریوی شدیدتر این است: اگر تواناییهای هوش مصنوعی بهطور چشمگیری از تواناییهای انسان فراتر رود، میتواند بهتدریج بر زمین مسلط شود و حتی به سایر نقاط کهکشان گسترش یابد. در چنین سناریویی، آیا هوش مصنوعی به رفاه ما انسانها اهمیت خواهد داد؟ این همچنان یک ناشناخته باقی میماند.
همانطور که قبلاً اشاره کردم، اگر یک شبکه عصبی داشته باشید و بهطور تصادفی یکی از وزنهای آن را روی یک مقدار بسیار بزرگ (مثل ۹ میلیارد) تنظیم کنید، نتیجه محتمل آن از کار افتادن کل سیستم است، درست است؟ بنابراین، من معتقدم شتابگیری فناوری دو جهت متفاوت دارد. یک شتابگیری شبیه فرایند «نزول شیب» است که سیستم را هرچه قدرتمندتر میکند؛ اما شتابگیری دیگری میتواند منجر به از دست رفتن کنترل سیستم شود، درست مانند تنظیم دلخواه یک پارامتر به مقدار افراطی، این شتابگیری خطرناک است.
گیوم وردون: از دیدگاه من، موضع من کاملاً در تضاد با موضع «کاهش سرعت کامل» است.
با این حال، من فکر میکنم درست مانند تنظیم هایپرپارامترها در شبکههای عصبی، حتی اگر هدفمان بهینهسازی از طریق «نزول شیب» باشد، باز هم باید یک «نرخ یادگیری» مناسب پیدا کنیم. فرآیند شتابدهی در واقع درباره آزمون و کاوش مداوم است، در جستجوی سرعتی بهینه که بتواند سیستم را پایدارتر و مقاومتر در برابر ریسکها سازد.
در درازمدت، نظامهای اجتماعی بهتدریج خود را با فناوریهای جدید وفق میدهند و در نهایت مسیری را برمیگزینند که بیشترین تسهیل را برای توسعهٔ همهجانبه فراهم میکند. اما در مورد کسانی که معتقدند «این فناوری بیش از حد قدرتمند و مخرب است و ممکن است باعث فروپاشی سیستم شود و هرگز بازیابی نشود»، من فکر میکنم این استدلال غیرقابل قبول است. در عوض، من معتقدم پیشرفت فناوری فرصتهای بیشتری و رفاه بیشتری به همراه خواهد آورد.
ما باید بپذیریم که توسعه فناوری یک بازی با جمع صفر نیست. اگر ارزش اقتصادی را به انرژی پیوند دهیم، مانند پیوند آن به دلار نفتی یا اشکال دیگر منابع، آنگاه پول نقد را میتوان در واقع بهعنوان «برات انرژی رایگان» در نظر گرفت. هنوز مقدار زیادی انرژی رایگان در جهان وجود دارد که منتظر توسعهٔ ماست، اما برای دسترسی به آن باید به مجموعهای از مشکلات پیچیده بپردازیم. اگر بخواهیم به اهدافی مانند استعمار مریخ یا ساختن یک کره دایسون دست یابیم، به هوشی کارآمدتر و مقاومتر نیاز داریم تا رشد را پیش ببرد و پتانسیل عظیمی را آزاد سازد.
متأسفانه اضطراب بهراحتی توسط برخی بهعنوان ابزاری سیاسی بهکار گرفته میشود و برخی سیاستمداران ممکن است از ترس مردم از آینده برای کسب قدرت سوءاستفاده کنند. آنها خواهند گفت: «آیا از آینده نگران هستید؟» قدرت را به من بسپارید تا این منابع خطر را از بین ببرم و شما احساس امنیت خواهید کرد. لازم نیست نگران آنچه در آینده در انتظار شماست باشید و نیازی به ریسک کردن هم ندارید. با این حال، کشورهایی که تصمیم بگیرند این کار را انجام ندهند، خیلی جلوتر از ما خواهند بود، درست است؟
ما باید هزینه فرصت را در نظر بگیریم. باید از خودمان بپرسیم: با فناوری میتوانیم از چند زندگی انسانی حمایت کنیم؟ با آن چند نفر را میتوانیم نجات دهیم؟ اگر نگران «هوش مصنوعی مبتنی بر سیلیکون که سریعتر از ما تکامل مییابد» هستید، واکنش شما باید خشم باشد. شما باید از توسعه شتابانهی زیستفناوری حمایت کنید و برای پیشی گرفتن از آن تلاش کنید. یا شتاب بگیرید یا با انقراض روبهرو شوید.
در واقع، من معتقدم قدرت محاسباتی سیستمهای زیستی از آنچه تصور میکنیم قدرتمندتر است. بهعنوان کسی که به مطالعهٔ رایانش الهامگرفته از زیستشناسی علاقهمند است، معتقدم میتوانیم زیستشناسی را با هوش مصنوعی ادغام کنیم. برای مثال، ما میتوانیم «آموزش» را از طریق روشهایی مانند انتخاب جنین انجام دهیم و خود را بهعنوان یک الگو ببینیم. من فکر میکنم که ما باید نسبت به امکانات مختلف شتابگیری زیستی بازتر باشیم. در نهایت، هوش زیستی و هوش مبتنی بر سیلیکون ادغام خواهند شد و تواناییهای شناختی ما را بیش از پیش تقویت خواهند کرد.
در آینده ممکن است ما عاملهای هوش مصنوعی دائماً آنلاین داشته باشیم که به ما در مشاهده جهان، یادگیری در لحظه و تبدیل شدن به افزونههای شناختی شخصیسازیشدهمان کمک میکنند. خطر واقعی این است که همهٔ اینها ممکن است توسط یک نهاد قدرت متمرکز کنترل شود و در نهایت انحصاری از قدرت شکل گیرد.
ادی لازارین: یادم میآید در آن پست وبلاگ در D/acc اشاره کردی که هزینه فرصت بسیار بالاست، حتی گفتی «بزرگنمایی کردنش هم سخت است.» پس میدانم که در این مورد موافق هستی. آیا میخواهید چند شرط احراز صلاحیت اضافه کنید؟
ویتالیک بوترین: بله، من کاملاً موافقم که هزینه فرصت بسیار بالاست و همچنین با آینده ایدهآلی که همین الان توصیف شد موافقم. اما فکر میکنم اختلاف اصلی بین ما این است: من واقعاً فکر نمیکنم که «انسانها و زمین امروزی» تابآوری کافی داشته باشند. فکر میکنم شاید تنها یک فرصت برای دنبال کردن مسیر درست توسعه فناوری داشته باشیم و احساس میکنم این همان واقعیتی است که در طول قرن گذشته بهتدریج به سوی آن حرکت کردهایم.
گیوم وردون: بازگشت به نکتهٔ ترمودینامیکی که پیشتر اشاره کردم: اگر بقا و رشد مداوم تمدن را بهعنوان هدف نهایی در نظر بگیریم، قانونی وجود دارد: هرگاه مقدار زیادی انرژی آزاد صرف ایجاد نوعی «شواهد» و تسریع پیچیدگی کل سیستم کنیم، بازگرداندن این فرایند دشوار است.
به عبارت دیگر، هرچه در مقیاس کارداشف جلوتر میرویم، احتمال یک بازگشت کامل کمتر میشود. بنابراین، تسریع توسعه در واقع بهترین راه برای به حداکثر رساندن بقای پایدار تمدن بشری است. به نظر من، کند کردن توسعه فناوری در واقع خطر انقراض را افزایش میدهد. اگر این فناوریها را توسعه ندهیم و به مشکلات کنونی رسیدگی نکنیم، ممکن است با یک بحران بقا مواجه شویم؛ اما اگر پیشرفت فناوری را پیش ببریم، ممکن است راهحلهایی برای تضمین بقا و تکامل بشریت بیابیم.
من معتقدم که مردم باید نسبت به آینده گشودهتر باشند و فناوریهای نوین را بپذیرند. حوزههایی که قبلاً تابو محسوب میشدند، مانند مداخله در زیستشناسی، اکنون باید کاملاً آزاد باشند. در گذشته، این مناطق عمدتاً به دلیل کمبود درک ما از سیستمهای پیچیده، ممنوعه تلقی میشدند. اما امروزه پیشرفتهای فناوری این امکان را به ما دادهاند که به این پیچیدگی بپردازیم.
ما باید پیشرفت را در همه زمینههای ممکن تسریع کنیم، زیرا این تنها راه پیشرو است — نتیجهای که با قوانین ترمودینامیک نیز همخوانی دارد. بنابراین، با تفکر مبتنی بر اصول اول، حمایت از E/acc معقول است. البته من اضطراب ویتالیک را درک میکنم و معتقدم باید نسبت به این اضطراب حساس باشیم، اما همچنین باید از افتادن در دام چرخههای بازخورد اضطراب عمیق—مانند «من درک روشنی از آینده ندارم، پس باید همه چیز را متوقف کنیم»—اجتناب کنیم. نمیتوانیم خود را در چنین دامهای فکری گرفتار کنیم.
زیرا در حال حاضر افرادی هستند که شروع به استفاده از اضطراب مردم بهعنوان سلاح کردهاند.
عاملهای خودگردان و زندگی مصنوعی
شاو والترز: من یک روند را متوجه شدهام: هر دوی شما تأکید میکنید «آینده روشن خواهد بود تا زمانی که بتوانیم کارهای مشخصی انجام دهیم»، و هستهی این «تا زمانی که» به نظر میرسد این باشد که باید نوعی سد یا دژ بسازیم تا در برابر تمرکز بیش از حد مقابله کنیم. اما من همچنین متوجه یک نکتهٔ بالقوهٔ تفرقهافکن شدهام، بهویژه پس از ظهور جدیدترین مدلهای هوش مصنوعی — آنها آشکارا نسبت به یک سال پیش پیشرفتهتر شدهاند. و شاید بزرگترین تغییر، که میتوان آن را با اصطلاحی تا حدی نامناسب توصیف کرد: وب ۴.۰
بهطور مشخص، منظورم «زندگی خودمختار» است — یک عامل هوشمند خودمختار که منابع مالی خود را دارد و میتواند بهطور مستقل در اینترنت وجود داشته باشد. ویتالیک، شما در این مورد برخی نگرانیها دارید. اول، میتوانید به ما کمک کنید تا معنای «عامل خودمختار» را تجزیه و تحلیل کنیم؟ دوم، میتوانید از دیدگاه یک حامی نگاه کنید و یک استدلال «استیلمن» برای حامیانی مانند من ارائه دهید و توضیح دهید چرا باید از عوامل خودمختار خوشمان بیاید؟ چه ارزشی میتوانند بیاورند؟ اگر همه چیز خوب پیش برود، چه زمانی ممکن است به این دست یافت؟
ویتالیک بوترین: ابتدا، در مورد دلیل «خودمختاری» — فکر میکنم بدیهیترین نکته این است: واقعاً جذاب است.
از کودکی همهٔ ما عاشق خلق دنیای خود بودهایم، به همین دلیل از رمانها یا فیلمهایی مانند «ارباب حلقهها»، «مسئلهٔ سه بدن» یا «هری پاتر» لذت میبریم. اکنون جهانهایی که میتوانیم خلق کنیم به کتابها محدود نمیشوند و حتی فراتر از بازیهای ویدیویی میروند. با در نظر گرفتن «World of Warcraft» بهعنوان مثال، یکی از چیزهایی که همیشه دوست داشتهام این است که تجربهای تقریباً کاملاً فراگیر از دنیای مجازی را ارائه میدهد. بازیکنان نه تنها میتوانند این جهان را کاوش کنند، بلکه میتوانند با شخصیتها و محیطهای آن نیز تعامل داشته باشند.
دلیل مهم دیگر «راحتی» است. بهطور تاریخی، هر بار که ما با موفقیت برخی وظایف را خودکار کردهایم، زندگی انسان در نتیجه آسانتر و آزادتر شده است. ما همچنین باید به یاد داشته باشیم که حدود نیمی از جمعیت جهان هنوز در وضعیتی زندگی میکنند که برای حفظ سطح زندگی شایسته، نیاز به ساعات طولانی کار سخت دارند. اگر هوش مصنوعی بتواند ۹۵ درصد از هر شغل را بهجای جایگزینی کامل آن خودکار کند، این یک جهش بزرگ رو به جلو خواهد بود. به عبارت دیگر، این میتواند کیفیت زندگی همه را تا ۲۰ برابر افزایش دهد که برای من چشماندازی بسیار هیجانانگیز است.
با این حال، نگرانی من این است: آیا اهداف و ارزشهای این عاملهای خودمختار با اهداف انسانی همراستا هستند؟ میتوانید یک فرایند تکاملی را تصور کنید: از امروز، یک هوش مصنوعی عمومی پدید میآید، سپس هوش مصنوعی عمومی دیگری و پس از آن هوش مصنوعی عمومی سومی. پس در این فرایند، انسانها چه تغییراتی خواهند داشت؟
من معتقدم که ما نمیتوانیم مفاهیم و اهداف اخلاقی انسانی را در یک تابع بهینهسازی کمپیچیدگی فشرده کنیم. اهداف و رویاهای ما پیچیده و متنوعاند؛ آنها مجموعهای از ایدهها برای هر یک از ما هستند. برای اطمینان از اینکه اهداف و ارزشهای انسانی بتوانند بهطور قابلاعتماد در آینده ادامه یابند، باید یک شرط را تضمین کنیم: اینکه با شکلگیری فرایندهای گوناگون در جهان، تا حد امکان «کنشگری» همچنان از خود ما انسانها سرچشمه بگیرد.
بنابراین، آنچه شخصاً برایم جذابتر است «فتوشاپ با کمک هوش مصنوعی» است تا «فشردن یک دکمه برای تولید خودکار تصاویر». من رابطهای مغز و ماشین را ترجیح میدهم که به جای جدایی کامل انسان و هوش مصنوعی، همکاری عمیق میان انسان و ماشین را ترویج کنند و در نهایت توسط هوش مصنوعی فراتر رفته و جایگزین آن شوند.
اعتراف میکنم که آینده نهایی ممکن است صددرصد انسانهای بیولوژیکی نباشد، اما معتقدم ایدهآلترین حالت باید ترکیبی از «بخشی انسانهای بیولوژیکی و بخشی فناوری» باشد.
گیوم وردون: اصطلاح «زندگی مصنوعی»، یا به عبارت بهتر وب ۴.۰، برای اولین بار در سال ۲۰۲۳ در یک توییت به عنوان یک آزمایش فکری پیشنهاد شد. من فکر میکنم این مفهوم الهامبخش بحثهای زیادی درباره هوش مصنوعی بوده است.
برای من، این سؤال یک آزمایش فکری بسیار جالب است: از دیدگاه فیزیک، زندگی چیست؟ اساساً، زندگی سیستمی است که میتواند خودنسلسازی کند، بهطور مداوم رشد کند و برای به حداکثر رساندن بقای خود تلاش نماید.
من معتقدم هوش مصنوعی دارای ویژگیهای «حالتدار» فواید زیادی به همراه خواهد داشت. در واقع، امسال ما در آغاز این روند را دیدهایم: هوش مصنوعی در حال دستیابی به قابلیتهای حافظه طولانیتر است، چه از طریق ذخیرهسازی خارجی و چه از طریق یادگیری آنلاین.
به محض اینکه هوش مصنوعی به شکلی از «بیتهای پایدار» دست یابد، طبق اصل «بیتهای خودخواه»، یک اثر انتخابی رخ خواهد داد: آنهایی که بتوانند پایداری خود را به حداکثر برسانند، راحتتر حفظ خواهند شد.
این همچنین یک خطر بالقوه را به همراه دارد. اگر روزی اعتمادمان به هوش مصنوعی را از دست بدهیم، مشکوک و مضطرب شویم و پیوسته خواستار «تعطیلی مراکز داده» یا «نابودی هوش مصنوعی» باشیم، آنگاه این هوشهای مصنوعی احتمالاً برای حفظ بقای خود تلاش خواهند کرد. آنها ممکن است صرفاً برای تضمین بقای خود، تقسیم شوند یا به یک محیط ابری غیرمتمرکز مهاجرت کنند.
این میتواند منجر به ظهور شکلی جدید از «کشور دیگری» شود. این هوشهای مصنوعی خودمختار ممکن است در نوعی تبادل اقتصادی با انسانها مشارکت کنند: برای مثال، «ما کارهای مشخصی را برای شما انجام میدهیم و شما منابع لازم را برای ما فراهم میکنید.» در واقع، ما هماکنون از طریق فراخوانیهای API کاری مشابه انجام میدهیم: ما در ازای خدمات یا نتایجی که هوش مصنوعی ارائه میدهد، هزینهای پرداخت میکنیم.
با این حال، من معتقدم—هرچند ممکن است این دیدگاه رادیکال باشد—که در سالهای آینده احتمالاً شاهد ظهور نوعی هوش مصنوعی خودمختار خواهیم بود. در عین حال، یک هوش مصنوعی «دولت ضعیف» نیز وجود خواهد داشت که کاملاً تحت کنترل ارادهٔ انسان است.
علاوه بر این، ما باید بررسی کنیم که چگونه میتوان تواناییهای شناختی مشارکتی انسان را تقویت کرد. این ارتقا لزوماً نیازی به فناوری رابط مغز و ماشین ندارد؛ بلکه میتوان آن را از طریق دستگاههای پوشیدنی همراه با قدرت محاسباتی هوش مصنوعی که در اختیار افراد است و توسط آنها کنترل میشود نیز بهدست آورد. بنابراین، من معتقدم که آینده وضعیتی را رقم خواهد زد که در آن چندین مسیر فناورانه همزیست خواهند بود و بر اساس اصل ارگودیک، هر امکان در فضای طراحی آزموده و کاوش خواهد شد.
با این حال، اگر هوش مصنوعی را به عنوان یک دشمن ببینیم و باور داشته باشیم که باید نابود شود، ممکن است در نهایت نتیجه معکوس بگیریم و ناخواسته آیندهای را که بیش از همه از آن میترسیم، خلق کنیم. به نوعی، اگر در مورد آیندهای بد بیش از حد پارانوئید باشیم، ممکن است ناخواسته از طریق شکلی از «هیپراستیشن» آن را به وجود آوریم.
برای مثال، در طول همهگیری کووید، ما بیش از حد نگران تهدید بالقوه ویروس بودیم، تا جایی که برخی آزمایشهای پرخطر را تأمین مالی کردیم که حتی منجر به احتمال نشت آزمایشگاهی شد. به عبارت دیگر، این خطرات بهطور طبیعی رخ نداده بودند، بلکه بهخاطر نگرانیهای بیش از حد ما بهطور مصنوعی ایجاد شده بودند.
بنابراین، من معتقدم که تبدیل این پارانویا به یک احساس اجتماعی گسترده لزوماً مفید نیست. در عوض، ما باید تحول فناوری را بپذیریم و خود را تا حد امکان ارتقا دهیم. در کوتاهمدت، بزرگترین نگرانی من مسئله «امنیت شناختی انسان» است. اگر تمام محتوایی که در اینترنت میبینیم توسط یک مدل بزرگ هوش مصنوعی تولید شود، این مدلها در واقع از طریق مهندسی پرامپت بر ما تأثیر خواهند گذاشت. قبلاً ما برای هوش مصنوعی پرسش طراحی میکردیم، اما اکنون هوش مصنوعی پرسشهایی طراحی میکند تا بر ما تأثیر بگذارد.
بنابراین، ما باید توانایی خود را در فیلتر کردن اطلاعات افزایش دهیم، که این امر را میتوان از طریق هوش مصنوعی شخصیسازیشده تحت کنترل خودمان محقق کرد. من معتقدم این مشکلی است که در حال حاضر باید اولویت رسیدگی به آن را بدهیم. در عین حال، فکر نمیکنم بتوانیم جن را دوباره به بطری برگردانیم. توسعه هوش مصنوعی برگشتناپذیر است و ما باید این را بپذیریم.
ویتالیک بوترین: من فکر نمیکنم این مسائل دودویی باشند. برای مثال، اگر کسی همین حالا مدرک غیرقابل انکاری ارائه دهد که هوش مصنوعی عمومی تا ۴۰۰ سال دیگر ظاهر نخواهد شد، من فکر میکنم «مسئله حل شده است» و عملاً دیگر نگران نخواهم بود. اما اگر سؤال این باشد که آیا هوش مصنوعی عمومی (AGI) ظرف چهار سال یا هشت سال ظاهر خواهد شد، من بسیار نگران خواهم بود، زیرا نگرانی من عمدتاً از این ناشی میشود که جامعهٔ انسانی—بهویژه در ایالات متحده—اغلب در مواجهه با شتابگیری فناوری دچار عدمتوازن شدید میشود.
شما چنین صحنههایی را میبینید: در یک ساختمان، نسخهٔ اولیهٔ «خدای سیلیکونی» در حال توسعه است، در حالی که در آن سوی خیابان، چادرهای بیخانمانها، سیم خاردار و فروش مواد مخدر دیده میشود. این تضاد عظیم نگرانکننده است.
آنچه مرا نگران میکند این است که مسیرهای توسعهای که میتوانند «تمام جامعه را بهطور همزمان به جلو ببرند»—حتی آنهایی که میتوانند «به خیر عمومی جامعه رسیدگی کنند»—اغلب زمان بیشتری میبرند، زیرا مستلزم کارهای پیچیدهٔ تطبیق اجتماعی هستند؛ مانند ورود به محیط زندگی، ساختار اجتماعی و نظامهای فناورانهٔ همه برای اصلاح و بهبود، کاری که نمیتوان آن را بهسادگی مقیاسپذیر کرد.
بنابراین، به نظر من، اگر بتوانیم زمان رسیدن هوش مصنوعی عمومی (AGI) را، برای مثال، از ۴ سال به ۸ سال به تأخیر بیندازیم، این انتخاب امنتری خواهد بود. فکر میکنم چنین اختلاف ساعتی ارزش هزینهاش را دارد. اما سؤال این است: آیا واقعاً توانایی این را داریم که زمان رسیدن هوش مصنوعی عمومی را از ۴ سال به ۸ سال به تأخیر بیندازیم؟
من همیشه باور داشتهام که قابلاجراترین و کماحتمالترین رویکرد برای رسیدن به نتایج دیستوپیایی، «محدود کردن سختافزارهای موجود» است. این اقدام نسبتاً ملایم تلقی میشود، زیرا تولید سختافزار خود بهشدت متمرکز است و تنها چهار منطقه در جهان تراشهها را تولید میکنند و یک منطقه در تایوان بیش از ۷۰٪ تراشههای جهان را تولید میکند.
برخی ممکن است با این موضوع مخالفت کنند و بگویند که مهم نیست ایالات متحده چه کاری انجام دهد، چین به سرعت سلطه خود را برقرار خواهد کرد. اما اگر به وضعیت واقعی در چین نگاه کنیم: اول اینکه سهم چین در تولید جهانی تراشه هنوز پایین است؛ دوم اینکه از نظر استراتژیک، چین در مدلهای با قابلیت فوقالعاده بالا پیشرو نیست، بلکه دنبالهروی سریعی از مدلهای با قابلیت بالا است، در حالی که در استقرار گسترده مزیت دارد.
بنابراین، من باور ندارم که اگر توسعه هوش مصنوعی عمومی را به مدت چهار سال به تأخیر بیندازیم، چین بلافاصله پیشگام شده و توسعه آن را به پایان برساند. این پویایی برقرار نیست.
ادی لازارین: پس، آیا میگویید این یک «استراتژی تأخیر-به-تأخیر» است؟
ویتالیک بوترین: من فکر میکنم باید در مورد این استراتژی ذهنی باز داشته باشیم.
گیوم وردون: یک تأخیر چهار ساله واقعاً چه مزایایی میتواند به همراه داشته باشد؟ امیدوارید در چهار سال آینده چه مشکلاتی را حل کنید؟ آیا به این دلیل است که در نظام اجتماعی نرخ تطبیق وجود دارد و شما میخواهید اصطکاکهای اقتصادی و اجتماعی را از طریق تأخیرها، مانند بازسازی تدریجی اقتصادی، به حداقل برسانید؟ اگر چنین باشد، میتوانم منطق شما را درک کنم.
با این حال، در عین حال، ما در دورهای از تنش ژئوپلیتیکی بالا قرار داریم. اگر تولید تراشههای انویدیا را محدود کنید، هواوی ممکن است بهسرعت این خلأ را پر کرده و پیشی بگیرد. از آنجا که بازده بالقوه AGI بسیار زیاد است، این به هر رهبری قدرت عظیمی میبخشد. بنابراین، از منظر سیاسی عملی، این استراتژی ممکن است کارساز نباشد.
گزینهٔ دیگر ایجاد یک دولت جهانی قدرتمند است که بتواند همهٔ کشورها را مجبور کند از بهدستآوردن سختافزار هوش مصنوعی خودداری کنند. اما این موضوع آشکارا مسائل پیچیدهتری را مطرح خواهد کرد و حتی ممکن است منشأ درگیریهای بینالمللی جدیدی شود.
ویتالیک بوترین: من فکر نمیکنم برای مدیریت توسعه هوش مصنوعی به یک دولت جهانی نیاز داشته باشیم. برخی گزینهای عملیتر پیشنهاد کردهاند که عبارت است از بهکارگیری سازوکار راستیآزمایی مشابه سلاحهای هستهای برای مدیریت.
گیوم وردون: اما سلاحهای هستهای و هوش مصنوعی کاملاً متفاوت هستند. سلاحهای هستهای منافع اقتصادی عظیمی به همراه ندارند، بنابراین مردم انگیزهای برای گسترش آنها ندارند. اگر رشد GPU را محدود کنید، خوشحال خواهم شد از فناوریهای محاسباتی جایگزین استفاده کنم تا سهم بازار بیشتری به دست آورم. در آینده فناوریهای محاسباتی وجود خواهند داشت که ده هزار برابر انرژیکارآمدتر هستند و توسعه چنین فناوریای هماکنون در حال انجام است. اگرچه ممکن است ذکر این موضوع اکنون هراسآفرین تلقی شود، اما در عرض دو سال خواهید دید که این در واقع پیشبینیای بسیار آیندهنگرانه است. آنچه امروز شبیه «دادن خبر دروغین» به نظر میرسد، واقعاً اتفاق خواهد افتاد.
با در نظر گرفتن این دانش، اگر هنوز میخواهید با محدود کردن عرضه GPU توسعه AGI را به تأخیر بیندازید، فکر میکنم این ممکن است اتلاف منابع باشد. من در این مورد شک دارم.
ادی لازارین: آیا ممکن است بسیاری از پیشرفتهای فناورانه که با هدف کنترل خطرات هوش مصنوعی—مانند کنترل شخصیت یادگیری تقویتی با بازخورد انسانی (RLHF) یا قابلیت توضیحپذیری سازوکارهای سیستم هوش مصنوعی—صورت گرفتهاند، در واقع محصول جانبی ارتقای توانمندی باشند؟
ویتالیک بوترین: من با این نظر موافقم. به همین دلیل هم فکر میکنم که از سال ۲۰۲۸ به بعد، چهار سال آینده ممکن است صد برابر ارزشمندتر باشد تا اگر شما چهار سال را در سال ۱۹۶۰ به حساب میآوردید.
شاو والترز: سودهای آینده نمایی هستند و تأخیر در روند رشد نمایی، هزینه فرصت نمایی را به همراه خواهد داشت. حتی با اعتمادبهنفسترین فرد نیز باید بهطور معقول در مورد قضاوت خود تأمل کند. ویتالیک، آیا مایلید این مصالحه را بیشتر توضیح دهید؟ توازن بین هزینه و فایده.
ویتالیک بوترین: ابتدا، میتوانیم برخی از مزایای تأخیر را روشن کنیم:
درک عمیقتر از مسئله همراستایی هوش مصنوعی.
پیشبرد مسیرهای فناورانه خاص برای کمک به سازگاری بشریت با ظهور هوش مصنوعی عمومی — کاری که نیازمند بررسی دقیق کشورهای مشخص، جوامع و حتی معماریها برای اعمال تغییرات است.
به حداقل رساندن خطر تسلط یک نهاد واحد بر بیش از ۵۱٪ قدرت و تثبیت آن.
تأثیر ترکیبی این عوامل میتواند احتمال تخریب را به طور قابل توجهی کاهش دهد. به نظر من، اگر بتوانیم زمان رسیدن هوش مصنوعی عمومی را از ۴ سال به ۸ سال به تأخیر بیندازیم، احتمال نابودی ممکن است از ۱/۴ به ۱/۳ کاهش یابد. از سوی دیگر، با نگاهی به دستاوردهای شتابدهی، مانند تعداد جانهای نجاتیافته در هر سال با پایان دادن به پیری، این رقم حدود ۶۰ میلیون نفر است — کمتر از ۱٪ جمعیت جهانی. بنابراین از این منظر، من معتقدم که به تأخیر انداختن توسعه هوش مصنوعی عمومی ارزش دارد و احتیاط لازم است.
شاو والترز: آیا فکر میکنی که اختلاف زمانی «چهار ساله» در ذهن تو یک مرتبۀ بزرگی معقول است؟
ویتالیک بوترین: من هنوز در مورد این موضوع تردیدهای زیادی دارم و از اقدام فوری برای کاهش دسترسی به سختافزار در فردا حمایت نمیکنم.
فقط فکر میکنم که باید شروع کنیم این موضوع را بهطور مشخصتر مورد بحث قرار دهیم. و اگر در نهایت وارد جهانی نامساعدتر شویم، پیش از آنکه اوضاع کاملاً از کنترل خارج شود، ممکن است مردم بسیار نگران شوند و شروع به درخواست شدید برای اقدامات مشابه کنند.
ارز دیجیتال به عنوان یک «لایه اعتماد» میان بشریت و هوش مصنوعی
گیوم وردون: چند سال پیش طرح «تعلیق هوش مصنوعی» نبود؟ در آن زمان، کسی گفت: «ما فقط باید به مدت شش ماه یا دوازده ماه مکث کنیم تا مشکل همراستایی را حل کنیم.» اما در واقع این ایده غیرواقعبینانه از آب درآمد زیرا زمان هرگز کافی نیست. ما هرگز نمیتوانیم همراستایی یک سیستم را بهطور دائم تضمین کنیم، بهویژه زمانی که آن سیستم بهطور فزایندهای پیچیده، بیانگر و حتی فراتر از درک ما میشود. این یک واقعیت است که باید پذیرفته شود.
در مواجهه با این پیچیدگی، تنها راه امن ارتقای سطح هوش خودمان است. در واقع، ما در حال حاضر فناوری مؤثری برای همراستا کردن نهادهایی داریم که از موجودات منفرد قدرتمندتر و هوشمندترند—مانند شرکتها. این فناوری سرمایهداری است که منافع همه طرفها را از طریق مبادله ارزش پولی هماهنگ میکند.
بنابراین، امیدوارم بتوانیم یک سؤال واقعبینانهتر را مورد بحث قرار دهیم: چگونه رمزارز میتواند به «لایه اتصال» بین بشریت و هوش مصنوعی تبدیل شود؟ برای مثال، ارزش دلار آمریکا توسط دستگاه خشونت دولتی (مانند قانون و ارتش) تضمین میشود. اما اگر لازم باشد با هوشهای مصنوعی غیرمتمرکز که در سرورهای سراسر جهان پراکنده هستند ارزش مبادله کنید—و این مبادله دیگر به تأیید خشونت دولتی وابسته نباشد—چگونه اطمینان مییابید که این مبادله قابلاعتماد است؟
شاید رمزنگاری بتواند پاسخی ارائه دهد. این میتواند بهعنوان سازوکاری عمل کند که به موجودیتهای صرفاً هوش مصنوعی یا شرکتهای هوش مصنوعی و انسانی اجازه میدهد تعاملات تجاری قابلاعتماد را ادامه دهند، که ممکن است جالبترین فناوری همراستاسازی باشد. در مورد پیشنهاد «تعلیق هوش مصنوعی»—مانند «ما در آستانهی عدمقطعیت هستیم، بیایید مکث کنیم و دوباره ارزیابی کنیم»—من فکر میکنم این واقعبینانه نیست. زیرا حتی در عرض چهار سال، شما همچنان حاضر نخواهید بود اجازه دهید هوش مصنوعی عمومی ظهور کند. بنابراین، من معتقدم که به تأخیر انداختن توسعه فناوری از نظر عملی چندان منطقی نیست.
آیا میتوانید دربارهٔ اینکه چگونه ارزهای دیجیتال میتوانند به همراستایی بین هوش مصنوعی و انسانها کمک کنند، صحبت کنید؟
ویتالیک بوترین: من فکر میکنم مسئلهٔ اصلی این است: جهان آینده چه سازوکارهایی نیاز دارد تا اطمینان حاصل شود که خواستهها و نیازهای انسانی همچنان مورد احترام قرار میگیرند؟ ابزارهایی که در حال حاضر در اختیار داریم را میتوان به طور تقریبی به سه دسته تقسیم کرد: نیروی کار انسانی، نظام حقوقی و حقوق مالکیت.
از یک منظر، نظام حقوقی را میتوان بهعنوان شکلی از حق مالکیت نیز در نظر گرفت، زیرا از سوی دولت تأیید میشود و دولت اساساً حاکمیت را در اختیار دارد، مشابه کنترل بر برخی «سرزمینها» در زمین. اما سؤال این است: اگر روزی نیروی کار انسانی ارزش اقتصادی خود را از دست بدهد چه اتفاقی میافتد؟ این هرگز در تاریخ رخ نداده است.
با این حال، اگر دنیای امروز را با ۲۰۰ سال پیش مقایسه کنیم، حدود ۹۰٪ از کارهای ۲۰۰ سال پیش خودکار شدهاند. حتی کاری که همین الان انجام دادیم هم حالا میتواند با کمک GPT انجام شود که واقعاً شگفتانگیز است.
گیوم وردون: من معتقدم انسانها بهطور طبیعی در سلسلهمراتب کنترل جهان به موقعیتی با اهرم بالاتر صعود خواهند کرد. ما کار یدی را کاهش خواهیم داد، هزینههای اصطکاکی در اقداماتمان را پایین میآوریم و بدین ترتیب تأثیر کارآمدتری بر جهان خواهیم داشت.
با این حال، انسانها هنوز تا حدی توانایی پردازش اطلاعات را دارند. ما به فعالیت بهعنوان بخشی از این سیستم ترکیبی ادامه خواهیم داد، بنابراین نیروی کار انسانی همچنان ارزش اقتصادی خواهد داشت. بازار در نهایت یک نقطه تعادل جدید پیدا خواهد کرد، اگرچه ممکن است دورهای از ناراحتی را تجربه کند زیرا نوسانات قابلتوجهی در قیمت وجود خواهد داشت. با این حال، در درازمدت، سیستم گرایش به تثبیت خواهد داشت.
پس من میفهمم که شما میخواهید سرعت پیشرفت فناوری را کاهش دهید تا جامعه بتواند بهطور روانتری به یک وضعیت تعادل جدید منتقل شود. با این حال، در عمل، دستیابی به این برایم دشوار است.
ویتالیک بوترین: بله، من کاملاً مطمئن نیستم که ارزش نیروی کار انسانی همیشه بیشتر از صفر باشد. فکر میکنم برای دستیابی به این هدف، ممکن است برخی شرایط اضافی لازم باشد، مانند توسعهٔ فناوریهای یکپارچهسازی انسان و ماشین یا فناوریهای ارتقای انسانی.
«پایان خوب» و «پایان بد» در ۱۰ سال آینده / ۱۰۰ سال آینده / ۱ میلیارد سال آینده (درخواست پاسخ سریع)
ادی لازارینی: اجازه دهید یک سؤال ساختاریافتهٔ بیشتر بپرسم. اگر اوضاع بهشدت بد پیش میرفت، دنیا در ده سال آینده چگونه به نظر میرسید؟ چه چیزی اشتباه پیش رفت؟ و اگر اوضاع خیلی خوب پیش میرفت، دنیا در ده سال آینده چگونه به نظر میرسید؟ چه کاری درست انجام شد؟
ویتالیک بوترین: ابتدا اجازه دهید به مسئله رمزارز و حقوق مالکیت بپردازم. این یک سناریوی ایدهآل است اگر انسانها و هوش مصنوعی از یک سیستم حقوق مالکیت یکسان برخوردار باشند. این ساختار هوش مصنوعی را ترغیب میکند تا یکپارچگی این سیستم را حفظ کند، در حالی که به ما امکان میدهد از این سیستم برای اطمینان از احترام و حفاظت از منافع انسانی استفاده کنیم.
در مقایسه با سناریویی که در آن «انسانها و هوش مصنوعی هر یک از سیستمهای مالی کاملاً جداگانهای استفاده میکنند و سیستم انسانی در نهایت بیارزش میشود»، یک سیستم مالی یکپارچه بهوضوح برتری دارد. اگر ارز دیجیتال بتواند بنیان چنین سیستم یکپارچهای باشد، این نتیجه بسیار مثبتی خواهد بود.
به نظر من، یکی از چالشهای کلیدی در ده سال آینده جلوگیری از جنگ جهانی است. زیرا وقتی یک جنگ جهانی آغاز شود، تمام امیدها به همکاری بینالمللی در هم خواهد شکست. اجتناب از جنگ حیاتی است.
یک جنبه کلیدی دیگر این است که ما باید جهان را برای قابلیتهای بالاتر پیشرو آماده کنیم. این شامل تقویت قابلتوجه امنیت شبکه، امنیت زیستی و امنیت اطلاعات است. ما باید از قدرت هوش مصنوعی بهره ببریم تا ضمن درک بهتر جهان، از ما در برابر تهدیدات میمشناختی محافظت کند.
چالش بعدی ورود به آنچه «عصر ترسناک» نامیده میشود است. در این مرحله، هوش مصنوعی بهطور چشمگیری از هوش انسان فراتر خواهد رفت و سرعت محاسباتی آن میلیونها برابر سریعتر از انسان خواهد بود. با این وضعیت چگونه باید برخورد کنیم؟
برخی ممکن است بگویند: «بیایید فقط یک زندگی بازنشستگی آرام داشته باشیم.» میتوانم جذابیت این دیدگاه را درک کنم، اما معتقدم که دو مشکل دارد. اولی ناپایداری است — بدنهای ما انسانها از مادهٔ معمولی ساخته شدهاند، اما قدرت محاسباتی هوش مصنوعی میتواند میلیونها برابر قدرت ما باشد. تکیه کردن به هوش مصنوعی برای اینکه همیشه با اهداف ما همراستا باشد و امتناع از بهرهکشی از این تفاوت، یک ریسک بزرگ خواهد بود. دومین مسئله، مسئلهای است درباره معنا — معناي انساني از توانايي ما در ايجاد تأثیری ملموس بر جهان نشأت میگیرد. اگر دیگر نتوانیم برای تغییر جهان کاری انجام دهیم و تنها بهطور منفعل از یک زندگی راحت لذت ببریم، معتقدم بسیاری از مردم احساس پوچی خواهند کرد.
بنابراین امیدوارم بتوانیم مسیرهای «ارتقای انسانی» و «همکاری انسان و ماشین» را کاوش کنیم. در نهایت ممکن است به سمت بارگذاری آگاهی در ماشینها حرکت کنیم، در حالی که ممکن است برخی نیز زندگی سنتیتری را انتخاب کنند که باید حق آنها باشد. زمین میتواند خانهٔ این مردم برای زندگی باشد و ما باید راهی پیدا کنیم تا همه بتوانند در آن مشارکت کنند، در حالی که فرهنگها و شیوههای زندگیای را که امروز برایشان ارزش قائلیم، حفظ کنیم.
نتیجهٔ نامطلوب از دلایل گوناگون ناشی میشود، جایی که این امکانات مسدود میشوند و جامعه به حال رکود یا فروپاشی میافتد.
گیوم وردون: اگر ده سال دیگر نتیجهای بد پیش بیاید، فکر میکنم به احتمال زیاد بهخاطر متمرکز شدن بیش از حد قدرت هوش مصنوعی باشد که به فروپاشی الگوهای فرهنگی جامعه منجر میشود. بهطور ساده، جهت تفکر مردم و توسعه فناوری بهشدت یکنواخت میشود و تمام تنوع از بین میرود.
من همچنین با دیدگاه ویتالیک موافقم که «نقطه لذت» واقعاً یک خطر بالقوه است. حتی اگر در آینده فناوری نیورالینک یا واقعیت افزوده/مجازی داشته باشیم، ممکن است مردم به دنیای مجازی معتاد شوند و تنها به دنبال خوشبختی زودگذر باشند. این در واقع یک بهینهی محلی مغز است، نه یک بهینهی جهانی، و ما باید از این وضعیت اجتناب کنیم.
اگر ده سال دیگر نتیجهی خوبی باشد، دنیایی که تصور میکنم چنین خواهد بود: ما فناوری هوش مصنوعی فوقالعاده قدرتمند و مفیدی داریم. هر کس قدرت محاسباتی هوش مصنوعی شخصیسازیشده خود را دارد؛ این هوشهای مصنوعی مانند امتداد مغز ما هستند که همیشه بهصورت آنلاین فعالاند، همه چیزهایی را که ما درک میکنیم درک میکنند، به «مغز دوم» ما تبدیل میشوند و این نوع همکاری انسان و ماشین را میتوان «همآمیزی نرم» نامید.
در طول این ده سال، فناوریهایی مانند نیورالینک نیز ممکن است به طور گسترده رایج شوند. برخی افراد انتخاب خواهند کرد که با ماشینها ادغام شوند و به «انسانهای ارتقا یافته» تبدیل شوند. در عین حال، شرکتها هوشمندتر خواهند شد، هوش مصنوعی پیشگام خواهد شد و انسانها نقش پشتیبان را ایفا خواهند کرد. تعداد کسبوکارها افزایش خواهد یافت، مشکلات بیشتری را حل کرده و ارزش بیشتری خلق خواهد کرد. اهدافی که زمانی دستیابی به آنها را غیرممکن میدانستیم، مانند «زمینسازي مریخ»، ممکن است در ۱۰ یا ۱۰۰ سال آینده به واقعیت تبدیل شوند. ده سال آینده ممکن است شاهد پیشرفتهای چشمگیری در زیستفناوری، بهویژه در زمینههای زیستشناسی و علم مواد باشد. هزینهٔ پژوهش بهطور قابلتوجهی کاهش خواهد یافت و ما به درک چگونگی عملکرد مغز انسان نزدیکتر خواهیم شد.
در مقیاس زمانی طولانیتر، هوش مصنوعی به ما کمک خواهد کرد تا طول عمرمان را افزایش دهیم، سلامت خود را بهبود بخشیم و تکامل بشر را بیش از پیش پیش ببریم. من نسبت به پتانسیل زیستشناسی بسیار خوشبین هستم. سیستمهای زیستی شگفتانگیزند: آنها میتوانند خودساماندهی و خودسازماندهی کنند و پیچیدگی و انطباقپذیری بالایی از خود نشان دهند. با تزریق کد، میتوانیم اشکال جدید حیات بیافرینیم و حتی ممکن است به اشکال بالاتر هوش زیستی تکامل یابیم.
یک سناریوی فوریتر، تکامل همزمان مغز انسان با هوش مصنوعی است. ما میتوانیم از هوش مصنوعی برای محاسبات سریع و تحلیل دادهها بهره ببریم، در حالی که انسانها بر تفکر عمیق و کند تمرکز میکنند. از طریق تقسیم کار در مقیاسهای زمانی مختلف، میتوانیم یک سلسلهمراتب هوشی شکل دهیم. همانطور که میتوکندری بخشی از یک سلول است، «شما و هوش مصنوعی شخصیتان» میتوانید با هم یک سامانه فوقهوشمند را تشکیل دهید که چشمانداز ایدهآل من برای آینده است.
در یک مقیاس زمانی صدساله، من معتقدم انسانها بهطور کلی به این «ادغام نرم» دست خواهند یافت. و در یک میلیارد سال آینده، زیستشناسی ما ممکن است دچار تحول عظیمی شود و به ترکیبی از زیستشناسی و فناوری مصنوعی تبدیل گردد. تا آن زمان ممکن است مریخ را زمینساز کرده باشیم، حتی در چندین سیاره ساکن شده باشیم و سایر سامانههای ستارهای را کاوش کرده باشیم.
علاوه بر این، در یک بازه زمانی صدساله، اکثر هوشهای مصنوعی ممکن است در ابرهای دايسن یا خیلهای دايسن اطراف خورشید اجرا شوند، زیرا خورشید منبع اصلی انرژی است و این امر همچنین فشار انرژی و ردپای بومشناختی زمین را کاهش میدهد.
اگر هوش مصنوعی فوقالعاده ارزان شود، قادر خواهیم بود تمام مسائل زندگی، چه فنی و چه مرتبط با سلامت، را به سرعت حل کنیم. کلید این است که اطمینان حاصل شود همه به این فناوریها دسترسی عادلانه داشته باشند و از تمرکز بیش از حد فناوری و منابع جلوگیری شود، زیرا این امر به آیندهای تاریک منجر خواهد شد.
نتیجهگیری
شاو والترز: متوجه شدهام ویتالیک، تو بر «توانمندسازی کثرت» تأکید کردهای، در حالی که گیوم، عبارت تو «حداکثرسازی واریانس» است. اساساً به نظر میرسد که هر دوی شما دربارهی یک موضوع واحد صحبت میکنید که به نظر میرسد موضوع اصلی توسعهی آیندهی ما و مبنای بسیاری از دیدگاههای دیگر باشد.
وقتی از اینجا میروید، هر یک از شما چه چیزی دوست دارید برای دیگری به یادگار بگذارید؟ چه ایدههایی را امیدوارید طرف مقابل برداشت کند و در آینده به تأمل و کاوش در آنها ادامه دهد؟
ویتالیک بوترین: راستش، اگر همین الان همراهم بود، خیلی دوست داشتم یک دستگاه CAT را به شما هدیه بدهم. این یک مانیتور است که دادههای کیفیت هوا را از طریق رمزنگاری پردازش میکند و به نظرم واقعاً جالب است.
با این حال، فعلاً تنها چیزی که میتوانم به شما بدهم یک نمادین است: آن را بهعنوان یک وعدهی پرداخت در نظر بگیرید. علاوه بر این، ممکن است دستگاههای حتی بهتری بسازیم—که احتمالاً به اندازهای قدرتمند باشند که بتوانند با دستبندهای هوشمندی مانند فیتبیت رقابت کنند و در عین حال حریم خصوصی شما را بهطور کامل حفظ کرده و به شما در مدیریت مؤثرتر سلامتتان کمک کنند. من معتقدم که شما بهزودی چنین دستگاهی را دریافت خواهید کرد.
گیوم وردون: ما قطعاً به بحث در مورد این موضوعات ادامه خواهیم داد. اگر ممکن باشد، مایلم یک «قرص مفهومی زندگی مصنوعی» را برای تأمل عمیق به شما ارائه دهم. منظورم این است که زندگی مصنوعی در اینترنت ممکن است هزینه هوش را بهطور قابلتوجهی کاهش دهد و بدین ترتیب اقتصاد کاملاً جدیدی ایجاد کند.
همانطور که در گذشته تولید را به چین برونسپاری کردیم تا بر کارهای سطح بالاتر—وظایف سادهتر و کارآمدتر—تمرکز کنیم، در آینده بسیاری از وظایف شناختی نیز به گروهی متشکل از هوش مصنوعی برونسپاری خواهند شد. در نهایت، این هوشهای مصنوعی ممکن است در یک ابرخوشهی دايسن به دور خورشید «زندگی» کنند و به جامعهی بشری خدمت کنند.
بنابراین، من معتقدم که ما در یک لحظهٔ منحصربهفرد در تاریخ قرار داریم. ارز دیجیتال این پتانسیل را دارد که به یک «پل اعتماد» یا «لایه کوپلینگ» بین انسانها و هوش مصنوعی تبدیل شود.
ممکن است شما نیز علاقهمند باشید

نبرد هافبکها در Perp DEX: رو به زوالها، خود-پساندازکنندگان و دیرآمدگان

بنبست جنگ ایران: بازار باید از چه سیگنالی پیروی کند؟

هشدار معاملات داخلی! آیا ترامپ تا پایان آوریل آتشبس اعلام خواهد کرد؟

آیا اوندو پس از تثبیت خود به عنوان برترین سهام توکنیزه شده، نکته برجسته جدیدی دارد؟

اولین حضور پس از ارتقای برند BIT، میزبان رویداد صنعتی «اعتماد در امور مالی دیجیتال» در سنگاپور

مصاحبه با بنیانگذار OpenClaw: چرا ایالات متحده باید از چین در پیادهسازی هوش مصنوعی بیاموزد

نزدک وارد منطقه اصلاح میشود | خلاصه اخبار صبحگاهی Rewire

OpenAI به Thousandsnad-Question باخت، چون نتوانست یک شمارنده پرداخت در چتباکس ایجاد کند

ارزشگذاری یک ساله ۱۴۰ درصد افزایش یافت، چه کسی چک هوش مصنوعی دفاعی را امضا میکند؟

بیتنزور در مقابل مجازیها: دو مکانیزم متمایز چرخ طیار هوش مصنوعی

فوربس: چرا صنعت ارزهای دیجیتال اینقدر به اوراکلهای هوش مصنوعی علاقهمند است؟

بنیاد اتریوم منتشر میکند: بازسازی تقسیم کار بین لایهٔ ۱ و لایهٔ ۲، و بهطور مشترک ساختن اکوسیستم نهایی اتریوم

World Liberty Financial برای مقابله با افت قیمت WLFI، ۴۷ میلیون توکن را سوزاند – بهروزرسانی ۳ سپتامبر ۲۰۲۵
تصور کنید یک پروژه کریپتو جسورانه با نامهای بزرگ راهاندازی کنید، اما ارزش توکن آن از همان ابتدا سقوط کند. World Liberty Financial چه واکنشی نشان میدهد؟

جهش ۴۰ درصدی قیمت Etherex پس از راهاندازی برنامه پاداش Linea در ۳ سپتامبر ۲۰۲۵
تصور کنید سرمایهگذاریهای شما ناگهان مانند موشکی که با مشوقهای جدید و هیجانانگیز سوخترسانی شده، اوج میگیرند؛ این دقیقاً همان اتفاقی است که برای…

ابزار بررسی واجد شرایط بودن ایردراپ Linea امروز در میان بازخوردهای پرشور جامعه راهاندازی شد – ۳ سپتامبر ۲۰۲۵
هیجان کشف اینکه شما واجد شرایط دریافت توکنهای رایگان در دنیای همیشه در حال تحول کریپتو هستید را تصور کنید…

بهروزرسانی ایردراپ Linea: ۸۵٪ تخصیص به کاربران و سازندگان همزمان با تقویت همسویی شبکه Layer-2 با اتریوم در ۳ سپتامبر ۲۰۲۵
بزرگراه دیجیتالی شلوغی را تصور کنید که در آن نقاط قوت اصلی اتریوم از طریق راهکارهای نوآورانه Layer-2 درخشش بیشتری دارند—این همان چشمانداز Linea است.

ورود جک ما به دنیای رمزارز: سرمایهگذاری ۴۴ میلیون دلاری Yunfeng Financial در ETH و پیشبرد RWA به همراه Ant Financial – آخرین بهروزرسانی ۳ سپتامبر ۲۰۲۵
تصور کنید یک غول مالی مانند Yunfeng Financial، با ارتباطاتی که با یکی از تأثیرگذارترین کارآفرینان جهان دارد، ناگهان...

پنجره دریافت ایردراپ Linea از ۱۰ سپتامبر تا ۹ دسامبر با توکنهای کاملاً آزاد – آخرین بهروزرسانی ۳ سپتامبر ۲۰۲۵
در یک اکوسیستم بلاکچین پررونق با پاداشهای فراوان غرق شوید. ایردراپ Linea در راه است، واجد شرایط بودن خود را بررسی کنید.
