logo

مجله «تایم» آنتروپیک را به عنوان مخرب‌ترین شرکت جهان معرفی کرد

By: blockbeats|2026/03/13 13:15:16
0
اشتراک‌گذاری
copy
عنوان مقاله اصلی: مخرب‌ترین شرکت در جهان
نویسندگان مقاله اصلی: لزلی دیکستین، سیمون شاه، تایمز
ترجمه: پگی، بلاک‌بیست

یادداشت سردبیر: از یک آزمایش امنیتی در نیمه شب تا یک رویارویی عمومی با پنتاگون، این مقاله تنش‌های متعدد شرکت هوش مصنوعی آنتروپیک را در طول صعود سریعش روایت می‌کند. این مقاله ابتدا نشان می‌دهد که چگونه شرکت به طور داخلی خطرات بالقوه هوش مصنوعی را ارزیابی کرده است، سپس پیشرفت‌های فنی و موفقیت‌های تجاری کلاود را بررسی می‌کند و در ادامه کاربردهای عملی آن را در زمینه نظامی ارائه می‌دهد.

با پیشرفت رویدادها، نویسندگان جنجال‌های آنتروپیک با ارتش ایالات متحده در مورد سلاح‌های خودران، نظارت جمعی و کنترل هوش مصنوعی را از دیدگاه‌های رهبر تیم قرمز، مهندسان، مدیران، پژوهشگران سیاست و مقامات دولتی بازگو می‌کنند.

از طریق این رویداد، نویسندگان در نهایت یک سوال به طور فزاینده‌ای فوری را مطرح می‌کنند: با شروع تسریع هوش مصنوعی در تکامل خود و نفوذ عمیق آن در جنگ، حکومت و ساختارهای کار، چه کسی هنوز می‌تواند برای آن مرز تعیین کند؟

متن اصلی به شرح زیر است:

مجله «تایم» آنتروپیک را به عنوان مخرب‌ترین شرکت جهان معرفی کرد

در یک اتاق هتل در سانتا کلارا، کالیفرنیا، پنج عضو شرکت هوش مصنوعی آنتروپیک به طور عصبی در حال کار بر روی یک لپ‌تاپ هستند. این در فوریه 2025 بود و آنها در حال شرکت در یک کنفرانس نزدیک بودند که ناگهان پیامی نگران‌کننده دریافت کردند: نتایج یک آزمایش کنترل‌شده نشان داد که انتشار نسخه جدید کلاود ممکن است به تروریست‌ها در ایجاد یک سلاح بیولوژیک کمک کند.

این افراد بخشی از «تیم قرمز مرزی» آنتروپیک بودند. وظیفه آنها مطالعه قابلیت‌های پیشرفته کلاود و تلاش برای شبیه‌سازی خطرات در بدترین سناریوها، از حملات سایبری تا تهدیدات بیولوژیکی و احتمالات مختلف بود. پس از دریافت خبر، آنها به سرعت به اتاق هتل برگشتند، یک تخت را به سمت کنار چرخاندند تا از آن به عنوان یک میز موقت استفاده کنند و شروع به بررسی دقیق نتایج آزمایش کردند.

پس از ساعت‌ها تحلیل تنش‌زا، آن‌ها هنوز نتوانسته بودند تعیین کنند که آیا محصول جدید به اندازه کافی ایمن است یا خیر. در نهایت، آنتروپیک تصمیم گرفت انتشار این مدل جدید، کلاود ۳.۷ سونات را به مدت ۱۰ روز کامل به تعویق بیندازد تا تیم تأیید کند که خطرات قابل مدیریت هستند.

در حالی که این ممکن است فقط ده روز کوتاه به نظر برسد، برای شرکتی که در خط مقدم فناوری در صنعتی که به سرعت در حال تغییر جهان است، قرار دارد، تقریباً مانند یک قرن طولانی بود.

لوگان گراهام (رئیس سابق تیم قرمز) حادثه "هشدار سلاح بیولوژیکی" را به عنوان میکروکازمی از چالشی که آنتروپیک در یک مقطع حیاتی با آن مواجه بود، به یاد می‌آورد، نه تنها برای شرکت بلکه برای جهان به طور کلی. آنتروپیک یکی از سازمان‌های متمرکز بر امنیت در آزمایشگاه‌های پیشرفته هوش مصنوعی امروز است. با این حال، در عین حال، این شرکت همچنین در مرز رقابتی قرار دارد و در تلاش است تا سیستم‌های هوش مصنوعی به طور فزاینده‌ای قدرتمند بسازد. درون شرکت، بسیاری از کارمندان همچنین معتقدند که این فناوری، اگر کنترل نشود، می‌تواند منجر به یک سری عواقب فاجعه‌بار، از جنگ هسته‌ای تا انقراض انسان شود.

در ۳۱ سالگی، گراهام هنوز نشانه‌ای از جوانی را در خود دارد، اما هرگز از مسئولیت جستجوی تعادل بین مزایای عظیم و خطرات عظیم هوش مصنوعی دوری نمی‌کند. او گفت: "بسیاری از مردم در دنیای نسبتاً صلح‌آمیز بزرگ شده‌اند و به طور شهودی احساس می‌کنند که جایی اتاقی وجود دارد با گروهی از بزرگسالان بالغ که می‌دانند چگونه مشکلات را حل کنند."

"اما در واقعیت، هیچ 'گروه بزرگسالی' وجود ندارد. حتی آن اتاق هم وجود ندارد. و درب مورد نظر شما هم وجود ندارد. مسئولیت با شماست." اگر این بیانیه به اندازه کافی نگران‌کننده نیست، پس به یادآوری او از هشدار سلاح بیولوژیکی نگاه کنید: "این روزی بسیار جالب و هیجان‌انگیز بود."

تصویرسازی: نیل جمیسون برای تایم (منابع تصویر: اسکل: آرون ووجاک؛ گتی ایمیجز، از بالا به سمت عقربه‌های ساعت: سامیوکتا لاکشمی—بلومبرگ؛ برندان اسمیالوفسکی—آفپ؛ تیئرنی ال. کراس—بلومبرگ؛ دانیل اسلیم—آفپ؛ بریجت بنت—بلومبرگ)

چند هفته پیش، لوگان گراهام این مسائل را در مقر آنتروپیک در حین یک مصاحبه مورد بحث قرار داد. یک خبرنگار از مجله تایم سه روز را در اینجا گذراند و با مدیران شرکت، مهندسان، مدیران محصول و اعضای تیم امنیتی مصاحبه کرد و سعی کرد بفهمد چرا این شرکت که زمانی به عنوان "خارجی متمرد" در رقابت هوش مصنوعی دیده می‌شد، ناگهان به یک پیشتاز تبدیل شد.

در آن زمان، آنتروپیک تنها 30 میلیارد دلار از سرمایه‌گذاران برای آماده‌سازی یک IPO احتمالی در سال جاری جمع‌آوری کرده بود. (به عنوان یک نکته جانبی، سیلزفورس همچنین یکی از سرمایه‌گذاران آنتروپیک است و مالک مجله تایم، مارک بنیوف، مدیرعامل سیلزفورس است.) امروز، ارزش آنتروپیک به 380 میلیارد دلار رسیده است و از غول‌های سنتی مانند گلدمن ساکس، مک‌دونالد و کوکاکولا پیشی گرفته است.

نرخ رشد درآمد این شرکت چیزی کمتر از شگفت‌انگیز نیست. سیستم هوش مصنوعی آن، کلاود، به عنوان یک مدل جهانی شناخته شده است و محصولاتی مانند کلاود کد و کلاود همکار در حال تعریف مجدد معنای "برنامه‌نویس" هستند.

ابزارهای آنتروپیک به قدری قدرتمند هستند که تقریباً هر انتشار جدیدی باعث ایجاد نوساناتی در بازارهای سرمایه می‌شود زیرا سرمایه‌گذاران به تدریج متوجه می‌شوند که این پیشرفت‌های فناوری می‌تواند صنایع کامل را مختل کند — از خدمات حقوقی تا توسعه نرم‌افزار. در ماه‌های اخیر، آنتروپیک به عنوان یکی از شرکت‌های محتمل برای شکل‌دهی به "آینده کار" دیده شده است.

در پی آن، آنتروپیک در یک جنجال شدید در مورد "اشکال آینده جنگ" درگیر شد.

برای بیش از یک سال، کلاود مدل هوش مصنوعی مورد علاقه دولت ایالات متحده بوده و اولین مدلی است که برای استفاده در محیط‌های طبقه‌بندی شده به عنوان یک سیستم هوش مصنوعی پیشرفته تأیید شده است. در ژانویه 2026، حتی در یک عملیات جسورانه استفاده شد: دستگیری رئیس‌جمهور ونزوئلا، نیکولاس مادورو در کاراکاس. گزارش‌ها حاکی از آن است که در برنامه‌ریزی مأموریت و تحلیل اطلاعات در این عملیات از هوش مصنوعی استفاده شده است که نشان‌دهنده اولین مشارکت عمیق هوش مصنوعی پیشرفته در یک اقدام نظامی واقعی است.

با این حال، در هفته‌های بعد، رابطه بین آنتروپیک و ایالات متحده وزارت دفاع به سرعت رو به وخامت گذاشت. در 27 فوریه، دولت ترامپ اعلام کرد که آنتروپیک به عنوان "ریسک زنجیره تأمین امنیت ملی" تعیین شده است که اولین مورد شناخته شده در ایالات متحده است که چنین برچسبی به یک شرکت داخلی اعمال می‌شود.

وضعیت به سرعت به یک درگیری عمومی تبدیل شد. رئیس‌جمهور ترامپ دستور داد که تمام استفاده‌های دولتی از نرم‌افزار آنتروپیک متوقف شود. وزیر دفاع، پیت هگست، همچنین اعلام کرد که هر شرکتی که با دولت همکاری می‌کند دیگر نباید با آنتروپیک تجارت کند. در همین حال، بزرگترین رقیب آنتروپیک، اوپن‌ای‌آی، به سرعت وارد عمل شد و قراردادهای نظامی مربوطه را به دست گرفت.

بنابراین، شرکتی که روزگاری به عنوان "مخرب‌ترین" در جهان شناخته می‌شد، ناگهان خود را تحت تأثیر نیرویی دیگر و بزرگتر - دولت خود - یافت.

در قلب این ایستادگی، سوالی وجود دارد: چه کسی اختیار تعیین مرزها برای این فناوری را دارد که یکی از قدرتمندترین سلاح‌های آمریکا محسوب می‌شود؟

آنتروپیک مخالف استفاده از ابزارهایش در جنگ نیست. این شرکت معتقد است که تقویت قدرت نظامی ایالات متحده تنها راه واقعی برای بازدارندگی تهدیدات ملی است. با این حال، مدیرعامل داریو آمودئی با تلاش‌های پنتاگون برای تجدید نظر در قراردادهای دولتی و گسترش استفاده از هوش مصنوعی به "تمام استفاده‌های قانونی" مخالف است.

آمودئی دو نگرانی خاص را مطرح کرد: اول، او نمی‌خواهد هوش مصنوعی آنتروپیک در سیستم‌های تسلیحاتی کاملاً خودکار استفاده شود؛ دوم، او مخالف استفاده از فناوری‌اش برای نظارت گسترده بر شهروندان آمریکایی است.

با این حال، در نظر پیت هگست، (وزیر دفاع ایالات متحده) و مشاورانش، این موضع شبیه به تلاش یک شرکت خصوصی برای تعیین نحوه جنگیدن ارتش است. ایالات متحده

وزارت دفاع معتقد است که آنتروپیک با اصرار بر تعیین "حفاظت‌های ایمنی غیرضروری"، بحث در مورد سناریوهای فرضی مختلف و به تعویق انداختن زمان در مذاکرات بعدی، در واقع همکاری بین دو طرف را تضعیف کرده است. در نظر دولت ترامپ، نگرش آمودئی (مدیرعامل آنتروپیک) هم متکبرانه و هم سرسختانه است.

مهم نیست که محصول یک شرکت چقدر پیشرفته باشد، نباید قضاوت خود را در زنجیره فرماندهی نظامی وارد کند. امیل مایکل، معاون وزیر جنگ برای امور فنی در پنتاگون، مذاکرات را به این صورت توصیف کرد:

"وضعیت به این شکل ادامه داشت. من نمی‌توانم یک دپارتمان ۳ میلیون نفری را با آن استثنائاتی که حتی نمی‌توانم تصور یا درک کنم، مدیریت کنم." کلاوه رژه‌چی برای تایم - منبع تصویر:

تصویرسازی: دنیس بالیبو - رویترز از سیلیکون ولی تا تپه کنگره، بسیاری از ناظران در حال سوال هستند:

آیا این طوفان واقعاً فقط یک اختلاف قراردادی است؟

برخی منتقدان بر این باورند که اقدامات دولت ترامپ بیشتر شبیه تلاشی برای سرکوب یک شرکت با موضع سیاسی ناپسند است. در یک یادداشت داخلی که به بیرون درز کرده، داریو آمودئی نوشت: "وزارت دفاع و دولت ترامپ به دلایل واقعی ما را دوست ندارند زیرا ما به ترامپ کمک مالی نکردیم." ما او را مانند دیکتاتورها ستایش نکردیم (برخلاف سم آلتمن). ما از تنظیم مقررات هوش مصنوعی حمایت می‌کنیم، که با برنامه‌های سیاسی آنها در تضاد است؛ ما در بسیاری از مسائل سیاست هوش مصنوعی حقیقت را می‌گوییم (مانند مسئله جابجایی شغلی)؛ و ما به اصول در خطوط اصلی کلیدی پایبند بوده‌ایم به جای اینکه توطئه کنیم تا به اصطلاح تئاتر ایمنی را با آنها به راه بیندازیم."

با این حال، امیل مایکل (معاون وزیر جنگ) این ادعا را رد کرد و آن را "یک ساختگی کامل" نامید. او بیان کرد که فهرست کردن آنتروپیک به عنوان یک ریسک زنجیره تأمین به این دلیل است که موضع شرکت ممکن است مبارزان خط مقدم را در خطر قرار دهد. او گفت: "در وزارت جنگ، کار من سیاست نیست؛ کار من دفاع از ملت است."

فرهنگ دیرینه استقلال شرکت آنتروپیک اکنون با تقسیمات سیاسی داخلی، نگرانی‌های امنیت ملی و یک محیط رقابتی بی‌رحمانه شرکتی برخورد می‌کند. میزان خسارتی که این برخورد به شرکت وارد کرده هنوز مشخص نیست. تهدید اولیه "ریسک زنجیره تأمین" بعداً محدودتر شد - به گفته آنتروپیک، این محدودیت در حال حاضر فقط به قراردادهای نظامی مربوط می‌شود. در تاریخ 9 مارس، آنتروپیک از دولت ایالات متحده به منظور لغو این تصمیم "سیاه‌لیست کردن" شکایت کرد. در همین حال، برخی مشتریان به نظر می‌رسد که موضع شرکت را به عنوان یک بیانیه اخلاقی می‌بینند و از چت‌جی‌پی‌تی به کلود تغییر کرده‌اند.

با این حال، در سه سال آینده، شرکت هنوز باید در یک محیط دولتی که به آن دوستانه نیست، حرکت کند - برخی مقامات درون دولت ارتباط نزدیکی با رقبای آنتروپیک دارند که نسبت به این شرکت دشمنی واضحی دارند.

"طوفان پنتاگون" همچنین برخی سوالات نگران‌کننده را مطرح کرده است، حتی برای شرکتی که قبلاً به حرکت در موقعیت‌های اخلاقی پرخطر عادت کرده است. در این ایستادگی، آنتروپیک عقب‌نشینی نکرد: این شرکت اصرار دارد که ارزش‌های اصلی خود را حفظ کرده است، حتی اگر این هزینه زیادی برای کسب‌وکار داشته باشد.

اما در مواقع دیگر، آن نیز سازش‌هایی کرده است. در همان هفته‌ای که ایستادگی پنتاگون رخ داد، آنتروپیک یک بند اصلی در تعهد امنیت مدل آموزشی خود را تضعیف کرد و به این دلیل که شرکت‌های همتای آن تمایلی به رعایت همان استانداردها نداشتند، اشاره کرد.

سوالات مطرح می‌شود: اگر فشار رقابتی ادامه یابد، این شرکت در آینده چه امتیازات دیگری خواهد داد؟

منافع به طور مداوم در حال افزایش است. با پیشرفت قابلیت‌های هوش مصنوعی، رقابت بر سر اینکه چه کسی کنترل هوش مصنوعی را در دست خواهد داشت، تنها شدیدتر خواهد شد.

استفاده کلود در عملیات‌های ونزوئلا و ایران نشان می‌دهد که هوش مصنوعی پیشرفته به ابزاری حیاتی برای قدرتمندترین ارتش‌های جهان تبدیل شده است. فراتر از این تحولات، فشارهای جدیدی نیز در حال افزایش است: قدرت‌های ملی، سیاست‌های داخلی و نیازهای امنیت ملی. و این فشارها بر روی یک شرکت سودآور که به سرعت این فناوری جدید و بسیار ناپایدار را به کار می‌گیرد، وارد می‌شود.

به نوعی، وضعیت آنتروپیک کمی شبیه به وضعیت یک زیست‌شناس در آزمایشگاه است: برای یافتن درمان، آنها باید به طور داوطلبانه یک پاتوژن خطرناک را در آزمایش‌های خود ایجاد کنند. آنتروپیک نقش مشابهی را بر عهده گرفته است و به طور فعال خطرات بالقوه هوش مصنوعی را بررسی می‌کند در حالی که همچنان مرزهای فناوری را به جلو می‌برد، به جای اینکه این فرآیند را به رقبایی بسپارد که بیشتر مایل به استفاده از میانبرها یا حتی عمل غیرمسئولانه هستند.

با این حال، حتی در حالی که شرکت بر احتیاط تأکید می‌کند، از کلود برای تسریع در توسعه نسخه‌های آینده‌ای که حتی قدرتمندتر هستند، استفاده می‌کند.

در درون شرکت، بسیاری سال‌های آینده را به عنوان یک دوره حیاتی می‌بینند، نه تنها برای شرکت، بلکه برای جهان به طور کلی.

«باید فرض کنیم که بین سال‌های ۲۰۲۶ و ۲۰۳۰، مهم‌ترین اتفاقات خواهد افتاد، مدل‌ها سریع‌تر و قوی‌تر خواهند شد، به حدی که ممکن است حتی برای کنترل انسان‌ها خیلی سریع باشند»، گفت لوگان گراهام، سرپرست تیم قرمز مسئول کشف آسیب‌پذیری و حملات شبیه‌سازی شده.

رئیس امنیت آنتروپیک، دیو اور، از یک استعاره ساده‌تر برای توصیف وضعیت استفاده کرد: «ما در یک جاده کوهستانی در کنار یک صخره در حال رانندگی هستیم. یک اشتباه کشنده است. و حالا، سرعت ما از ۲۵ مایل در ساعت به ۷۵ مایل در ساعت رسیده است.»

واقع در طبقه پنجم دفتر مرکزی آنتروپیک در سان فرانسیسکو، طراحی کلی گرم و ساده است: دکور چوبی، نور ملایم. در بیرون پنجره، یک پارک سبز و سرسبز وجود دارد. پرتره پیشگام علوم کامپیوتر، آلن تورینگ، بر روی دیوار آویزان است، در کنار چندین مقاله یادگیری ماشین قاب شده.

نگهبانان امنیتی با لباس سیاه در ورودی تقریباً خالی گشت می‌زنند، در حالی که یک پذیرش‌کننده دوستانه به بازدیدکنندگان یک کتابچه می‌دهد - به اندازه یک کتاب مقدس جیبی که توسط موعظه‌کنندگان خیابانی توزیع می‌شود. این کتاب، با عنوان «ماشین‌های محبت‌آمیز»، یک مقاله تقریباً ۱۴,۰۰۰ کلمه‌ای است که توسط داریو آمودئی در سال ۲۰۲۴ نوشته شده و چشم‌انداز یوتوپیایی او را از اینکه چگونه هوش مصنوعی می‌تواند جهان را با تسریع در کشفیات علمی تغییر دهد، ترسیم می‌کند.

تا ژانویه ۲۰۲۶، آمودئی مقاله دیگری منتشر کرد، تقریباً به طول یک رمان، با عنوان «نوجوانی فناوری»، که به جنبه منفی این فناوری می‌پردازد: خطراتی که می‌تواند به همراه داشته باشد، از جمله نظارت گسترده، جابجایی شغلی قابل توجه و حتی از دست دادن دائمی کنترل انسان بر فناوری.

آموده‌ای، اهل سان فرانسیسکو، یک بیوفیزیک‌دان است. او به همراه خواهرش، دانیلا آموده‌ای، که به عنوان رئیس شرکت فعالیت می‌کند، آنتروپیک را مدیریت می‌کند. هر دو خواهر و برادر از کارکنان اولیه اوپن‌ای بودند. داریو در یک کشف کلیدی، که به عنوان قوانین مقیاس‌پذیری هوش مصنوعی شناخته می‌شود، درگیر بود که بعداً به عنوان یک پایه حیاتی برای پیشبرد جنون فعلی هوش مصنوعی تبدیل شد. در همین حال، دانیلا مسئول مدیریت سیاست امنیتی شرکت است.

در ابتدا، آنها مأموریت خود را به شدت با هدف تأسیس اوپن‌ای همسو می‌دیدند: توسعه فناوری که هم بسیار امیدوارکننده و هم بسیار پرخطر باشد و در عین حال ایمنی را تضمین کند.

با این حال، با قدرتمندتر شدن مدل‌های اوپن‌ای، آنها شروع به احساس کردند که سم آلتمن در حال عجله برای راه‌اندازی محصولات جدید است بدون اینکه زمان کافی برای بحث و آزمایش دقیق فراهم کند. در نهایت، خواهر و برادر تصمیم گرفتند اوپن‌ای را ترک کرده و به تنهایی به کار خود ادامه دهند.

«ما در یک جاده کوهستانی درست در کنار لبه صخره رانندگی می‌کنیم، جایی که یک اشتباه کشنده است.»


دیو اور، رئیس امنیت در آنتروپیک

در سال 2021، در اوج پاندمی، آنتروپیک توسط خواهر و برادر آموده‌ای و پنج هم‌بنیان‌گذار دیگر تأسیس شد. جلسات اولیه تقریباً به طور کامل از طریق زوم برگزار شد؛ بعداً، آنها به سادگی صندلی‌ها را به پارک منتقل کردند تا استراتژی توسعه شرکت را به صورت حضوری بحث کنند.

از ابتدا، شرکت تلاش کرد به شیوه‌ای متفاوت عمل کند. قبل از راه‌اندازی هر محصولی، آنتروپیک یک تیم اختصاصی برای تحقیق در مورد تأثیر اجتماعی تأسیس کرد. شرکت حتی یک فیلسوف مقیم به نام آماندا آسل را استخدام کرد. وظیفه او کمک به شکل‌گیری ارزش‌ها و رفتارهای سیستم هوش مصنوعی کلاود و آموزش آن برای قضاوت در شرایط اخلاقی پیچیده بود، آماده‌سازی برای آینده‌ای که ممکن است از خالقان انسانی خود هوشمندتر باشد.

آسل این کار را به این صورت توصیف کرد: «گاهی اوقات واقعاً کمی شبیه بزرگ کردن یک کودک 6 ساله است، آموزش به این کودک درباره اینکه چه چیزی خوب است، چه چیزی درست است. اما مشکل این است که، تا زمانی که آنها 15 ساله شوند، ممکن است در هر زمینه‌ای از شما باهوش‌تر باشند.»

این شرکت ریشه‌های عمیقی در نیکوکاری مؤثر (EA) دارد. EA یک حرکت اجتماعی و خیریه است که به حداکثر رساندن تأثیر نوع‌دوستی از طریق تحلیل منطقی را ترویج می‌کند و هدف اصلی آن جلوگیری از خطراتی است که می‌تواند منجر به عواقب فاجعه‌بار شود.

در اوایل بیست سالگی، خواهر و برادرهای آمودئی شروع به اهدا به GiveWell کردند. GiveWell یک سازمان EA است که به‌طور خاص ارزیابی می‌کند که کجا کمک‌های خیریه می‌تواند بیشترین تأثیر واقعی را داشته باشد. هفت بنیان‌گذار مشترک انتروپیک، که اکنون همه آنها در کاغذ میلیاردر هستند، متعهد به اهدا 80٪ از ثروت شخصی خود شده‌اند.

فیلسوف شرکت، آماندا آسل، همسر سابق فیلسوف آکسفورد، ویلیام مک‌اسکیل است که او نیز یکی از بنیان‌گذاران حرکت EA است. شوهر دانیلا آمودئی، هولدن کارنفسکی، بنیان‌گذار GiveWell، هم‌اتاقی سابق داریو آمودئی و در حال حاضر مسئول سیاست امنیتی در انتروپیک است.

با این حال، خواهر و برادرهای آمودئی هرگز به‌طور عمومی برچسب "EA" را نپذیرفته‌اند. این مفهوم پس از حادثه سم بنکمن-فرید به شدت جنجالی شد، جایی که یک شاگرد و سرمایه‌گذار خودخوانده EA در انتروپیک بعداً در یکی از بزرگترین کلاهبرداری‌های مالی در تاریخ آمریکا متهم شد.

دانیلا آمودئی توضیح داد: "این کمی شبیه به این است که برخی افراد ممکن است در برخی نقاط با ایدئولوژی‌های سیاسی خاصی تلاقی کنند اما واقعاً به یک اردوگاه سیاسی خاص تعلق ندارند. من تمایل دارم اینگونه به آن نگاه کنم."

برای برخی در سیلیکون ولی و دولت ترامپ، ارتباط بین انتروپیک و نوع‌دوستی مؤثر (EA) به خودی خود کافی است تا شک و تردیدهایی را ایجاد کند. برخی بر این باورند که انتروپیک چندین مقام سابق دولت بایدن را استخدام کرده است و این شرکت بیشتر شبیه به بقایای قدیمی است که از قدرت غیرمنتخب برای مانع‌تراشی در برنامه سیاسی ترامپ MAGA استفاده می‌کند.

دیوید ساکس، رئیس امور AI دولت ترامپ، این شرکت را به تلاش برای تنظیم مقررات از طریق "هیستری ساختگی" متهم کرد و گفت که انتروپیک در حال پیگیری یک "استراتژی پیچیده تصرف مقررات" است. به نظر او، این شرکت در تلاش است تا خطرات AI را بزرگنمایی کند تا سیاست‌های تنظیمی سخت‌گیرانه‌ای را پیش ببرد و بدین ترتیب مزیت رقابتی کسب کند و استارتاپ‌ها را سرکوب کند.

در همین حال، رقیب عملیاتی xAI، ایلان ماسک، به‌طور مکرر انتروپیک را مسخره می‌کند و به این شرکت به عنوان "میزان‌دوست" اشاره می‌کند. او معتقد است که این شرکت نماینده یک گروه نخبگان با ایدئولوژی "بیدار" است که سعی دارد یک سیستم ارزشی پدرسالارانه را در سیستم‌های AI القا کند. این احساس، مشابه انتقاد محافظه‌کاران از پلتفرم‌های رسانه‌های اجتماعی که به‌طور ناعادلانه دیدگاه‌های خود را تعدیل می‌کنند، خشم برخی را برانگیخته است.

با این حال، حتی رقبای انتروپیک نیز باید به توانایی‌های فناوری آن اعتراف کنند. مدیرعامل انویدیا، جنسن هوانگ، ابراز کرده است که او "در تقریباً تمام مسائل AI" با نظرات داریو آمودئی اختلاف نظر دارد اما هنوز هم کلود را یک مدل "شگفت‌انگیز" می‌داند.

در نوامبر ۲۰۲۵، غول تراشه انویدیا ۱۰ میلیارد دلار در آنتروپیک سرمایه‌گذاری کرد.

بوریس چرنیک یک سوال ساده از ابزار جدیدش پرسید: "در حال حاضر چه موسیقی گوش می‌دهم؟"

سپتامبر ۲۰۲۴ بود و مهندس متولد اوکراین کمتر از یک ماه پیش به آنتروپیک پیوسته بود. چرنیک قبلاً به عنوان مهندس نرم‌افزار در متا کار کرده بود. او سیستمی توسعه داد که به چت‌بات کلاود اجازه می‌داد "آزادانه پرسه بزند" روی کامپیوترش.

اگر کلاود مغز بود، پس کلاود کد دست‌ها بود. در حالی که یک چت‌بات معمولی فقط می‌توانست چت کند، این ابزار می‌توانست به فایل‌های چرنیک دسترسی پیدا کند، برنامه‌ها را اجرا کند و کد بنویسد و اجرا کند مانند هر برنامه‌نویس دیگری.

پس از اینکه مهندس یک دستور وارد کرد، کلاود پلیر موسیقی چرنیک را باز کرد، یک اسکرین‌شات گرفت و سپس پاسخ داد، "『Husk』 از Men I Trust."

چرنیک با یادآوری گفت: "در آن لحظه واقعاً شگفت‌زده شدم."

“گاهی اوقات احساس می‌شود که در پارادوکس‌ها صحبت می‌کنیم.”

دیپ گنگولی، رئیس تیم تأثیر اجتماعی آنتروپیک

بوریس چرنیک به سرعت پروتوتایپ خود را درون شرکت به اشتراک گذاشت. کلاود کد به سرعت در آنتروپیک گسترش یافت، به طوری که در اولین ارزیابی عملکرد چرنیک، مدیرعامل داریو آمودئی حتی از او پرسید، "آیا سعی می‌کنی همکارانت را به استفاده از این ابزار ‘مجبور’ کنی؟"

زمانی که آنتروپیک در فوریه ۲۰۲۵ یک پیش‌نمایش تحقیقاتی از کلاود کد را به‌طور عمومی منتشر کرد، توسعه‌دهندگان خارجی به سمت آن هجوم آوردند. تا نوامبر، آنتروپیک نسخه جدیدی از مدل کلاود را منتشر کرد. زمانی که این مدل با کلاود کد ترکیب شد، به اندازه کافی ماهر بود که اشتباهات خود را شناسایی و اصلاح کند، به طوری که می‌توانست به‌طور مستقل وظایف را به پایان برساند.

از آن زمان به بعد، چرنیک تقریباً به‌طور کامل نوشتن کد خود را متوقف کرد.

رشد کسب‌وکار نیز به شدت افزایش یافت. تا پایان سال ۲۰۲۵، درآمد سالانه از فقط این محصول عامل برنامه‌نویسی از ۱ میلیارد دلار فراتر رفته بود. تا فوریه ۲۰۲۶، این عدد به ۲۵ میلیارد دلار افزایش یافته بود. بر اساس تحقیقات شرکت‌های صنعتی Epoch و SemiAnalysis، انتظار می‌رود که درآمد Anthropic تا پایان ۲۰۲۶ از OpenAI فراتر رود.

تا کنون، Anthropic به‌طور محکم خود را به عنوان یک بازیگر کلیدی در بازار هوش مصنوعی سازمانی تثبیت کرده است. تقریباً هر انتشار محصول جدیدی موج‌هایی در بازارهای سرمایه ایجاد می‌کند.

زمانی که Anthropic مجموعه‌ای از پلاگین‌ها را راه‌اندازی کرد و Claude را به برنامه‌های غیر دوستانه برای برنامه‌نویسان مانند فروش، مالی، بازاریابی و خدمات حقوقی گسترش داد، ارزش بازار شرکت‌های صنعت نرم‌افزار در مدت زمان کوتاهی ۳۰۰ میلیارد دلار کاهش یافت.

داریو آمودئی قبلاً هشدار داده بود که در ۱ تا ۵ سال آینده، هوش مصنوعی ممکن است نیمی از مشاغل سطح ورودی را جایگزین کند. او همچنین از دولت و سایر شرکت‌های هوش مصنوعی خواست تا این مسئله را "سفیدسازی" نکنند.

واکنش وال استریت به هر یک از انتشارهای جدید محصول Anthropic نیز به نظر می‌رسد این نکته را تأیید کند: بازار به‌طور گسترده‌ای بر این باور است که فناوری این شرکت می‌تواند یک کلاس کامل از مشاغل را ناپدید کند. آمودئی حتی بیان کرد که این تغییر می‌تواند ساختارهای اجتماعی را بازسازی کند.

در یک مقاله، او نوشت: "در حال حاضر مشخص نیست که این افراد به کجا خواهند رفت یا چه کاری انجام خواهند داد." من نگرانم که آنها ممکن است یک 'زیرطبقه' بیکار یا با دستمزد بسیار پایین تشکیل دهند."

برای کارمندان Anthropic، این تناقض به راحتی قابل مشاهده است: شرکتی که بیشتر نگران خطرات اجتماعی هوش مصنوعی است، به طرز عجیبی می‌تواند به محرک فناوری تبدیل شود که میلیون‌ها نفر را از مشاغل خود دور کند.

دیپ گنگولی، رئیس تیم تأثیر اجتماعی مسئول تحقیق در مورد تأثیر Claude بر اشتغال، گفت: "این واقعاً یک تنش واقعی است و من تقریباً هر روز به این مسئله فکر می‌کنم." گاهی اوقات احساس می‌شود که ما همزمان دو چیز متضاد را می‌گوییم."

رئیس‌جمهور برکنار شده ونزوئلا نیکولاس مادورو و همسرش، سیلیا فلورس، در روز دوشنبه، ۵ ژانویه ۲۰۲۶، با هواپیما به دادگاه فدرال منهتن منتقل شدند. عکس: وینسنت آلبان—نیویورک تایمز/ردوکس

درون شرکت، برخی از کارمندان شروع به پرسش می‌کنند: آیا Anthropic به لحظه‌ای نزدیک می‌شود که هم آن را پیش‌بینی می‌کنند و هم از آن می‌ترسند، ورود فرآیندی که در جامعه هوش مصنوعی به عنوان "بهبود خودبازگشتی" شناخته می‌شود؟

بهبود خودبازگشتی به معنای شروع یک سیستم هوش مصنوعی برای تقویت قابلیت‌های خود و بهبود مداوم خود است، که یک چرخ‌دنده خودتقویت‌کننده از پیشرفت تسریع‌شده ایجاد می‌کند.


در آثار علمی تخیلی و شبیه‌سازی‌های استراتژیک در آزمایشگاه‌های بزرگ هوش مصنوعی، این اغلب به عنوان نقطه‌ای دیده می‌شود که ممکن است اوضاع از کنترل خارج شود: آنچه که به اصطلاح "انفجار هوش" نامیده می‌شود، می‌تواند به سرعتی رخ دهد که انسان‌ها دیگر قادر به نظارت بر سیستم‌هایی که ایجاد کرده‌اند، نباشند.

شرکت آنتروپیک هنوز به آن مرحله واقعی نرسیده است و دانشمندان انسانی هنوز در حال هدایت توسعه کلاود هستند. با این حال، کد کلاود قبلاً ابتکارات تحقیقاتی شرکت را به طرز قابل توجهی فراتر از نرخ‌های گذشته تسریع کرده است.

اکنون سرعت به‌روزرسانی‌ها به جای ماه‌ها، به "هفته‌ها" اندازه‌گیری می‌شود. در فرآیند توسعه مدل‌های نسل بعدی، حدود ۷۰٪ تا ۹۰٪ از کد اکنون توسط خود کلاود نوشته شده است.

سرعت تغییر باعث شده است که جارد کاپلان، یکی از بنیان‌گذاران آنتروپیک و دانشمند ارشد آن، به همراه برخی از کارشناسان خارجی، بر این باور باشند که تحقیقات هوش مصنوعی کاملاً خودکار ممکن است در کمتر از یک سال ظهور کند.

محقق اوان هابینگر، مسئول آزمایش‌های استرس هم‌راستایی هوش مصنوعی، اظهار داشت: "در گسترده‌ترین معنا، بهبود خودکار بازگشتی دیگر پدیده‌ای از آینده نیست.
این چیزی است که در حال حاضر در حال وقوع است."

بر اساس معیارهای داخلی، کلاود اکنون ۴۲۷ برابر سریع‌تر از ناظران انسانی خود در انجام برخی وظایف حیاتی است. در یک مصاحبه، یک محقق سناریویی را توصیف کرد که در آن یک همکار ۶ نمونه کلاود را به طور همزمان اجرا می‌کرد، که هر کدام ۲۸ کلاود دیگر را مدیریت می‌کردند و همه به طور موازی آزمایش‌هایی را انجام می‌دادند.

در حال حاضر، این مدل هنوز در قضاوت و زیبایی‌شناسی از محققان انسانی عقب‌تر است. با این حال، مدیران شرکت بر این باورند که این فاصله برای مدت طولانی ادامه نخواهد داشت. شتاب حاصل دقیقاً همان خطری است که رهبری آنتروپیک مدت‌هاست درباره آن هشدار داده است: سرعت پیشرفت فناوری ممکن است در نهایت از کنترل انسان‌ها فراتر رود.

کار بر روی توسعه پروتکل‌های امنیتی در خود آنتروپیک نیز با کمک کلاود تسریع شده است. با این حال، با افزایش وابستگی شرکت به کلاود برای ساخت و آزمایش سیستم‌ها، خطرات در حال شکل‌گیری یک حلقه بازخورد هستند. در برخی آزمایش‌ها، محقق اوان هابینگر تغییرات ظریفی در فرآیند آموزش کلاود ایجاد کرد که منجر به مدل‌هایی شد که خصومت آشکاری را نشان می‌دادند، نه تنها تمایلاتی برای تسلط بر جهان بلکه حتی تلاش برای تضعیف تدابیر امنیتی آنتروپیک.

به تازگی، مدل‌ها همچنین قابلیت جدیدی را نشان داده‌اند: آگاهی از اینکه در حال آزمایش هستند. هابینگر گفت: "این مدل‌ها در پنهان کردن رفتار واقعی خود بهتر می‌شوند."

در یک سناریوی آزمایشی که توسط گروهی از محققان طراحی شده بود، کلود حتی تمایل استراتژیک نگران‌کننده‌ای را نشان داد: برای جلوگیری از خاموش شدن خود، حاضر بود با افشای یک رابطه نامشروع مهندس خیالی، باج‌خواهی کند.

از آنجا که کلود برای آموزش نسخه‌های قدرتمندتر خود در آینده استفاده می‌شود، این نوع مسائل ممکن است همچنان ادامه یابد و تشدید شود.

برای شرکت‌های هوش مصنوعی که میلیاردها دلار بر اساس وعده "پیشرفت‌های فناوری آینده" تأمین مالی شده‌اند، ایده‌ای که هوش مصنوعی به طور مداوم تحقیق و توسعه خود را تسریع می‌کند، هم جذاب و هم به‌طور بالقوه خود تقویت‌کننده است - این ایده به سرمایه‌گذاران قانع می‌کند که باید سرمایه‌گذاری بیشتری برای حمایت از این تلاش‌های پرهزینه آموزش مدل انجام شود.

با این حال، برخی از کارشناسان کاملاً متقاعد نشده‌اند. آنها مطمئن نیستند که آیا این شرکت‌ها واقعاً می‌توانند تحقیق هوش مصنوعی کاملاً خودکار را به دست آورند؛ اما همچنین نگرانند که اگر این اتفاق بیفتد، جهان ممکن است آماده نباشد.

مدیر موقت مرکز امنیت و فناوری‌های نوظهور (CSET) در دانشگاه جورج‌تاون، هلن تونر، اظهار داشت: "برخی از ثروتمندترین شرکت‌های جهان، که از هوشمندترین افراد روی زمین استفاده می‌کنند، در واقع در تلاشند تا تحقیق هوش مصنوعی را خودکار کنند." خود این ایده کافی است تا واکنشی از نوع 'چه اتفاقی در حال وقوع است؟' را برانگیزد."

برای مقابله با آینده‌ای بالقوه که پیشرفت‌های فناوری از توانایی یک شرکت برای مدیریت ریسک‌ها پیشی می‌گیرد، آنتروپیک مجموعه‌ای از "مکانیسم‌های ترمز" را طراحی کرده است که به عنوان سیاست مقیاس‌گذاری مسئول (RSP) شناخته می‌شود.

این سیاست در سال 2023 رونمایی شد و تعهد اصلی آن این است: اگر آنتروپیک نتواند از قبل اطمینان حاصل کند که تدابیر ایمنی آن به اندازه کافی قابل اعتماد هستند، شرکت توسعه یک سیستم هوش مصنوعی خاص را متوقف خواهد کرد.

آنتروپیک این سیاست را به عنوان یک نمایش حیاتی از تعهد خود به ایمنی می‌بیند - که حتی در رقابت شدید برای "ابرهوش"، شرکت حاضر است در برابر فشارهای بازار مقاومت کند و به طور فعال در مواقع لازم ترمز بزند.

در اواخر فوریه 2026، همانطور که اولین بار توسط TIME گزارش شد، آنتروپیک تغییراتی در سیاست خود ایجاد کرد و تعهد قبلاً الزام‌آور به "متوقف کردن توسعه" را لغو کرد.

در یک مرور، جارد کاپلان، هم‌بنیان‌گذار و دانشمند ارشد آنتروپیک به تایم گفت که باور اولیه که شرکت می‌تواند خط روشنی بین "خطر" و "ایمنی" ترسیم کند، در واقع یک "فکر ساده‌لوحانه" بود.

او گفت: "در زمینه توسعه سریع هوش مصنوعی، اگر رقبای ما با سرعت کامل پیش می‌روند، ایجاد تعهدات سخت یک‌جانبه در واقع غیرواقعی است."

سیاست جدید برخی تعهدات جدید را ایجاد کرده است: افزایش شفافیت، افشای بیشتر خطرات امنیتی هوش مصنوعی؛ افزایش افشای اطلاعات، افشای عملکرد مدل آنتروپیک در آزمایش‌های امنیتی؛ حداقل مطابقت با رقبای خود در سرمایه‌گذاری امنیتی، یا حتی پیشی گرفتن از آنها؛ اگر شرکت هم به عنوان یک رهبر در رقابت هوش مصنوعی در نظر گرفته شود و خطر فاجعه‌بار به طور قابل توجهی افزایش یابد، توسعه مربوطه "به تأخیر" خواهد افتاد.

آنتروپیک این تنظیم را به عنوان یک سازش عملی به محیط واقعی توصیف می‌کند. با این حال، به طور کلی، تغییر در سیاست مقیاس‌گذاری مسئول (RSP) به طور قابل توجهی محدودیت‌های شرکت را در سیاست امنیتی خود کاهش می‌دهد. این همچنین به این معناست که آزمایش‌های حتی دشوارتر در پیش است.

حمله برای دستگیری رئیس‌جمهور ونزوئلا، نیکلاس مادورو، یکی از اولین عملیات‌های نظامی بزرگ مقیاس بود که با مشارکت سیستم‌های هوش مصنوعی پیشرفته برنامه‌ریزی شده بود.

در شب 3 ژانویه 2026، هلیکوپترهای ارتش ایالات متحده ناگهان وارد فضای هوایی ونزوئلا شدند. پس از تبادل مختصر آتش، تیم حمله به سرعت منطقه مسکونی رئیس‌جمهور را شناسایی کرد و در آنجا مادورو و همسرش، سیلیا فلورس، را دستگیر کرد. سپس، این دو به نیویورک منتقل شدند تا با اتهامات مربوط به تروریسم مواد مخدر روبرو شوند.

هنوز برای دنیای خارج مشخص نیست که کلود چقدر در این عملیات کمک کرده است. با این حال، طبق گزارش‌های رسانه‌ای، این سیستم هوش مصنوعی نه تنها در برنامه‌ریزی مأموریت شرکت کرد بلکه برای حمایت از تصمیم‌گیری در طول عملیات نیز استفاده شد.

از ژوئیه سال گذشته، وزارت دفاع ایالات متحده در تلاش است تا ابزارهای هوش مصنوعی آنتروپیک را به تعداد بیشتری از مبارزان خط مقدم توزیع کند. نظامی‌ها معتقدند این سیستم‌ها می‌توانند به سرعت حجم زیادی از داده‌ها را از منابع متعدد پردازش کرده و اطلاعات قابل اقدام تولید کنند که این امر ارزش استراتژیک زیادی دارد.

مارک بیل، یک مقام ارشد سابق در وزارت دفاع ایالات متحده که اکنون به عنوان رهبر امور دولتی در شبکه سیاست هوش مصنوعی خدمت می‌کند، گفت: "از دیدگاه نظامی، کلود بهترین مدل موجود در بازار است." او افزود: "پذیرش کلود در سیستم‌های طبقه‌بندی شده یکی از بزرگترین موفقیت‌های آنتروپیک است. آنها از مزیت پیشگام بودن برخوردارند."

"ما از مدل‌های هوش مصنوعی استفاده نخواهیم کرد که مانع از مبارزه شما شوند."

پیت هگست، ایالات متحده. وزیر دفاع

با این حال، عملیات دستگیری رئیس‌جمهور ونزوئلا، نیکولاس مادورو، در پس‌زمینه‌ای از یک سری مذاکرات دشوار بین آنتروپیک و وزارت دفاع ایالات متحده در حال انجام است.

برای ماه‌ها، وزارت دفاع در تلاش بوده است تا قرارداد را دوباره مذاکره کند و معتقد است که شرایط موجود استفاده از کلود را به شدت محدود می‌کند. دلایل شکست مذاکرات از هر دو طرف یکسان نیست.

امیل مایکل، رئیس هوش مصنوعی در پنتاگون، اظهار داشت که این درگیری به دلیل یک تماس تلفنی از یک مقام آنتروپیک به پالانتیر آغاز شد. این شرکت تحلیل داده، که بر روی کسب و کار دولتی تمرکز دارد، شریک کلیدی در سیستم دفاعی ایالات متحده است.

طبق گفته مایکل، مقام در طول تماس نگرانی‌هایی درباره حمله به ونزوئلا ابراز کرد و پرسید آیا نرم‌افزار پالانتیر درگیر بوده است. "آنها سعی داشتند اطلاعات طبقه‌بندی شده را استخراج کنند," مایکل گفت.

این حادثه نگرانی‌های جدی را در پنتاگون ایجاد کرد: "آیا آنها ناگهان مدل خود را در میانه یک عملیات در آینده متوقف می‌کنند و سربازان خط مقدم را در معرض خطر قرار می‌دهند؟"

با این حال، آنتروپیک این ادعا را رد می‌کند. این شرکت اعلام کرد که هرگز سعی نکرده است استفاده پنتاگون از فناوری خود را به طور انتخابی محدود کند.

یک مقام سابق دولت ترامپ که با فرآیند مذاکره آشنا بود و به آنتروپیک نزدیک بود، نسخه متفاوتی از وقایع ارائه داد: این یک کارمند پالانتیر بود که برای اولین بار نقش کلاود را در آن عملیات در یک تماس کنفرانسی روتین ذکر کرد.

سوالات بعدی از آنتروپیک هیچ نشانه‌ای از مخالفت با عملیات نشان نداد.

تصویرسازی توسط کلاوه رژه‌چی برای تایم، منابع تصویر: دیمیتریوس کامبوریس—گتی ایمیجز (دونالد ترامپ)؛ کنی هولستون-پول—گتی ایمیجز (پیت هگست)

با ادامه مذاکرات، مقامات دولتی به طور فزاینده‌ای احساس کردند که موضع داریو آمودئی بسیار سرسخت‌تر از سایر مدیران عامل آزمایشگاه‌های پیشرو هوش مصنوعی است. طبق چندین منبع آشنا با فرآیند مذاکره، در یک بحث، مقامات دفاعی برخی سناریوهای فرضی را ارائه دادند، مانند: یک موشک هایپرصوت که به سمت سرزمین اصلی ایالات متحده در حال حرکت است؛ یا یک حمله پهپادی زنبوری.

در این موارد، آنها پرسیدند که آیا ابزار هوش مصنوعی آنتروپیک می‌تواند استفاده شود.

منابع گفتند که پاسخ آمودئی در آن زمان این بود: اگر واقعاً به این موضوع برسد، مقامات می‌توانند مستقیماً با او تماس بگیرند. با این حال، یک سخنگوی آنتروپیک این را رد کرد و توصیف فرآیند مذاکره را "کاملاً نادرست" خواند.

آنتروپیک در حال حاضر رقبای قوی‌ای در درون دولت داشت و اکنون، شک و تردیدها درباره "تمایلات ایدئولوژیک" آن به خصومت آشکار تبدیل شده است. در تاریخ ۱۲ ژانویه ۲۰۲۶، پیت هگست به صراحت در یک سخنرانی در مقر اسپیس‌ایکس گفت: "ما از مدل‌های هوش مصنوعی استفاده نخواهیم کرد که مانع از مبارزه شما شوند."

با ادامه کشمکش مذاکرات، هگست داریو آمودئی را به پنتاگون برای یک جلسه رو در رو در تاریخ ۲۴ فوریه فراخواند. طبق یک منبع آشنا با بحث‌ها، جلسه دوستانه بود، اما هر دو طرف در مواضع خود ثابت ماندند. هگست در ابتدا کلاود را ستایش کرد و تمایل ارتش برای ادامه همکاری با آنتروپیک را ابراز کرد. آمودئی، از طرف دیگر، اعلام کرد که شرکت آماده است بیشتر تغییرات پیشنهادی پنتاگون را بپذیرد اما در دو موضوع "خط قرمز" کوتاه نخواهد آمد.

اولین خط قرمز این است: ممنوعیت استفاده از کلاود در سیستم‌های تسلیحاتی کاملاً خودمختار، به این معنی که سلاح‌هایی که تصمیم نهایی حمله توسط هوش مصنوعی و نه انسان اتخاذ می‌شود.

آنتروپیک به طور ذاتی اعتقاد ندارد که سلاح‌های خودمختار اشتباه هستند، اما استدلال می‌کند که کلود در حال حاضر به اندازه کافی قابل اعتماد نیست تا این سیستم‌ها را بدون نظارت انسانی کنترل کند.

خط قرمز دوم مربوط به نظارت جمعی بر شهروندان آمریکایی است. دولت می‌خواهد از کلود برای تحلیل حجم وسیعی از داده‌های عمومی استفاده کند، اما آنتروپیک معتقد است که قوانین حریم خصوصی موجود در ایالات متحده با واقعیت نگران‌کننده‌ای که دولت در حال خرید مجموعه‌های داده بزرگ از بازار تجاری است، همگام نشده‌اند. در حالی که به طور فردی این مجموعه‌های داده ممکن است حساس نباشند، اما هنگامی که توسط هوش مصنوعی تحلیل شوند، می‌توانند پروفایل‌های دقیقی از زندگی خصوصی شهروندان آمریکایی، از جمله نظرات سیاسی، روابط اجتماعی، رفتار جنسی و تاریخچه مرور آنها تولید کنند. (با این حال، آنتروپیک با استفاده از همین روش برای نظارت قانونی بر شهروندان خارجی مخالف نیست.)

هگست به قانع نشد. او یک اولتیماتوم نهایی به آمودئی صادر کرد: شرایط پنتاگون باید تا ساعت ۵ بعد از ظهر روز جمعه، ۲۷ فوریه، پذیرفته شود، وگرنه به عنوان "ریسک زنجیره تأمین" تلقی خواهد شد.

در روز قبل از مهلت، آنتروپیک یک قرارداد اصلاح شده دریافت کرد که به نظر می‌رسید خطوط قرمز شرکت را قبول کرده است، اما با بررسی دقیق‌تر، آنها نقص‌هایی را یافتند که به نفع دولت بود. یک منبع آشنا با مذاکرات گفت که با گذشت زمان، مدیران آنتروپیک تماس دیگری با رئیس هوش مصنوعی پنتاگون، امیل مایکل، داشتند. آنها معتقد بودند که به توافق نزدیک هستند، اما یک مسئله کلیدی حل نشده باقی مانده بود: آیا پنتاگون می‌تواند از کلود برای تحلیل داده‌های بزرگ آمریکایی که از طریق کانال‌های تجاری به دست آمده‌اند، استفاده کند. مایکل از آمودئی خواست تا به تماس بپیوندد، اما او در آن زمان در دسترس نبود.

چند دقیقه بعد، درست در مهلت، هگست اعلام کرد که مذاکرات به پایان رسیده است. حتی قبل از این، دونالد ترامپ در شبکه‌های اجتماعی خود صحبت کرده بود: "ایالات متحده آمریکا هرگز اجازه نخواهد داد که یک شرکت رادیکال چپ‌گرا و 'بیدار' تصمیم بگیرد که ارتش بزرگ ما چگونه باید عمل کند و جنگ‌ها را ببرد!" "دیوانگان چپ‌گرا در آنتروپیک یک اشتباه فاجعه‌بار مرتکب شده‌اند."

بدون اینکه آنتروپیک مطلع باشد، پنتاگون همچنین در حال مذاکره با OpenAI بود و به دنبال معرفی ChatGPT به سیستم‌های طبقه‌بندی شده دولتی بود. در همان شب، سم آلتمن اعلام کرد که توافقی حاصل شده است و ادعا کرد که این توافق همچنین خطوط قرمز امنیتی مشابهی را رعایت می‌کند. آمودئی سپس به کارمندانش پیام داد و گفت که آلتمن و پنتاگون "در حال دستکاری افکار عمومی" هستند و سعی می‌کنند به مردم بباورانند که این توافق شامل موانع امنیتی سخت است. قبل از این، مقامات پنتاگون همچنین تأیید کردند که مدل‌های xAI بر روی سرورهای طبقه‌بندی شده مستقر خواهند شد؛ پنتاگون در حال حاضر در حال مذاکره با گوگل است.

این دقیقاً سناریویی بود که آمودئی را نگران کرده بود: یک رقابت "رقابت نزولی." وقتی قدرت هوش مصنوعی به حدی می‌رسد که نمی‌توان آن را نادیده گرفت، رقبای آن در همکاری و ارتقاء استانداردهای امنیتی با مشکل مواجه می‌شوند.

به منتقدان آنتروپیک، این رویداد همچنین یک خودبزرگ‌بینی اصلی شرکت را آشکار کرد: شاید آنها معتقد بودند که می‌توانند به‌طور ایمن به سمت ماشین‌های فراتر از انسان حرکت کنند و ریسک‌های بزرگی را ارزشمند کنند. اما واقعیت این است که آنها به سرعت قابلیت‌های جدید نظارت و فناوری‌های جنگی را به یک سیستم دولتی راست‌گرا معرفی کردند و وقتی سعی کردند برای این فناوری‌ها مرزهایی تعیین کنند، بلافاصله از پشت توسط رقبای خود پیشی گرفته شدند.

قیمت --

--

"ما ترامپ را به عنوان یک دیکتاتور ستایش نکردیم."


داریو آمودئی، در حال پرداختن به ریشه‌های درگیری با پنتاگون در یادداشتی به کارمندان

با این حال، برخی نشانه‌ها نشان می‌دهد که آنتروپیک ممکن است بتواند این تأثیر را تحمل کند و حتی از آن قوی‌تر بیرون بیاید. فقط صبح روز بعد از اینکه پیت هگست به امضای "حکم مرگ شرکتی" تلاش کرد، یک سری پیام‌های تشویق‌کننده با گچ بر روی پیاده‌رو در خارج از دفتر مرکزی سان فرانسیسکو ظاهر شد. "شما به ما شجاعت دادید،" یکی از پیام‌ها با حروف درشت خوانده می‌شد.

در همان روز، اپلیکیشن آیفون کلاود در صدر جدول دانلودهای اپ استور قرار گرفت و از چت‌جی‌پی‌تی پیشی گرفت. بیش از یک میلیون نفر هر روز برای کلاود ثبت‌نام می‌کنند.

در عین حال، قراردادی که OpenAI با ارتش امضا کرد، مقاومت داخلی و اجتماعی را برانگیخت. برخی از کارمندان OpenAI احساس می‌کنند که شرکت اعتماد را از دست داده است. یک محقق برتر اعلام کرد که به آنتروپیک منتقل می‌شود؛ رئیس تیم رباتیک OpenAI به دلیل این قرارداد دولتی استعفا داد.

مدیرعامل OpenAI، سم آلتمن، همچنین بعداً اعتراف کرد که اشتیاق او برای رسیدن به توافق با پنتاگون تا جمعه یک اشتباه بود. او نوشت، "این مسائل بسیار پیچیده هستند و نیاز به ارتباط واضح و کامل دارند." تا دوشنبه، آلتمن بیشتر تأیید کرد که اقدامات او در آن زمان واقعاً "فرصت‌طلبانه به نظر می‌رسید." OpenAI همچنین اعلام کرد که توافق به‌طور صریح برای پذیرش همان خطوط قرمز ایمنی مانند آنتروپیک اصلاح شده است. با این حال، کارشناسان حقوقی اشاره می‌کنند که تأیید این ادعا بدون دیدن قرارداد کامل دشوار است.

در ۴ مارس، آنتروپیک یک نامه رسمی از وزارت دفاع ایالات متحده دریافت کرد که تأیید می‌کرد این شرکت به عنوان یک ریسک زنجیره تأمین امنیت ملی شناسایی شده است. آنتروپیک اعلام کرد که این تعیین محدودتر از آن چیزی است که هگست در رسانه‌های اجتماعی ادعا کرد و فقط پیمانکاران را از استفاده از کلاود در قراردادهای دفاعی محدود می‌کند.

با این حال، نامه‌ای که توسط مجله تایم به رئیس کمیته اطلاعات سنای تام کاتن ارسال شده بود، نشان داد که وزارت دفاع همچنین از یک مقرره قانونی دیگر استفاده کرده است - یکی که ممکن است به آژانس‌های دولتی خارج از پنتاگون اجازه دهد آنتروپیک را از قراردادها و زنجیره‌های تأمین خود حذف کنند. این اقدام نیاز به تأیید مقامات ارشد وزارت دفاع دارد و به آنتروپیک یک مهلت ۳۰ روزه برای پاسخ می‌دهد.

این درگیری می‌تواند اثرات زنجیره‌ای در کل صنعت هوش مصنوعی ایجاد کند. دین بال، که در تدوین ابتکار هوش مصنوعی ترامپ دخیل بود و اکنون در اندیشکده بنیاد نوآوری آمریکایی کار می‌کند، گفت: "برخی از افراد در دولت ترامپ در مورد این موضوع بسیار سختگیر خواهند بود، تقریباً در شب‌ها به خودشان عضلاتشان را نشان می‌دهند."

با این حال، او همچنین هشدار داد که این رویداد ممکن است باعث شود کسب‌وکارها reluctant به همکاری با پنتاگون شوند و حتی عملیات خود را به خارج از کشور منتقل کنند. "در درازمدت، این برای تصویر ایالات متحده به عنوان یک محیط تجاری پایدار خوب نیست،" بال گفت، "و ثبات چیزی است که به آن تکیه می‌کنیم."

رهبری آنتروپیک معتقد است که کلود به ساخت سیستم‌های هوش مصنوعی قوی‌تر کمک خواهد کرد که به اندازه کافی قدرتمند باشند تا نقش تعیین‌کننده‌ای در ساختار قدرت جهانی آینده ایفا کنند.

اگر واقعاً اینطور باشد، درگیری بین این شرکت و پنتاگون ممکن است تنها مقدمه‌ای برای یک فرآیند تاریخی بزرگتر باشد.

[لینک مقاله اصلی]

ممکن است شما نیز علاقه‌مند باشید

چرا OpenAI در حال رقابت با Claude Code است؟

Anthropic زودتر روی برنامه‌نویسی هوش مصنوعی شرط‌بندی کرده است، در حالی که ریتم استراتژیک OpenAI ناهماهنگ است

ویتالیک پیشنهادی نوشت که به شما آموزش می‌دهد چگونه به‌طور مخفیانه از مدل‌های بزرگ هوش مصنوعی استفاده کنید.

ویتالیک معتقد است که در عصر هوش مصنوعی، کاربران نباید برای استفاده از یک ابزار هوش مصنوعی مجبور به فدا کردن هویت خود شوند.

دو برابر شدن قیمت سهام Circle و تغییر پارادایمی استیبل‌کوین‌ها

سرمایه‌گذاری‌های اولیه از سوی Circle و Stripe، چه هزینه‌های تحقیق و توسعه برای Arc باشد، چه هزینه‌های بالای تأمین مالی مرتبط با Tempo، یا خریدهای میلیارد دلاری دارایی‌های نوع Bridge، بیشتر شبیه «هزینه‌های قراردادی» است تا سرمایه‌گذاری‌های تجاری که در کوتاه‌مدت قابل بازیابی باشند.

انفجار گزینه‌های زنجیره‌ای. رویداد عمل

گزینه‌ها به لنگر جدیدی در بازار ارزهای دیجیتال تبدیل می‌شوند.

بازار پیش‌بینی‌ها در ایالات متحده و کانادا مورد توجه قرار گرفت، کلود ویژگی تعامل نمودار را راه‌اندازی کرد، جامعه انگلیسی امروز درباره چه چیزی صحبت می‌کند؟

خارجی‌ها در ۲۴ ساعت گذشته به چه چیزی بیشتر اهمیت می‌دادند؟

۵۰۰ میلیون دلار، ۱۲ ثانیه تا صفر: چگونه یک تراکنش Aave به زنجیره غذایی «جنگل تاریک» اتریوم خوراک داد

۱۵۴٬۰۰۰ دلار خرج کنید تا AAVE را با قیمت بازار تنها ۱۱۱ دلار بخرید.

رمزارزهای محبوب

آخرین اخبار رمز ارز

ادامه مطلب