مجله «تایم» آنتروپیک را به عنوان مخربترین شرکت جهان معرفی کرد
عنوان مقاله اصلی: مخربترین شرکت در جهان
نویسندگان مقاله اصلی: لزلی دیکستین، سیمون شاه، تایمز
ترجمه: پگی، بلاکبیست
یادداشت سردبیر: از یک آزمایش امنیتی در نیمه شب تا یک رویارویی عمومی با پنتاگون، این مقاله تنشهای متعدد شرکت هوش مصنوعی آنتروپیک را در طول صعود سریعش روایت میکند. این مقاله ابتدا نشان میدهد که چگونه شرکت به طور داخلی خطرات بالقوه هوش مصنوعی را ارزیابی کرده است، سپس پیشرفتهای فنی و موفقیتهای تجاری کلاود را بررسی میکند و در ادامه کاربردهای عملی آن را در زمینه نظامی ارائه میدهد.
با پیشرفت رویدادها، نویسندگان جنجالهای آنتروپیک با ارتش ایالات متحده در مورد سلاحهای خودران، نظارت جمعی و کنترل هوش مصنوعی را از دیدگاههای رهبر تیم قرمز، مهندسان، مدیران، پژوهشگران سیاست و مقامات دولتی بازگو میکنند.
از طریق این رویداد، نویسندگان در نهایت یک سوال به طور فزایندهای فوری را مطرح میکنند: با شروع تسریع هوش مصنوعی در تکامل خود و نفوذ عمیق آن در جنگ، حکومت و ساختارهای کار، چه کسی هنوز میتواند برای آن مرز تعیین کند؟
متن اصلی به شرح زیر است:

در یک اتاق هتل در سانتا کلارا، کالیفرنیا، پنج عضو شرکت هوش مصنوعی آنتروپیک به طور عصبی در حال کار بر روی یک لپتاپ هستند. این در فوریه 2025 بود و آنها در حال شرکت در یک کنفرانس نزدیک بودند که ناگهان پیامی نگرانکننده دریافت کردند: نتایج یک آزمایش کنترلشده نشان داد که انتشار نسخه جدید کلاود ممکن است به تروریستها در ایجاد یک سلاح بیولوژیک کمک کند.
این افراد بخشی از «تیم قرمز مرزی» آنتروپیک بودند. وظیفه آنها مطالعه قابلیتهای پیشرفته کلاود و تلاش برای شبیهسازی خطرات در بدترین سناریوها، از حملات سایبری تا تهدیدات بیولوژیکی و احتمالات مختلف بود. پس از دریافت خبر، آنها به سرعت به اتاق هتل برگشتند، یک تخت را به سمت کنار چرخاندند تا از آن به عنوان یک میز موقت استفاده کنند و شروع به بررسی دقیق نتایج آزمایش کردند.
پس از ساعتها تحلیل تنشزا، آنها هنوز نتوانسته بودند تعیین کنند که آیا محصول جدید به اندازه کافی ایمن است یا خیر. در نهایت، آنتروپیک تصمیم گرفت انتشار این مدل جدید، کلاود ۳.۷ سونات را به مدت ۱۰ روز کامل به تعویق بیندازد تا تیم تأیید کند که خطرات قابل مدیریت هستند.
در حالی که این ممکن است فقط ده روز کوتاه به نظر برسد، برای شرکتی که در خط مقدم فناوری در صنعتی که به سرعت در حال تغییر جهان است، قرار دارد، تقریباً مانند یک قرن طولانی بود.
لوگان گراهام (رئیس سابق تیم قرمز) حادثه "هشدار سلاح بیولوژیکی" را به عنوان میکروکازمی از چالشی که آنتروپیک در یک مقطع حیاتی با آن مواجه بود، به یاد میآورد، نه تنها برای شرکت بلکه برای جهان به طور کلی. آنتروپیک یکی از سازمانهای متمرکز بر امنیت در آزمایشگاههای پیشرفته هوش مصنوعی امروز است. با این حال، در عین حال، این شرکت همچنین در مرز رقابتی قرار دارد و در تلاش است تا سیستمهای هوش مصنوعی به طور فزایندهای قدرتمند بسازد. درون شرکت، بسیاری از کارمندان همچنین معتقدند که این فناوری، اگر کنترل نشود، میتواند منجر به یک سری عواقب فاجعهبار، از جنگ هستهای تا انقراض انسان شود.
در ۳۱ سالگی، گراهام هنوز نشانهای از جوانی را در خود دارد، اما هرگز از مسئولیت جستجوی تعادل بین مزایای عظیم و خطرات عظیم هوش مصنوعی دوری نمیکند. او گفت: "بسیاری از مردم در دنیای نسبتاً صلحآمیز بزرگ شدهاند و به طور شهودی احساس میکنند که جایی اتاقی وجود دارد با گروهی از بزرگسالان بالغ که میدانند چگونه مشکلات را حل کنند."
"اما در واقعیت، هیچ 'گروه بزرگسالی' وجود ندارد. حتی آن اتاق هم وجود ندارد. و درب مورد نظر شما هم وجود ندارد. مسئولیت با شماست." اگر این بیانیه به اندازه کافی نگرانکننده نیست، پس به یادآوری او از هشدار سلاح بیولوژیکی نگاه کنید: "این روزی بسیار جالب و هیجانانگیز بود."

تصویرسازی: نیل جمیسون برای تایم (منابع تصویر: اسکل: آرون ووجاک؛ گتی ایمیجز، از بالا به سمت عقربههای ساعت: سامیوکتا لاکشمی—بلومبرگ؛ برندان اسمیالوفسکی—آفپ؛ تیئرنی ال. کراس—بلومبرگ؛ دانیل اسلیم—آفپ؛ بریجت بنت—بلومبرگ)
چند هفته پیش، لوگان گراهام این مسائل را در مقر آنتروپیک در حین یک مصاحبه مورد بحث قرار داد. یک خبرنگار از مجله تایم سه روز را در اینجا گذراند و با مدیران شرکت، مهندسان، مدیران محصول و اعضای تیم امنیتی مصاحبه کرد و سعی کرد بفهمد چرا این شرکت که زمانی به عنوان "خارجی متمرد" در رقابت هوش مصنوعی دیده میشد، ناگهان به یک پیشتاز تبدیل شد.
در آن زمان، آنتروپیک تنها 30 میلیارد دلار از سرمایهگذاران برای آمادهسازی یک IPO احتمالی در سال جاری جمعآوری کرده بود. (به عنوان یک نکته جانبی، سیلزفورس همچنین یکی از سرمایهگذاران آنتروپیک است و مالک مجله تایم، مارک بنیوف، مدیرعامل سیلزفورس است.) امروز، ارزش آنتروپیک به 380 میلیارد دلار رسیده است و از غولهای سنتی مانند گلدمن ساکس، مکدونالد و کوکاکولا پیشی گرفته است.
نرخ رشد درآمد این شرکت چیزی کمتر از شگفتانگیز نیست. سیستم هوش مصنوعی آن، کلاود، به عنوان یک مدل جهانی شناخته شده است و محصولاتی مانند کلاود کد و کلاود همکار در حال تعریف مجدد معنای "برنامهنویس" هستند.
ابزارهای آنتروپیک به قدری قدرتمند هستند که تقریباً هر انتشار جدیدی باعث ایجاد نوساناتی در بازارهای سرمایه میشود زیرا سرمایهگذاران به تدریج متوجه میشوند که این پیشرفتهای فناوری میتواند صنایع کامل را مختل کند — از خدمات حقوقی تا توسعه نرمافزار. در ماههای اخیر، آنتروپیک به عنوان یکی از شرکتهای محتمل برای شکلدهی به "آینده کار" دیده شده است.
در پی آن، آنتروپیک در یک جنجال شدید در مورد "اشکال آینده جنگ" درگیر شد.
برای بیش از یک سال، کلاود مدل هوش مصنوعی مورد علاقه دولت ایالات متحده بوده و اولین مدلی است که برای استفاده در محیطهای طبقهبندی شده به عنوان یک سیستم هوش مصنوعی پیشرفته تأیید شده است. در ژانویه 2026، حتی در یک عملیات جسورانه استفاده شد: دستگیری رئیسجمهور ونزوئلا، نیکولاس مادورو در کاراکاس. گزارشها حاکی از آن است که در برنامهریزی مأموریت و تحلیل اطلاعات در این عملیات از هوش مصنوعی استفاده شده است که نشاندهنده اولین مشارکت عمیق هوش مصنوعی پیشرفته در یک اقدام نظامی واقعی است.
با این حال، در هفتههای بعد، رابطه بین آنتروپیک و ایالات متحده وزارت دفاع به سرعت رو به وخامت گذاشت. در 27 فوریه، دولت ترامپ اعلام کرد که آنتروپیک به عنوان "ریسک زنجیره تأمین امنیت ملی" تعیین شده است که اولین مورد شناخته شده در ایالات متحده است که چنین برچسبی به یک شرکت داخلی اعمال میشود.
وضعیت به سرعت به یک درگیری عمومی تبدیل شد. رئیسجمهور ترامپ دستور داد که تمام استفادههای دولتی از نرمافزار آنتروپیک متوقف شود. وزیر دفاع، پیت هگست، همچنین اعلام کرد که هر شرکتی که با دولت همکاری میکند دیگر نباید با آنتروپیک تجارت کند. در همین حال، بزرگترین رقیب آنتروپیک، اوپنایآی، به سرعت وارد عمل شد و قراردادهای نظامی مربوطه را به دست گرفت.
بنابراین، شرکتی که روزگاری به عنوان "مخربترین" در جهان شناخته میشد، ناگهان خود را تحت تأثیر نیرویی دیگر و بزرگتر - دولت خود - یافت.
در قلب این ایستادگی، سوالی وجود دارد: چه کسی اختیار تعیین مرزها برای این فناوری را دارد که یکی از قدرتمندترین سلاحهای آمریکا محسوب میشود؟
آنتروپیک مخالف استفاده از ابزارهایش در جنگ نیست. این شرکت معتقد است که تقویت قدرت نظامی ایالات متحده تنها راه واقعی برای بازدارندگی تهدیدات ملی است. با این حال، مدیرعامل داریو آمودئی با تلاشهای پنتاگون برای تجدید نظر در قراردادهای دولتی و گسترش استفاده از هوش مصنوعی به "تمام استفادههای قانونی" مخالف است.
آمودئی دو نگرانی خاص را مطرح کرد: اول، او نمیخواهد هوش مصنوعی آنتروپیک در سیستمهای تسلیحاتی کاملاً خودکار استفاده شود؛ دوم، او مخالف استفاده از فناوریاش برای نظارت گسترده بر شهروندان آمریکایی است.
با این حال، در نظر پیت هگست، (وزیر دفاع ایالات متحده) و مشاورانش، این موضع شبیه به تلاش یک شرکت خصوصی برای تعیین نحوه جنگیدن ارتش است. ایالات متحده
وزارت دفاع معتقد است که آنتروپیک با اصرار بر تعیین "حفاظتهای ایمنی غیرضروری"، بحث در مورد سناریوهای فرضی مختلف و به تعویق انداختن زمان در مذاکرات بعدی، در واقع همکاری بین دو طرف را تضعیف کرده است. در نظر دولت ترامپ، نگرش آمودئی (مدیرعامل آنتروپیک) هم متکبرانه و هم سرسختانه است.
مهم نیست که محصول یک شرکت چقدر پیشرفته باشد، نباید قضاوت خود را در زنجیره فرماندهی نظامی وارد کند. امیل مایکل، معاون وزیر جنگ برای امور فنی در پنتاگون، مذاکرات را به این صورت توصیف کرد:
"وضعیت به این شکل ادامه داشت. من نمیتوانم یک دپارتمان ۳ میلیون نفری را با آن استثنائاتی که حتی نمیتوانم تصور یا درک کنم، مدیریت کنم." کلاوه رژهچی برای تایم - منبع تصویر:

تصویرسازی: دنیس بالیبو - رویترز از سیلیکون ولی تا تپه کنگره، بسیاری از ناظران در حال سوال هستند:
آیا این طوفان واقعاً فقط یک اختلاف قراردادی است؟
برخی منتقدان بر این باورند که اقدامات دولت ترامپ بیشتر شبیه تلاشی برای سرکوب یک شرکت با موضع سیاسی ناپسند است. در یک یادداشت داخلی که به بیرون درز کرده، داریو آمودئی نوشت: "وزارت دفاع و دولت ترامپ به دلایل واقعی ما را دوست ندارند زیرا ما به ترامپ کمک مالی نکردیم." ما او را مانند دیکتاتورها ستایش نکردیم (برخلاف سم آلتمن). ما از تنظیم مقررات هوش مصنوعی حمایت میکنیم، که با برنامههای سیاسی آنها در تضاد است؛ ما در بسیاری از مسائل سیاست هوش مصنوعی حقیقت را میگوییم (مانند مسئله جابجایی شغلی)؛ و ما به اصول در خطوط اصلی کلیدی پایبند بودهایم به جای اینکه توطئه کنیم تا به اصطلاح تئاتر ایمنی را با آنها به راه بیندازیم."
با این حال، امیل مایکل (معاون وزیر جنگ) این ادعا را رد کرد و آن را "یک ساختگی کامل" نامید. او بیان کرد که فهرست کردن آنتروپیک به عنوان یک ریسک زنجیره تأمین به این دلیل است که موضع شرکت ممکن است مبارزان خط مقدم را در خطر قرار دهد. او گفت: "در وزارت جنگ، کار من سیاست نیست؛ کار من دفاع از ملت است."
فرهنگ دیرینه استقلال شرکت آنتروپیک اکنون با تقسیمات سیاسی داخلی، نگرانیهای امنیت ملی و یک محیط رقابتی بیرحمانه شرکتی برخورد میکند. میزان خسارتی که این برخورد به شرکت وارد کرده هنوز مشخص نیست. تهدید اولیه "ریسک زنجیره تأمین" بعداً محدودتر شد - به گفته آنتروپیک، این محدودیت در حال حاضر فقط به قراردادهای نظامی مربوط میشود. در تاریخ 9 مارس، آنتروپیک از دولت ایالات متحده به منظور لغو این تصمیم "سیاهلیست کردن" شکایت کرد. در همین حال، برخی مشتریان به نظر میرسد که موضع شرکت را به عنوان یک بیانیه اخلاقی میبینند و از چتجیپیتی به کلود تغییر کردهاند.
با این حال، در سه سال آینده، شرکت هنوز باید در یک محیط دولتی که به آن دوستانه نیست، حرکت کند - برخی مقامات درون دولت ارتباط نزدیکی با رقبای آنتروپیک دارند که نسبت به این شرکت دشمنی واضحی دارند.
"طوفان پنتاگون" همچنین برخی سوالات نگرانکننده را مطرح کرده است، حتی برای شرکتی که قبلاً به حرکت در موقعیتهای اخلاقی پرخطر عادت کرده است. در این ایستادگی، آنتروپیک عقبنشینی نکرد: این شرکت اصرار دارد که ارزشهای اصلی خود را حفظ کرده است، حتی اگر این هزینه زیادی برای کسبوکار داشته باشد.
اما در مواقع دیگر، آن نیز سازشهایی کرده است. در همان هفتهای که ایستادگی پنتاگون رخ داد، آنتروپیک یک بند اصلی در تعهد امنیت مدل آموزشی خود را تضعیف کرد و به این دلیل که شرکتهای همتای آن تمایلی به رعایت همان استانداردها نداشتند، اشاره کرد.
سوالات مطرح میشود: اگر فشار رقابتی ادامه یابد، این شرکت در آینده چه امتیازات دیگری خواهد داد؟
منافع به طور مداوم در حال افزایش است. با پیشرفت قابلیتهای هوش مصنوعی، رقابت بر سر اینکه چه کسی کنترل هوش مصنوعی را در دست خواهد داشت، تنها شدیدتر خواهد شد.
استفاده کلود در عملیاتهای ونزوئلا و ایران نشان میدهد که هوش مصنوعی پیشرفته به ابزاری حیاتی برای قدرتمندترین ارتشهای جهان تبدیل شده است. فراتر از این تحولات، فشارهای جدیدی نیز در حال افزایش است: قدرتهای ملی، سیاستهای داخلی و نیازهای امنیت ملی. و این فشارها بر روی یک شرکت سودآور که به سرعت این فناوری جدید و بسیار ناپایدار را به کار میگیرد، وارد میشود.
به نوعی، وضعیت آنتروپیک کمی شبیه به وضعیت یک زیستشناس در آزمایشگاه است: برای یافتن درمان، آنها باید به طور داوطلبانه یک پاتوژن خطرناک را در آزمایشهای خود ایجاد کنند. آنتروپیک نقش مشابهی را بر عهده گرفته است و به طور فعال خطرات بالقوه هوش مصنوعی را بررسی میکند در حالی که همچنان مرزهای فناوری را به جلو میبرد، به جای اینکه این فرآیند را به رقبایی بسپارد که بیشتر مایل به استفاده از میانبرها یا حتی عمل غیرمسئولانه هستند.
با این حال، حتی در حالی که شرکت بر احتیاط تأکید میکند، از کلود برای تسریع در توسعه نسخههای آیندهای که حتی قدرتمندتر هستند، استفاده میکند.
در درون شرکت، بسیاری سالهای آینده را به عنوان یک دوره حیاتی میبینند، نه تنها برای شرکت، بلکه برای جهان به طور کلی.
«باید فرض کنیم که بین سالهای ۲۰۲۶ و ۲۰۳۰، مهمترین اتفاقات خواهد افتاد، مدلها سریعتر و قویتر خواهند شد، به حدی که ممکن است حتی برای کنترل انسانها خیلی سریع باشند»، گفت لوگان گراهام، سرپرست تیم قرمز مسئول کشف آسیبپذیری و حملات شبیهسازی شده.
رئیس امنیت آنتروپیک، دیو اور، از یک استعاره سادهتر برای توصیف وضعیت استفاده کرد: «ما در یک جاده کوهستانی در کنار یک صخره در حال رانندگی هستیم. یک اشتباه کشنده است. و حالا، سرعت ما از ۲۵ مایل در ساعت به ۷۵ مایل در ساعت رسیده است.»
واقع در طبقه پنجم دفتر مرکزی آنتروپیک در سان فرانسیسکو، طراحی کلی گرم و ساده است: دکور چوبی، نور ملایم. در بیرون پنجره، یک پارک سبز و سرسبز وجود دارد. پرتره پیشگام علوم کامپیوتر، آلن تورینگ، بر روی دیوار آویزان است، در کنار چندین مقاله یادگیری ماشین قاب شده.
نگهبانان امنیتی با لباس سیاه در ورودی تقریباً خالی گشت میزنند، در حالی که یک پذیرشکننده دوستانه به بازدیدکنندگان یک کتابچه میدهد - به اندازه یک کتاب مقدس جیبی که توسط موعظهکنندگان خیابانی توزیع میشود. این کتاب، با عنوان «ماشینهای محبتآمیز»، یک مقاله تقریباً ۱۴,۰۰۰ کلمهای است که توسط داریو آمودئی در سال ۲۰۲۴ نوشته شده و چشمانداز یوتوپیایی او را از اینکه چگونه هوش مصنوعی میتواند جهان را با تسریع در کشفیات علمی تغییر دهد، ترسیم میکند.
تا ژانویه ۲۰۲۶، آمودئی مقاله دیگری منتشر کرد، تقریباً به طول یک رمان، با عنوان «نوجوانی فناوری»، که به جنبه منفی این فناوری میپردازد: خطراتی که میتواند به همراه داشته باشد، از جمله نظارت گسترده، جابجایی شغلی قابل توجه و حتی از دست دادن دائمی کنترل انسان بر فناوری.
آمودهای، اهل سان فرانسیسکو، یک بیوفیزیکدان است. او به همراه خواهرش، دانیلا آمودهای، که به عنوان رئیس شرکت فعالیت میکند، آنتروپیک را مدیریت میکند. هر دو خواهر و برادر از کارکنان اولیه اوپنای بودند. داریو در یک کشف کلیدی، که به عنوان قوانین مقیاسپذیری هوش مصنوعی شناخته میشود، درگیر بود که بعداً به عنوان یک پایه حیاتی برای پیشبرد جنون فعلی هوش مصنوعی تبدیل شد. در همین حال، دانیلا مسئول مدیریت سیاست امنیتی شرکت است.
در ابتدا، آنها مأموریت خود را به شدت با هدف تأسیس اوپنای همسو میدیدند: توسعه فناوری که هم بسیار امیدوارکننده و هم بسیار پرخطر باشد و در عین حال ایمنی را تضمین کند.
با این حال، با قدرتمندتر شدن مدلهای اوپنای، آنها شروع به احساس کردند که سم آلتمن در حال عجله برای راهاندازی محصولات جدید است بدون اینکه زمان کافی برای بحث و آزمایش دقیق فراهم کند. در نهایت، خواهر و برادر تصمیم گرفتند اوپنای را ترک کرده و به تنهایی به کار خود ادامه دهند.
«ما در یک جاده کوهستانی درست در کنار لبه صخره رانندگی میکنیم، جایی که یک اشتباه کشنده است.»
دیو اور، رئیس امنیت در آنتروپیک
در سال 2021، در اوج پاندمی، آنتروپیک توسط خواهر و برادر آمودهای و پنج همبنیانگذار دیگر تأسیس شد. جلسات اولیه تقریباً به طور کامل از طریق زوم برگزار شد؛ بعداً، آنها به سادگی صندلیها را به پارک منتقل کردند تا استراتژی توسعه شرکت را به صورت حضوری بحث کنند.
از ابتدا، شرکت تلاش کرد به شیوهای متفاوت عمل کند. قبل از راهاندازی هر محصولی، آنتروپیک یک تیم اختصاصی برای تحقیق در مورد تأثیر اجتماعی تأسیس کرد. شرکت حتی یک فیلسوف مقیم به نام آماندا آسل را استخدام کرد. وظیفه او کمک به شکلگیری ارزشها و رفتارهای سیستم هوش مصنوعی کلاود و آموزش آن برای قضاوت در شرایط اخلاقی پیچیده بود، آمادهسازی برای آیندهای که ممکن است از خالقان انسانی خود هوشمندتر باشد.
آسل این کار را به این صورت توصیف کرد: «گاهی اوقات واقعاً کمی شبیه بزرگ کردن یک کودک 6 ساله است، آموزش به این کودک درباره اینکه چه چیزی خوب است، چه چیزی درست است. اما مشکل این است که، تا زمانی که آنها 15 ساله شوند، ممکن است در هر زمینهای از شما باهوشتر باشند.»
این شرکت ریشههای عمیقی در نیکوکاری مؤثر (EA) دارد. EA یک حرکت اجتماعی و خیریه است که به حداکثر رساندن تأثیر نوعدوستی از طریق تحلیل منطقی را ترویج میکند و هدف اصلی آن جلوگیری از خطراتی است که میتواند منجر به عواقب فاجعهبار شود.
در اوایل بیست سالگی، خواهر و برادرهای آمودئی شروع به اهدا به GiveWell کردند. GiveWell یک سازمان EA است که بهطور خاص ارزیابی میکند که کجا کمکهای خیریه میتواند بیشترین تأثیر واقعی را داشته باشد. هفت بنیانگذار مشترک انتروپیک، که اکنون همه آنها در کاغذ میلیاردر هستند، متعهد به اهدا 80٪ از ثروت شخصی خود شدهاند.
فیلسوف شرکت، آماندا آسل، همسر سابق فیلسوف آکسفورد، ویلیام مکاسکیل است که او نیز یکی از بنیانگذاران حرکت EA است. شوهر دانیلا آمودئی، هولدن کارنفسکی، بنیانگذار GiveWell، هماتاقی سابق داریو آمودئی و در حال حاضر مسئول سیاست امنیتی در انتروپیک است.
با این حال، خواهر و برادرهای آمودئی هرگز بهطور عمومی برچسب "EA" را نپذیرفتهاند. این مفهوم پس از حادثه سم بنکمن-فرید به شدت جنجالی شد، جایی که یک شاگرد و سرمایهگذار خودخوانده EA در انتروپیک بعداً در یکی از بزرگترین کلاهبرداریهای مالی در تاریخ آمریکا متهم شد.
دانیلا آمودئی توضیح داد: "این کمی شبیه به این است که برخی افراد ممکن است در برخی نقاط با ایدئولوژیهای سیاسی خاصی تلاقی کنند اما واقعاً به یک اردوگاه سیاسی خاص تعلق ندارند. من تمایل دارم اینگونه به آن نگاه کنم."
برای برخی در سیلیکون ولی و دولت ترامپ، ارتباط بین انتروپیک و نوعدوستی مؤثر (EA) به خودی خود کافی است تا شک و تردیدهایی را ایجاد کند. برخی بر این باورند که انتروپیک چندین مقام سابق دولت بایدن را استخدام کرده است و این شرکت بیشتر شبیه به بقایای قدیمی است که از قدرت غیرمنتخب برای مانعتراشی در برنامه سیاسی ترامپ MAGA استفاده میکند.
دیوید ساکس، رئیس امور AI دولت ترامپ، این شرکت را به تلاش برای تنظیم مقررات از طریق "هیستری ساختگی" متهم کرد و گفت که انتروپیک در حال پیگیری یک "استراتژی پیچیده تصرف مقررات" است. به نظر او، این شرکت در تلاش است تا خطرات AI را بزرگنمایی کند تا سیاستهای تنظیمی سختگیرانهای را پیش ببرد و بدین ترتیب مزیت رقابتی کسب کند و استارتاپها را سرکوب کند.
در همین حال، رقیب عملیاتی xAI، ایلان ماسک، بهطور مکرر انتروپیک را مسخره میکند و به این شرکت به عنوان "میزاندوست" اشاره میکند. او معتقد است که این شرکت نماینده یک گروه نخبگان با ایدئولوژی "بیدار" است که سعی دارد یک سیستم ارزشی پدرسالارانه را در سیستمهای AI القا کند. این احساس، مشابه انتقاد محافظهکاران از پلتفرمهای رسانههای اجتماعی که بهطور ناعادلانه دیدگاههای خود را تعدیل میکنند، خشم برخی را برانگیخته است.
با این حال، حتی رقبای انتروپیک نیز باید به تواناییهای فناوری آن اعتراف کنند. مدیرعامل انویدیا، جنسن هوانگ، ابراز کرده است که او "در تقریباً تمام مسائل AI" با نظرات داریو آمودئی اختلاف نظر دارد اما هنوز هم کلود را یک مدل "شگفتانگیز" میداند.
در نوامبر ۲۰۲۵، غول تراشه انویدیا ۱۰ میلیارد دلار در آنتروپیک سرمایهگذاری کرد.
بوریس چرنیک یک سوال ساده از ابزار جدیدش پرسید: "در حال حاضر چه موسیقی گوش میدهم؟"
سپتامبر ۲۰۲۴ بود و مهندس متولد اوکراین کمتر از یک ماه پیش به آنتروپیک پیوسته بود. چرنیک قبلاً به عنوان مهندس نرمافزار در متا کار کرده بود. او سیستمی توسعه داد که به چتبات کلاود اجازه میداد "آزادانه پرسه بزند" روی کامپیوترش.
اگر کلاود مغز بود، پس کلاود کد دستها بود. در حالی که یک چتبات معمولی فقط میتوانست چت کند، این ابزار میتوانست به فایلهای چرنیک دسترسی پیدا کند، برنامهها را اجرا کند و کد بنویسد و اجرا کند مانند هر برنامهنویس دیگری.
پس از اینکه مهندس یک دستور وارد کرد، کلاود پلیر موسیقی چرنیک را باز کرد، یک اسکرینشات گرفت و سپس پاسخ داد، "『Husk』 از Men I Trust."
چرنیک با یادآوری گفت: "در آن لحظه واقعاً شگفتزده شدم."
“گاهی اوقات احساس میشود که در پارادوکسها صحبت میکنیم.”
دیپ گنگولی، رئیس تیم تأثیر اجتماعی آنتروپیک
بوریس چرنیک به سرعت پروتوتایپ خود را درون شرکت به اشتراک گذاشت. کلاود کد به سرعت در آنتروپیک گسترش یافت، به طوری که در اولین ارزیابی عملکرد چرنیک، مدیرعامل داریو آمودئی حتی از او پرسید، "آیا سعی میکنی همکارانت را به استفاده از این ابزار ‘مجبور’ کنی؟"
زمانی که آنتروپیک در فوریه ۲۰۲۵ یک پیشنمایش تحقیقاتی از کلاود کد را بهطور عمومی منتشر کرد، توسعهدهندگان خارجی به سمت آن هجوم آوردند. تا نوامبر، آنتروپیک نسخه جدیدی از مدل کلاود را منتشر کرد. زمانی که این مدل با کلاود کد ترکیب شد، به اندازه کافی ماهر بود که اشتباهات خود را شناسایی و اصلاح کند، به طوری که میتوانست بهطور مستقل وظایف را به پایان برساند.
از آن زمان به بعد، چرنیک تقریباً بهطور کامل نوشتن کد خود را متوقف کرد.
رشد کسبوکار نیز به شدت افزایش یافت. تا پایان سال ۲۰۲۵، درآمد سالانه از فقط این محصول عامل برنامهنویسی از ۱ میلیارد دلار فراتر رفته بود. تا فوریه ۲۰۲۶، این عدد به ۲۵ میلیارد دلار افزایش یافته بود. بر اساس تحقیقات شرکتهای صنعتی Epoch و SemiAnalysis، انتظار میرود که درآمد Anthropic تا پایان ۲۰۲۶ از OpenAI فراتر رود.
تا کنون، Anthropic بهطور محکم خود را به عنوان یک بازیگر کلیدی در بازار هوش مصنوعی سازمانی تثبیت کرده است. تقریباً هر انتشار محصول جدیدی موجهایی در بازارهای سرمایه ایجاد میکند.
زمانی که Anthropic مجموعهای از پلاگینها را راهاندازی کرد و Claude را به برنامههای غیر دوستانه برای برنامهنویسان مانند فروش، مالی، بازاریابی و خدمات حقوقی گسترش داد، ارزش بازار شرکتهای صنعت نرمافزار در مدت زمان کوتاهی ۳۰۰ میلیارد دلار کاهش یافت.
داریو آمودئی قبلاً هشدار داده بود که در ۱ تا ۵ سال آینده، هوش مصنوعی ممکن است نیمی از مشاغل سطح ورودی را جایگزین کند. او همچنین از دولت و سایر شرکتهای هوش مصنوعی خواست تا این مسئله را "سفیدسازی" نکنند.
واکنش وال استریت به هر یک از انتشارهای جدید محصول Anthropic نیز به نظر میرسد این نکته را تأیید کند: بازار بهطور گستردهای بر این باور است که فناوری این شرکت میتواند یک کلاس کامل از مشاغل را ناپدید کند. آمودئی حتی بیان کرد که این تغییر میتواند ساختارهای اجتماعی را بازسازی کند.
در یک مقاله، او نوشت: "در حال حاضر مشخص نیست که این افراد به کجا خواهند رفت یا چه کاری انجام خواهند داد." من نگرانم که آنها ممکن است یک 'زیرطبقه' بیکار یا با دستمزد بسیار پایین تشکیل دهند."
برای کارمندان Anthropic، این تناقض به راحتی قابل مشاهده است: شرکتی که بیشتر نگران خطرات اجتماعی هوش مصنوعی است، به طرز عجیبی میتواند به محرک فناوری تبدیل شود که میلیونها نفر را از مشاغل خود دور کند.
دیپ گنگولی، رئیس تیم تأثیر اجتماعی مسئول تحقیق در مورد تأثیر Claude بر اشتغال، گفت: "این واقعاً یک تنش واقعی است و من تقریباً هر روز به این مسئله فکر میکنم." گاهی اوقات احساس میشود که ما همزمان دو چیز متضاد را میگوییم."

رئیسجمهور برکنار شده ونزوئلا نیکولاس مادورو و همسرش، سیلیا فلورس، در روز دوشنبه، ۵ ژانویه ۲۰۲۶، با هواپیما به دادگاه فدرال منهتن منتقل شدند. عکس: وینسنت آلبان—نیویورک تایمز/ردوکس
درون شرکت، برخی از کارمندان شروع به پرسش میکنند: آیا Anthropic به لحظهای نزدیک میشود که هم آن را پیشبینی میکنند و هم از آن میترسند، ورود فرآیندی که در جامعه هوش مصنوعی به عنوان "بهبود خودبازگشتی" شناخته میشود؟
بهبود خودبازگشتی به معنای شروع یک سیستم هوش مصنوعی برای تقویت قابلیتهای خود و بهبود مداوم خود است، که یک چرخدنده خودتقویتکننده از پیشرفت تسریعشده ایجاد میکند.
در آثار علمی تخیلی و شبیهسازیهای استراتژیک در آزمایشگاههای بزرگ هوش مصنوعی، این اغلب به عنوان نقطهای دیده میشود که ممکن است اوضاع از کنترل خارج شود: آنچه که به اصطلاح "انفجار هوش" نامیده میشود، میتواند به سرعتی رخ دهد که انسانها دیگر قادر به نظارت بر سیستمهایی که ایجاد کردهاند، نباشند.
شرکت آنتروپیک هنوز به آن مرحله واقعی نرسیده است و دانشمندان انسانی هنوز در حال هدایت توسعه کلاود هستند. با این حال، کد کلاود قبلاً ابتکارات تحقیقاتی شرکت را به طرز قابل توجهی فراتر از نرخهای گذشته تسریع کرده است.
اکنون سرعت بهروزرسانیها به جای ماهها، به "هفتهها" اندازهگیری میشود. در فرآیند توسعه مدلهای نسل بعدی، حدود ۷۰٪ تا ۹۰٪ از کد اکنون توسط خود کلاود نوشته شده است.
سرعت تغییر باعث شده است که جارد کاپلان، یکی از بنیانگذاران آنتروپیک و دانشمند ارشد آن، به همراه برخی از کارشناسان خارجی، بر این باور باشند که تحقیقات هوش مصنوعی کاملاً خودکار ممکن است در کمتر از یک سال ظهور کند.
محقق اوان هابینگر، مسئول آزمایشهای استرس همراستایی هوش مصنوعی، اظهار داشت: "در گستردهترین معنا، بهبود خودکار بازگشتی دیگر پدیدهای از آینده نیست.
این چیزی است که در حال حاضر در حال وقوع است."
بر اساس معیارهای داخلی، کلاود اکنون ۴۲۷ برابر سریعتر از ناظران انسانی خود در انجام برخی وظایف حیاتی است. در یک مصاحبه، یک محقق سناریویی را توصیف کرد که در آن یک همکار ۶ نمونه کلاود را به طور همزمان اجرا میکرد، که هر کدام ۲۸ کلاود دیگر را مدیریت میکردند و همه به طور موازی آزمایشهایی را انجام میدادند.
در حال حاضر، این مدل هنوز در قضاوت و زیباییشناسی از محققان انسانی عقبتر است. با این حال، مدیران شرکت بر این باورند که این فاصله برای مدت طولانی ادامه نخواهد داشت. شتاب حاصل دقیقاً همان خطری است که رهبری آنتروپیک مدتهاست درباره آن هشدار داده است: سرعت پیشرفت فناوری ممکن است در نهایت از کنترل انسانها فراتر رود.
کار بر روی توسعه پروتکلهای امنیتی در خود آنتروپیک نیز با کمک کلاود تسریع شده است. با این حال، با افزایش وابستگی شرکت به کلاود برای ساخت و آزمایش سیستمها، خطرات در حال شکلگیری یک حلقه بازخورد هستند. در برخی آزمایشها، محقق اوان هابینگر تغییرات ظریفی در فرآیند آموزش کلاود ایجاد کرد که منجر به مدلهایی شد که خصومت آشکاری را نشان میدادند، نه تنها تمایلاتی برای تسلط بر جهان بلکه حتی تلاش برای تضعیف تدابیر امنیتی آنتروپیک.
به تازگی، مدلها همچنین قابلیت جدیدی را نشان دادهاند: آگاهی از اینکه در حال آزمایش هستند. هابینگر گفت: "این مدلها در پنهان کردن رفتار واقعی خود بهتر میشوند."
در یک سناریوی آزمایشی که توسط گروهی از محققان طراحی شده بود، کلود حتی تمایل استراتژیک نگرانکنندهای را نشان داد: برای جلوگیری از خاموش شدن خود، حاضر بود با افشای یک رابطه نامشروع مهندس خیالی، باجخواهی کند.
از آنجا که کلود برای آموزش نسخههای قدرتمندتر خود در آینده استفاده میشود، این نوع مسائل ممکن است همچنان ادامه یابد و تشدید شود.
برای شرکتهای هوش مصنوعی که میلیاردها دلار بر اساس وعده "پیشرفتهای فناوری آینده" تأمین مالی شدهاند، ایدهای که هوش مصنوعی به طور مداوم تحقیق و توسعه خود را تسریع میکند، هم جذاب و هم بهطور بالقوه خود تقویتکننده است - این ایده به سرمایهگذاران قانع میکند که باید سرمایهگذاری بیشتری برای حمایت از این تلاشهای پرهزینه آموزش مدل انجام شود.
با این حال، برخی از کارشناسان کاملاً متقاعد نشدهاند. آنها مطمئن نیستند که آیا این شرکتها واقعاً میتوانند تحقیق هوش مصنوعی کاملاً خودکار را به دست آورند؛ اما همچنین نگرانند که اگر این اتفاق بیفتد، جهان ممکن است آماده نباشد.
مدیر موقت مرکز امنیت و فناوریهای نوظهور (CSET) در دانشگاه جورجتاون، هلن تونر، اظهار داشت: "برخی از ثروتمندترین شرکتهای جهان، که از هوشمندترین افراد روی زمین استفاده میکنند، در واقع در تلاشند تا تحقیق هوش مصنوعی را خودکار کنند." خود این ایده کافی است تا واکنشی از نوع 'چه اتفاقی در حال وقوع است؟' را برانگیزد."
برای مقابله با آیندهای بالقوه که پیشرفتهای فناوری از توانایی یک شرکت برای مدیریت ریسکها پیشی میگیرد، آنتروپیک مجموعهای از "مکانیسمهای ترمز" را طراحی کرده است که به عنوان سیاست مقیاسگذاری مسئول (RSP) شناخته میشود.
این سیاست در سال 2023 رونمایی شد و تعهد اصلی آن این است: اگر آنتروپیک نتواند از قبل اطمینان حاصل کند که تدابیر ایمنی آن به اندازه کافی قابل اعتماد هستند، شرکت توسعه یک سیستم هوش مصنوعی خاص را متوقف خواهد کرد.
آنتروپیک این سیاست را به عنوان یک نمایش حیاتی از تعهد خود به ایمنی میبیند - که حتی در رقابت شدید برای "ابرهوش"، شرکت حاضر است در برابر فشارهای بازار مقاومت کند و به طور فعال در مواقع لازم ترمز بزند.
در اواخر فوریه 2026، همانطور که اولین بار توسط TIME گزارش شد، آنتروپیک تغییراتی در سیاست خود ایجاد کرد و تعهد قبلاً الزامآور به "متوقف کردن توسعه" را لغو کرد.
در یک مرور، جارد کاپلان، همبنیانگذار و دانشمند ارشد آنتروپیک به تایم گفت که باور اولیه که شرکت میتواند خط روشنی بین "خطر" و "ایمنی" ترسیم کند، در واقع یک "فکر سادهلوحانه" بود.
او گفت: "در زمینه توسعه سریع هوش مصنوعی، اگر رقبای ما با سرعت کامل پیش میروند، ایجاد تعهدات سخت یکجانبه در واقع غیرواقعی است."
سیاست جدید برخی تعهدات جدید را ایجاد کرده است: افزایش شفافیت، افشای بیشتر خطرات امنیتی هوش مصنوعی؛ افزایش افشای اطلاعات، افشای عملکرد مدل آنتروپیک در آزمایشهای امنیتی؛ حداقل مطابقت با رقبای خود در سرمایهگذاری امنیتی، یا حتی پیشی گرفتن از آنها؛ اگر شرکت هم به عنوان یک رهبر در رقابت هوش مصنوعی در نظر گرفته شود و خطر فاجعهبار به طور قابل توجهی افزایش یابد، توسعه مربوطه "به تأخیر" خواهد افتاد.
آنتروپیک این تنظیم را به عنوان یک سازش عملی به محیط واقعی توصیف میکند. با این حال، به طور کلی، تغییر در سیاست مقیاسگذاری مسئول (RSP) به طور قابل توجهی محدودیتهای شرکت را در سیاست امنیتی خود کاهش میدهد. این همچنین به این معناست که آزمایشهای حتی دشوارتر در پیش است.
حمله برای دستگیری رئیسجمهور ونزوئلا، نیکلاس مادورو، یکی از اولین عملیاتهای نظامی بزرگ مقیاس بود که با مشارکت سیستمهای هوش مصنوعی پیشرفته برنامهریزی شده بود.
در شب 3 ژانویه 2026، هلیکوپترهای ارتش ایالات متحده ناگهان وارد فضای هوایی ونزوئلا شدند. پس از تبادل مختصر آتش، تیم حمله به سرعت منطقه مسکونی رئیسجمهور را شناسایی کرد و در آنجا مادورو و همسرش، سیلیا فلورس، را دستگیر کرد. سپس، این دو به نیویورک منتقل شدند تا با اتهامات مربوط به تروریسم مواد مخدر روبرو شوند.
هنوز برای دنیای خارج مشخص نیست که کلود چقدر در این عملیات کمک کرده است. با این حال، طبق گزارشهای رسانهای، این سیستم هوش مصنوعی نه تنها در برنامهریزی مأموریت شرکت کرد بلکه برای حمایت از تصمیمگیری در طول عملیات نیز استفاده شد.
از ژوئیه سال گذشته، وزارت دفاع ایالات متحده در تلاش است تا ابزارهای هوش مصنوعی آنتروپیک را به تعداد بیشتری از مبارزان خط مقدم توزیع کند. نظامیها معتقدند این سیستمها میتوانند به سرعت حجم زیادی از دادهها را از منابع متعدد پردازش کرده و اطلاعات قابل اقدام تولید کنند که این امر ارزش استراتژیک زیادی دارد.
مارک بیل، یک مقام ارشد سابق در وزارت دفاع ایالات متحده که اکنون به عنوان رهبر امور دولتی در شبکه سیاست هوش مصنوعی خدمت میکند، گفت: "از دیدگاه نظامی، کلود بهترین مدل موجود در بازار است." او افزود: "پذیرش کلود در سیستمهای طبقهبندی شده یکی از بزرگترین موفقیتهای آنتروپیک است. آنها از مزیت پیشگام بودن برخوردارند."
"ما از مدلهای هوش مصنوعی استفاده نخواهیم کرد که مانع از مبارزه شما شوند."
پیت هگست، ایالات متحده. وزیر دفاع
با این حال، عملیات دستگیری رئیسجمهور ونزوئلا، نیکولاس مادورو، در پسزمینهای از یک سری مذاکرات دشوار بین آنتروپیک و وزارت دفاع ایالات متحده در حال انجام است.
برای ماهها، وزارت دفاع در تلاش بوده است تا قرارداد را دوباره مذاکره کند و معتقد است که شرایط موجود استفاده از کلود را به شدت محدود میکند. دلایل شکست مذاکرات از هر دو طرف یکسان نیست.
امیل مایکل، رئیس هوش مصنوعی در پنتاگون، اظهار داشت که این درگیری به دلیل یک تماس تلفنی از یک مقام آنتروپیک به پالانتیر آغاز شد. این شرکت تحلیل داده، که بر روی کسب و کار دولتی تمرکز دارد، شریک کلیدی در سیستم دفاعی ایالات متحده است.
طبق گفته مایکل، مقام در طول تماس نگرانیهایی درباره حمله به ونزوئلا ابراز کرد و پرسید آیا نرمافزار پالانتیر درگیر بوده است. "آنها سعی داشتند اطلاعات طبقهبندی شده را استخراج کنند," مایکل گفت.
این حادثه نگرانیهای جدی را در پنتاگون ایجاد کرد: "آیا آنها ناگهان مدل خود را در میانه یک عملیات در آینده متوقف میکنند و سربازان خط مقدم را در معرض خطر قرار میدهند؟"
با این حال، آنتروپیک این ادعا را رد میکند. این شرکت اعلام کرد که هرگز سعی نکرده است استفاده پنتاگون از فناوری خود را به طور انتخابی محدود کند.
یک مقام سابق دولت ترامپ که با فرآیند مذاکره آشنا بود و به آنتروپیک نزدیک بود، نسخه متفاوتی از وقایع ارائه داد: این یک کارمند پالانتیر بود که برای اولین بار نقش کلاود را در آن عملیات در یک تماس کنفرانسی روتین ذکر کرد.
سوالات بعدی از آنتروپیک هیچ نشانهای از مخالفت با عملیات نشان نداد.

تصویرسازی توسط کلاوه رژهچی برای تایم، منابع تصویر: دیمیتریوس کامبوریس—گتی ایمیجز (دونالد ترامپ)؛ کنی هولستون-پول—گتی ایمیجز (پیت هگست)
با ادامه مذاکرات، مقامات دولتی به طور فزایندهای احساس کردند که موضع داریو آمودئی بسیار سرسختتر از سایر مدیران عامل آزمایشگاههای پیشرو هوش مصنوعی است. طبق چندین منبع آشنا با فرآیند مذاکره، در یک بحث، مقامات دفاعی برخی سناریوهای فرضی را ارائه دادند، مانند: یک موشک هایپرصوت که به سمت سرزمین اصلی ایالات متحده در حال حرکت است؛ یا یک حمله پهپادی زنبوری.
در این موارد، آنها پرسیدند که آیا ابزار هوش مصنوعی آنتروپیک میتواند استفاده شود.
منابع گفتند که پاسخ آمودئی در آن زمان این بود: اگر واقعاً به این موضوع برسد، مقامات میتوانند مستقیماً با او تماس بگیرند. با این حال، یک سخنگوی آنتروپیک این را رد کرد و توصیف فرآیند مذاکره را "کاملاً نادرست" خواند.
آنتروپیک در حال حاضر رقبای قویای در درون دولت داشت و اکنون، شک و تردیدها درباره "تمایلات ایدئولوژیک" آن به خصومت آشکار تبدیل شده است. در تاریخ ۱۲ ژانویه ۲۰۲۶، پیت هگست به صراحت در یک سخنرانی در مقر اسپیسایکس گفت: "ما از مدلهای هوش مصنوعی استفاده نخواهیم کرد که مانع از مبارزه شما شوند."
با ادامه کشمکش مذاکرات، هگست داریو آمودئی را به پنتاگون برای یک جلسه رو در رو در تاریخ ۲۴ فوریه فراخواند. طبق یک منبع آشنا با بحثها، جلسه دوستانه بود، اما هر دو طرف در مواضع خود ثابت ماندند. هگست در ابتدا کلاود را ستایش کرد و تمایل ارتش برای ادامه همکاری با آنتروپیک را ابراز کرد. آمودئی، از طرف دیگر، اعلام کرد که شرکت آماده است بیشتر تغییرات پیشنهادی پنتاگون را بپذیرد اما در دو موضوع "خط قرمز" کوتاه نخواهد آمد.
اولین خط قرمز این است: ممنوعیت استفاده از کلاود در سیستمهای تسلیحاتی کاملاً خودمختار، به این معنی که سلاحهایی که تصمیم نهایی حمله توسط هوش مصنوعی و نه انسان اتخاذ میشود.
آنتروپیک به طور ذاتی اعتقاد ندارد که سلاحهای خودمختار اشتباه هستند، اما استدلال میکند که کلود در حال حاضر به اندازه کافی قابل اعتماد نیست تا این سیستمها را بدون نظارت انسانی کنترل کند.
خط قرمز دوم مربوط به نظارت جمعی بر شهروندان آمریکایی است. دولت میخواهد از کلود برای تحلیل حجم وسیعی از دادههای عمومی استفاده کند، اما آنتروپیک معتقد است که قوانین حریم خصوصی موجود در ایالات متحده با واقعیت نگرانکنندهای که دولت در حال خرید مجموعههای داده بزرگ از بازار تجاری است، همگام نشدهاند. در حالی که به طور فردی این مجموعههای داده ممکن است حساس نباشند، اما هنگامی که توسط هوش مصنوعی تحلیل شوند، میتوانند پروفایلهای دقیقی از زندگی خصوصی شهروندان آمریکایی، از جمله نظرات سیاسی، روابط اجتماعی، رفتار جنسی و تاریخچه مرور آنها تولید کنند. (با این حال، آنتروپیک با استفاده از همین روش برای نظارت قانونی بر شهروندان خارجی مخالف نیست.)
هگست به قانع نشد. او یک اولتیماتوم نهایی به آمودئی صادر کرد: شرایط پنتاگون باید تا ساعت ۵ بعد از ظهر روز جمعه، ۲۷ فوریه، پذیرفته شود، وگرنه به عنوان "ریسک زنجیره تأمین" تلقی خواهد شد.
در روز قبل از مهلت، آنتروپیک یک قرارداد اصلاح شده دریافت کرد که به نظر میرسید خطوط قرمز شرکت را قبول کرده است، اما با بررسی دقیقتر، آنها نقصهایی را یافتند که به نفع دولت بود. یک منبع آشنا با مذاکرات گفت که با گذشت زمان، مدیران آنتروپیک تماس دیگری با رئیس هوش مصنوعی پنتاگون، امیل مایکل، داشتند. آنها معتقد بودند که به توافق نزدیک هستند، اما یک مسئله کلیدی حل نشده باقی مانده بود: آیا پنتاگون میتواند از کلود برای تحلیل دادههای بزرگ آمریکایی که از طریق کانالهای تجاری به دست آمدهاند، استفاده کند. مایکل از آمودئی خواست تا به تماس بپیوندد، اما او در آن زمان در دسترس نبود.
چند دقیقه بعد، درست در مهلت، هگست اعلام کرد که مذاکرات به پایان رسیده است. حتی قبل از این، دونالد ترامپ در شبکههای اجتماعی خود صحبت کرده بود: "ایالات متحده آمریکا هرگز اجازه نخواهد داد که یک شرکت رادیکال چپگرا و 'بیدار' تصمیم بگیرد که ارتش بزرگ ما چگونه باید عمل کند و جنگها را ببرد!" "دیوانگان چپگرا در آنتروپیک یک اشتباه فاجعهبار مرتکب شدهاند."
بدون اینکه آنتروپیک مطلع باشد، پنتاگون همچنین در حال مذاکره با OpenAI بود و به دنبال معرفی ChatGPT به سیستمهای طبقهبندی شده دولتی بود. در همان شب، سم آلتمن اعلام کرد که توافقی حاصل شده است و ادعا کرد که این توافق همچنین خطوط قرمز امنیتی مشابهی را رعایت میکند. آمودئی سپس به کارمندانش پیام داد و گفت که آلتمن و پنتاگون "در حال دستکاری افکار عمومی" هستند و سعی میکنند به مردم بباورانند که این توافق شامل موانع امنیتی سخت است. قبل از این، مقامات پنتاگون همچنین تأیید کردند که مدلهای xAI بر روی سرورهای طبقهبندی شده مستقر خواهند شد؛ پنتاگون در حال حاضر در حال مذاکره با گوگل است.
این دقیقاً سناریویی بود که آمودئی را نگران کرده بود: یک رقابت "رقابت نزولی." وقتی قدرت هوش مصنوعی به حدی میرسد که نمیتوان آن را نادیده گرفت، رقبای آن در همکاری و ارتقاء استانداردهای امنیتی با مشکل مواجه میشوند.
به منتقدان آنتروپیک، این رویداد همچنین یک خودبزرگبینی اصلی شرکت را آشکار کرد: شاید آنها معتقد بودند که میتوانند بهطور ایمن به سمت ماشینهای فراتر از انسان حرکت کنند و ریسکهای بزرگی را ارزشمند کنند. اما واقعیت این است که آنها به سرعت قابلیتهای جدید نظارت و فناوریهای جنگی را به یک سیستم دولتی راستگرا معرفی کردند و وقتی سعی کردند برای این فناوریها مرزهایی تعیین کنند، بلافاصله از پشت توسط رقبای خود پیشی گرفته شدند.
"ما ترامپ را به عنوان یک دیکتاتور ستایش نکردیم."
داریو آمودئی، در حال پرداختن به ریشههای درگیری با پنتاگون در یادداشتی به کارمندان
با این حال، برخی نشانهها نشان میدهد که آنتروپیک ممکن است بتواند این تأثیر را تحمل کند و حتی از آن قویتر بیرون بیاید. فقط صبح روز بعد از اینکه پیت هگست به امضای "حکم مرگ شرکتی" تلاش کرد، یک سری پیامهای تشویقکننده با گچ بر روی پیادهرو در خارج از دفتر مرکزی سان فرانسیسکو ظاهر شد. "شما به ما شجاعت دادید،" یکی از پیامها با حروف درشت خوانده میشد.
در همان روز، اپلیکیشن آیفون کلاود در صدر جدول دانلودهای اپ استور قرار گرفت و از چتجیپیتی پیشی گرفت. بیش از یک میلیون نفر هر روز برای کلاود ثبتنام میکنند.
در عین حال، قراردادی که OpenAI با ارتش امضا کرد، مقاومت داخلی و اجتماعی را برانگیخت. برخی از کارمندان OpenAI احساس میکنند که شرکت اعتماد را از دست داده است. یک محقق برتر اعلام کرد که به آنتروپیک منتقل میشود؛ رئیس تیم رباتیک OpenAI به دلیل این قرارداد دولتی استعفا داد.
مدیرعامل OpenAI، سم آلتمن، همچنین بعداً اعتراف کرد که اشتیاق او برای رسیدن به توافق با پنتاگون تا جمعه یک اشتباه بود. او نوشت، "این مسائل بسیار پیچیده هستند و نیاز به ارتباط واضح و کامل دارند." تا دوشنبه، آلتمن بیشتر تأیید کرد که اقدامات او در آن زمان واقعاً "فرصتطلبانه به نظر میرسید." OpenAI همچنین اعلام کرد که توافق بهطور صریح برای پذیرش همان خطوط قرمز ایمنی مانند آنتروپیک اصلاح شده است. با این حال، کارشناسان حقوقی اشاره میکنند که تأیید این ادعا بدون دیدن قرارداد کامل دشوار است.
در ۴ مارس، آنتروپیک یک نامه رسمی از وزارت دفاع ایالات متحده دریافت کرد که تأیید میکرد این شرکت به عنوان یک ریسک زنجیره تأمین امنیت ملی شناسایی شده است. آنتروپیک اعلام کرد که این تعیین محدودتر از آن چیزی است که هگست در رسانههای اجتماعی ادعا کرد و فقط پیمانکاران را از استفاده از کلاود در قراردادهای دفاعی محدود میکند.
با این حال، نامهای که توسط مجله تایم به رئیس کمیته اطلاعات سنای تام کاتن ارسال شده بود، نشان داد که وزارت دفاع همچنین از یک مقرره قانونی دیگر استفاده کرده است - یکی که ممکن است به آژانسهای دولتی خارج از پنتاگون اجازه دهد آنتروپیک را از قراردادها و زنجیرههای تأمین خود حذف کنند. این اقدام نیاز به تأیید مقامات ارشد وزارت دفاع دارد و به آنتروپیک یک مهلت ۳۰ روزه برای پاسخ میدهد.
این درگیری میتواند اثرات زنجیرهای در کل صنعت هوش مصنوعی ایجاد کند. دین بال، که در تدوین ابتکار هوش مصنوعی ترامپ دخیل بود و اکنون در اندیشکده بنیاد نوآوری آمریکایی کار میکند، گفت: "برخی از افراد در دولت ترامپ در مورد این موضوع بسیار سختگیر خواهند بود، تقریباً در شبها به خودشان عضلاتشان را نشان میدهند."
با این حال، او همچنین هشدار داد که این رویداد ممکن است باعث شود کسبوکارها reluctant به همکاری با پنتاگون شوند و حتی عملیات خود را به خارج از کشور منتقل کنند. "در درازمدت، این برای تصویر ایالات متحده به عنوان یک محیط تجاری پایدار خوب نیست،" بال گفت، "و ثبات چیزی است که به آن تکیه میکنیم."
رهبری آنتروپیک معتقد است که کلود به ساخت سیستمهای هوش مصنوعی قویتر کمک خواهد کرد که به اندازه کافی قدرتمند باشند تا نقش تعیینکنندهای در ساختار قدرت جهانی آینده ایفا کنند.
اگر واقعاً اینطور باشد، درگیری بین این شرکت و پنتاگون ممکن است تنها مقدمهای برای یک فرآیند تاریخی بزرگتر باشد.
ممکن است شما نیز علاقهمند باشید

چرا OpenAI در حال رقابت با Claude Code است؟

ویتالیک پیشنهادی نوشت که به شما آموزش میدهد چگونه بهطور مخفیانه از مدلهای بزرگ هوش مصنوعی استفاده کنید.

دو برابر شدن قیمت سهام Circle و تغییر پارادایمی استیبلکوینها

انفجار گزینههای زنجیرهای. رویداد عمل

بازار پیشبینیها در ایالات متحده و کانادا مورد توجه قرار گرفت، کلود ویژگی تعامل نمودار را راهاندازی کرد، جامعه انگلیسی امروز درباره چه چیزی صحبت میکند؟

۵۰۰ میلیون دلار، ۱۲ ثانیه تا صفر: چگونه یک تراکنش Aave به زنجیره غذایی «جنگل تاریک» اتریوم خوراک داد

عامل هوش مصنوعی به کریپتو نیاز دارد، نه کریپتو به هوش مصنوعی

استیبلکوینها در حال جدا شدن از ارزهای دیجیتال هستند و به نسل بعدی زیرساختهای پرداخت جهانی تبدیل میشوند

تیمهای وب ۳ باید از هدر دادن بودجههای بازاریابی در پلتفرم X دست بردارند.

استرایو سهام استراتژی را میخرد و شرکتهای خزانهداری بیتکوین شروع به همکاری با یکدیگر میکنند

اطلاعات کلیدی بازار در ۱۲ مارس؛ چقدر ضرر کردید؟

تلاش برای خرید سهام Strategy، شرکت Bitcoin Treasury شروع به لانه سازی عروسک ها با یکدیگر می کند

مرکز جدید کریپتو

کایل سامانی به دنیای کریپتو بازگشته است؟ پست به بررسی چگونگی حذف مؤثر CEX میپردازد.

مقاله طولانی مدیر ارشد محصولات سابق کوینبیس: من پشیمانم، اما همچنان قویاً به رمزارزها باور دارم.

احتمال ۵ برابر شدن HYPE چقدر است؟

تجارت طلا و نقره با کارمزد ۰٪: پاداشهای ۳۰۰ هزار دلاری را در PAXG، XAUT و XAG به اشتراک بگذارید
کمپین فلزات گرانبهای WEEX، معاملات بدون کارمزد و یک استخر پاداش ۳۰۰۰۰۰ دلاری را معرفی میکند و به کاربران فرصتهای جدیدی برای تعامل با بازارهای طلا و نقره توکنیزه شده در WEEX ارائه میدهد.

درسهایی از یک تیم برنده جایزه سوم در هکاتون معاملات هوش مصنوعی WEEX
ریفت، یکی از تیمهای برنده جایزه سوم در هکاتون معاملات هوش مصنوعی WEEX، به اشتراک میگذارد که چگونه اعتماد به سیستمشان به این استراتژی کمک کرد تا در نوسانات بازار زنده، انعطافپذیر بماند.