logo

مجلة تايم تُصنّف شركة أنثروبيك كأكثر الشركات تأثيراً في العالم

By: بلوك بيتس|2026/03/13 13:15:51
0
مشاركة
copy
عنوان المقال الأصلي: الشركة الأكثر تأثيراً في العالم
مؤلفو المقال الأصلي: ليزلي ديكستين، سيمون شاه، التايمز
ترجمة: بيغي، بلوك بيتس

ملاحظة المحرر: من اختبار أمني في وقت متأخر من الليل إلى مواجهة علنية مع البنتاغون، يسرد هذا المقال التوترات المتعددة التي واجهتها شركة الذكاء الاصطناعي "أنثروبيك" خلال صعودها السريع. يستعرض المقال أولاً كيف قامت الشركة داخلياً بتقييم المخاطر المحتملة للذكاء الاصطناعي، ثم يستعرض الإنجازات التقنية والنجاحات التجارية التي حققها كلود، ويعرض كذلك تطبيقاته العملية في المجال العسكري.

مع تطور الأحداث، يكشف المؤلفون عن الخلافات التي أثيرت بين شركة أنثروبيك والجيش الأمريكي حول الأسلحة ذاتية التشغيل والمراقبة الجماعية والتحكم بالذكاء الاصطناعي من وجهات نظر قائد الفريق الأحمر والمهندسين والمديرين التنفيذيين وباحثي السياسات والمسؤولين الحكوميين.

من خلال هذا الحدث، يطرح المؤلفون في نهاية المطاف سؤالاً ملحاً بشكل متزايد: مع بدء الذكاء الاصطناعي في تسريع تطوره الخاص وانغماسه بعمق في الحرب والحكم وهياكل العمل، فمن لا يزال بإمكانه وضع حدود له؟

النص الأصلي هو كالتالي:

مجلة تايم تُصنّف شركة أنثروبيك كأكثر الشركات تأثيراً في العالم

في غرفة فندق في سانتا كلارا، كاليفورنيا، يعمل خمسة أعضاء من شركة الذكاء الاصطناعي "أنثروبيك" بتوتر حول جهاز كمبيوتر محمول. كان ذلك في فبراير 2025، وكانوا يحضرون مؤتمراً قريباً عندما تلقوا فجأة رسالة مقلقة: أشارت نتائج تجربة مضبوطة إلى أن الإصدار القادم من النسخة الجديدة من كلود قد يساعد الإرهابيين في صنع سلاح بيولوجي.

كان هؤلاء الأفراد جزءًا من "الفريق الأحمر الحدودي" التابع لشركة أنثروبيك. كانت مهمتهم دراسة قدرات كلود المتقدمة ومحاولة محاكاة المخاطر في أسوأ السيناريوهات، من الهجمات الإلكترونية إلى تهديدات الأمن البيولوجي والاحتمالات المختلفة. فور تلقيهم الخبر، سارعوا بالعودة إلى غرفة الفندق، وقلبوا السرير جانباً لاستخدامه كمكتب مؤقت، وبدأوا بمراجعة نتائج الاختبار بعناية.

بعد ساعات من التحليل المتوتر، لم يتمكنوا من تحديد ما إذا كان المنتج الجديد آمناً بما فيه الكفاية. في نهاية المطاف، قررت شركة أنثروبيك تأجيل إصدار هذا الطراز الجديد، كلود 3.7 سونيت، لمدة 10 أيام كاملة حتى أكد الفريق أن المخاطر قابلة للإدارة.

على الرغم من أن هذا قد يبدو وكأنه عشرة أيام قصيرة فقط، إلا أنه بالنسبة لشركة في طليعة التكنولوجيا في صناعة تغير العالم بسرعة، فقد كان الأمر أشبه بقرن طويل.

استذكر لوجان جراهام (الرئيس السابق لفريق ريد تيم) حادثة "الخوف من الأسلحة البيولوجية" باعتبارها نموذجًا مصغرًا للتحدي الذي واجهته شركة أنثروبيك في منعطف حاسم، ليس فقط بالنسبة للشركة ولكن للعالم بأسره. تُعد شركة أنثروبيك واحدة من أكثر المنظمات تركيزًا على الأمن في مختبرات الذكاء الاصطناعي المتطورة اليوم. ومع ذلك، وفي الوقت نفسه، فهي أيضاً على خط المواجهة التنافسي، وتسعى جاهدة لبناء أنظمة ذكاء اصطناعي قوية بشكل متزايد. ويعتقد العديد من الموظفين داخل الشركة أيضاً أن هذه التكنولوجيا، إذا لم يتم التحكم فيها، يمكن أن تؤدي إلى سلسلة من العواقب الكارثية، من الحرب النووية إلى انقراض البشرية.

لا يزال غراهام، البالغ من العمر 31 عامًا، يحمل لمحة من روح الشباب، لكنه لا يتهرب أبدًا من مسؤولية السعي لتحقيق التوازن بين الفوائد الهائلة والمخاطر الهائلة للذكاء الاصطناعي. قال: "نشأ الكثير من الناس في عالم يسوده السلام نسبياً، ويشعرون بشكل فطري أن هناك غرفة ما تضم ​​مجموعة من البالغين الناضجين الذين يعرفون كيفية إصلاح الأمور."

"لكن في الواقع، لا توجد "مجموعة للبالغين". لا توجد حتى تلك الغرفة. وليس هذا هو الباب الذي تبحث عنه. المسؤولية تقع على عاتقك. إذا لم يكن هذا التصريح مثيراً للقلق بما فيه الكفاية، فانظر كيف يتذكر تحذير السلاح البيولوجي: "لقد كان يوماً مثيراً للاهتمام وممتعاً للغاية."

توضيح: نيل جاميسون لمجلة تايم (مصادر الصور: أسكيل: آرون ووجاك؛ صور غيتي، من الأعلى باتجاه عقارب الساعة: ساميوكتا لاكشمي – بلومبرج؛ بريندان سميالوفسكي – وكالة فرانس برس؛ تيرني إل كروس – بلومبرج؛ دانييل سليم – أ ف ب؛ بريدجيت بينيت – بلومبرج)

قبل بضعة أسابيع، ناقش لوجان جراهام هذه القضايا في مقر شركة أنثروبيك خلال مقابلة. أمضى مراسل من مجلة تايم ثلاثة أيام هنا، أجرى مقابلات مع المديرين التنفيذيين للشركة والمهندسين ومديري المنتجات وأعضاء فريق الأمن، في محاولة لمعرفة سبب تحول هذه الشركة، التي كانت تُعتبر في السابق "الشركة المنشقة" في سباق الذكاء الاصطناعي، إلى شركة رائدة فجأة.

في ذلك الوقت، كانت شركة أنثروبيك قد جمعت للتو 30 مليار دولار من المستثمرين استعدادًا لطرح عام أولي محتمل هذا العام. (ملاحظة جانبية: تعد Salesforce أيضًا واحدة من مستثمري Anthropic، ومالك مجلة TIME، مارك بينيوف، هو الرئيس التنفيذي لشركة Salesforce.) اليوم، وصلت قيمة شركة أنثروبيك إلى 380 مليار دولار، متجاوزة بذلك الشركات العملاقة التقليدية مثل غولدمان ساكس وماكدونالدز وكوكاكولا.

إن معدل نمو إيرادات الشركة ليس أقل من كونه نمواً هائلاً. وقد تم الإشادة بنظام الذكاء الاصطناعي الخاص بها، كلود، باعتباره نموذجًا عالميًا، كما أن منتجات مثل كلود كود وكلود كوورك تعيد تعريف معنى أن تكون "مبرمجًا".

أدوات شركة أنثروبيك قوية للغاية لدرجة أن كل إصدار جديد تقريبًا يتسبب في حدوث تموجات في أسواق رأس المال حيث يدرك المستثمرون تدريجيًا أن هذه التطورات التكنولوجية يمكن أن تعطل صناعات بأكملها - من الخدمات القانونية إلى تطوير البرمجيات. في الأشهر الأخيرة، تم اعتبار شركة أنثروبيك واحدة من أكثر الشركات احتمالاً لإعادة تشكيل "مستقبل العمل".

وفي وقت لاحق، تورطت شركة أنثروبيك في جدل حاد حول "أشكال الحرب المستقبلية".

لأكثر من عام، كان كلود هو نموذج الذكاء الاصطناعي المفضل لدى الحكومة الأمريكية، وكان أول نموذج يتم الموافقة عليه للاستخدام في البيئات السرية كنظام ذكاء اصطناعي متطور. وفي يناير 2026، تم استخدامها حتى في عملية جريئة: القبض على الرئيس الفنزويلي نيكولاس مادورو في كاراكاس. وبحسب ما ورد، تم استخدام الذكاء الاصطناعي في تخطيط المهمة وتحليل المعلومات الاستخباراتية في هذه العملية، مما يمثل أول مشاركة عميقة للذكاء الاصطناعي المتطور في عمل عسكري حقيقي.

لكن في الأسابيع التالية، توترت العلاقة بين شركة أنثروبيك والولايات المتحدة. تدهورت وزارة الدفاع بسرعة. في 27 فبراير، أعلنت إدارة ترامب أن شركة أنثروبيك تم تصنيفها على أنها "تشكل خطراً على الأمن القومي لسلسلة التوريد"، مما يمثل أول حالة معروفة في الولايات المتحدة يتم فيها تطبيق مثل هذا التصنيف على شركة محلية.

سرعان ما تصاعد الوضع إلى صراع علني. أصدر الرئيس ترامب أمراً بوقف جميع استخدامات الحكومة لبرمجيات Anthropic. كما أعلن وزير الدفاع بيت هيجسيث أن أي شركة تتعاون مع الحكومة يجب ألا تتعامل مع شركة أنثروبيك بعد الآن. في غضون ذلك، تدخل أكبر منافس لشركة أنثروبيك، وهي شركة أوبن إيه آي، بسرعة واستحوذت على العقود العسكرية ذات الصلة.

وهكذا، وجدت شركة الذكاء الاصطناعي التي كانت تُعتبر ذات يوم "الأكثر تأثيراً في العالم" نفسها فجأةً مُعرَّضة للاضطراب من قِبل قوة أخرى أكبر حجماً - حكومتها نفسها.

يكمن جوهر هذا المأزق في السؤال التالي: من يملك السلطة لوضع حدود لهذه التكنولوجيا، التي تعتبر واحدة من أقوى أسلحة أمريكا؟

لا تعارض شركة أنثروبيك استخدام أدواتها في الحروب. وتعتقد الشركة أن تعزيز القوة العسكرية الأمريكية هو السبيل الواقعي الوحيد لردع التهديدات الوطنية. ومع ذلك، يعارض الرئيس التنفيذي داريو أمودي محاولات البنتاغون لإعادة التفاوض على العقود الحكومية وتوسيع استخدام الذكاء الاصطناعي ليشمل "جميع الاستخدامات القانونية".

أثار أمودي مخاوف محددة: أولاً، أنه لا يريد استخدام الذكاء الاصطناعي لشركة أنثروبيك في أنظمة الأسلحة ذاتية التشغيل بالكامل؛ ثانياً، أنه يعارض استخدام تقنيتها للمراقبة واسعة النطاق للمواطنين الأمريكيين.

لكن، من وجهة نظر بيت هيغسيث (الولايات المتحدة) إن هذا الموقف، الذي يتبناه وزير الدفاع ومستشاروه، يشبه محاولة شركة خاصة فرض أسلوب قتالها على الجيش.

الولايات المتحدة ترى وزارة الدفاع أن شركة أنثروبيك، من خلال إصرارها على وضع "ضوابط أمان غير ضرورية"، ومناقشتها المستمرة لسيناريوهات افتراضية مختلفة، وتأخيرها للوقت في المفاوضات اللاحقة، قد أضعفت بالفعل التعاون بين الجانبين.

في نظر إدارة ترامب، فإن موقف أمودي (الرئيس التنفيذي لشركة أنثروبيك) يتسم بالغطرسة والعناد. بغض النظر عن مدى تطور منتج الشركة، لا ينبغي لها أن تتدخل في التسلسل القيادي العسكري.

وصف إميل مايكل، نائب وزير الحرب للشؤون الفنية في البنتاغون، المفاوضات على النحو التالي: "استمر الوضع على هذا النحو." لا أستطيع إدارة قسم يضم 3 ملايين شخص مع تلك الاستثناءات التي لا يمكنني حتى تخيلها أو فهمها.

توضيح: كلاوي رزيتشي لمجلة تايم – مصدر الصورة: دينيس بالي بوس - رويترز

من وادي السيليكون إلى مبنى الكابيتول، يتساءل العديد من المراقبين: هل هذه العاصفة مجرد نزاع تعاقدي؟

يعتقد بعض النقاد أن تصرفات إدارة ترامب أشبه بمحاولة لقمع شركة ذات موقف سياسي غير مقبول. في مذكرة مسربة داخلياً، كتب داريو أمودي: "إن وزارة الدفاع وإدارة ترامب لا تحبنا للسبب الحقيقي وهو أننا لم نتبرع لترامب". لم نمدحه كما يفعل الديكتاتوريون (على عكس سام ألتمان). نحن ندعم تنظيم الذكاء الاصطناعي، وهو ما يتعارض مع أجندتهم السياسية؛ ونقول الحقيقة بشأن العديد من قضايا سياسة الذكاء الاصطناعي (مثل قضية فقدان الوظائف)؛ وقد التزمنا بالمبادئ المتعلقة بالخطوط النهائية الرئيسية بدلاً من التآمر معهم لتقديم ما يسمى بمسرحية السلامة.

إلا أن إميل مايكل (نائب وزير الحرب) نفى هذا الادعاء، واصفاً إياه بأنه "مختلق بالكامل". وذكر أن إدراج شركة أنثروبيك ضمن قائمة المخاطر المتعلقة بسلسلة التوريد يرجع إلى أن موقف الشركة قد يعرض المقاتلين في الخطوط الأمامية للخطر. وقال: "في وزارة الحرب، وظيفتي ليست السياسة؛ وظيفتي هي الدفاع عن الوطن".

إن ثقافة الاستقلالية الراسخة في شركة أنثروبيك تصطدم الآن بالانقسام السياسي الداخلي، ومخاوف الأمن القومي، وبيئة تنافسية شرسة بين الشركات. لا يزال حجم الضرر الذي ألحقه هذا الصدام بالشركة غير واضح. تم تضييق نطاق التهديد الأولي المتمثل في "مخاطر سلسلة التوريد" لاحقًا - وفقًا لشركة أنثروبيك، فإن هذا القيد ينطبق حاليًا فقط على العقود العسكرية. في التاسع من مارس، رفعت شركة أنثروبيك دعوى قضائية ضد الحكومة الأمريكية في محاولة لإلغاء قرار "الإدراج في القائمة السوداء". في غضون ذلك، يبدو أن بعض العملاء ينظرون إلى موقف الشركة على أنه بيان أخلاقي، وقد تحولوا من ChatGPT إلى Claude.

ومع ذلك، على مدى السنوات الثلاث المقبلة، سيتعين على الشركة أن تتعامل مع بيئة حكومية غير مواتية لها - فبعض المسؤولين داخل الحكومة لديهم علاقات وثيقة مع منافسي شركة أنثروبيك الذين يكنون عداءً واضحًا للشركة.

أثارت "عاصفة البنتاغون" أيضاً بعض الأسئلة المقلقة، حتى بالنسبة لشركة معتادة بالفعل على التعامل مع المعضلات الأخلاقية عالية المخاطر. في هذا الموقف المتوتر، لم تتراجع شركة أنثروبيك: فقد أصرت الشركة على أنها تمسكت بقيمها الأساسية، حتى لو كلف ذلك الشركة ثمناً باهظاً.

لكنها في مناسبات أخرى، قدمت تنازلات أيضاً. في نفس الأسبوع الذي شهد المواجهة في البنتاغون، قامت شركة أنثروبيك بإضعاف بند أساسي في التزامها الأمني ​​بنموذج التدريب، مشيرة إلى أن الشركات المنافسة لم تكن على استعداد للالتزام بنفس المعايير.

تثار تساؤلات: إذا استمر الضغط التنافسي في التزايد، فما هي التنازلات الأخرى التي ستقدمها هذه الشركة في المستقبل؟

المخاطر تتزايد باستمرار. مع تطور قدرات الذكاء الاصطناعي، ستزداد المنافسة على من سيسيطر على الذكاء الاصطناعي شراسة.

إن استخدام كلود في العمليات في فنزويلا وإيران يوضح أن الذكاء الاصطناعي المتقدم أصبح أداة بالغة الأهمية لأقوى الجيوش في العالم. إلى جانب هذه التطورات، تتزايد أيضاً مجموعة من الضغوط الجديدة: قوى الدول، والسياسة الداخلية، واحتياجات الأمن القومي. وتقع هذه الضغوط على شركة ربحية تقوم بنشر هذه التكنولوجيا الجديدة شديدة التقلب بسرعة.

بمعنى ما، فإن وضع شركة أنثروبيك يشبه إلى حد ما وضع عالم الأحياء في المختبر: فمن أجل إيجاد علاج، يتعين عليهم عن قصد خلق مسبب مرض خطير في تجاربهم. وقد اضطلعت شركة أنثروبيك بدور مماثل، حيث استكشفت بنشاط المخاطر المحتملة للذكاء الاصطناعي مع مواصلة دفع الحدود التكنولوجية إلى الأمام، بدلاً من ترك هذه العملية للمنافسين الذين هم أكثر استعدادًا لاتخاذ طرق مختصرة أو حتى التصرف بتهور.

ومع ذلك، حتى مع تأكيد الشركة على توخي الحذر، فإنها تستفيد من كلود لتسريع تطوير إصدارات مستقبلية أكثر قوة.

داخلياً، يرى الكثيرون أن السنوات القليلة المقبلة ستكون فترة محورية، ليس فقط بالنسبة للشركة، ولكن بالنسبة للعالم أجمع.

"يجب أن نفترض أنه بين عامي 2026 و 2030، ستحدث الأمور الأكثر أهمية، وستصبح النماذج أسرع وأقوى، إلى درجة أنها قد تكون أسرع من أن يتمكن البشر من السيطرة عليها"، هذا ما قاله لوجان جراهام، قائد الفريق الأحمر المسؤول عن اكتشاف الثغرات الأمنية والهجمات المحاكاة.

استخدم ديف أور، رئيس قسم الأمن في شركة أنثروبيك، استعارة أكثر وضوحاً لوصف الموقف: "نحن نقود سيارتنا على طريق جبلي بجوار جرف." خطأ واحد قد يكون قاتلاً. والآن، ارتفعت سرعتنا من 25 ميلاً في الساعة إلى 75 ميلاً في الساعة.

يقع هذا المكان في الطابق الخامس من المقر الرئيسي لشركة أنثروبيك في سان فرانسيسكو، ويتميز التصميم العام بأنه دافئ وبسيط: ديكور خشبي وإضاءة ناعمة. يوجد خارج النافذة منتزه أخضر وارف. صورة لرائد علوم الحاسوب آلان تورينج معلقة على الحائط، بجوار العديد من أوراق البحث المؤطرة حول التعلم الآلي.

يقوم حراس الأمن الذين يرتدون ملابس سوداء بدوريات عند المدخل شبه الخالي، بينما تقوم موظفة استقبال ودودة بتسليم الزوار كتيبًا - بحجم كتاب مقدس بحجم الجيب يوزعه الدعاة في الشوارع. هذا الكتاب، الذي يحمل عنوان "آلات النعمة المحبة"، هو مقال يبلغ طوله حوالي 14000 كلمة كتبه داريو أمودي في عام 2024، ويحدد رؤيته الطوباوية لكيفية تغيير الذكاء الاصطناعي للعالم من خلال تسريع الاكتشافات العلمية.

بحلول يناير 2026، نشر أمودي مقالاً آخر، يكاد يكون بطول رواية قصيرة، بعنوان "مراهقة التكنولوجيا"، يتناول فيه الجانب الآخر من هذه التكنولوجيا: المخاطر التي يمكن أن تشكلها، بما في ذلك المراقبة واسعة النطاق، وفقدان الوظائف بشكل كبير، وحتى فقدان السيطرة البشرية الدائمة على التكنولوجيا.

أمودي، وهو من مواليد سان فرانسيسكو، عالم فيزياء حيوية. يدير شركة أنثروبيك بالاشتراك مع شقيقته دانييلا أمودي، التي تشغل منصب رئيسة الشركة. كان كلا الشقيقين من أوائل الموظفين في شركة OpenAI. شارك داريو في اكتشاف رئيسي، يُعرف باسم قوانين التوسع في الذكاء الاصطناعي، والذي أصبح فيما بعد أساسًا حاسمًا لدفع الهوس الحالي بالذكاء الاصطناعي. وفي الوقت نفسه، تتولى دانييلا مسؤولية إدارة سياسة الأمن الخاصة بالشركة.

في البداية، رأوا أن مهمتهم تتوافق بشكل وثيق مع الغرض التأسيسي لشركة OpenAI: تطوير تقنية واعدة للغاية ومحفوفة بالمخاطر للغاية مع ضمان السلامة.

ومع ذلك، مع ازدياد قوة نماذج OpenAI، بدأوا يشعرون بأن سام ألتمان كان يسارع إلى إطلاق منتجات جديدة دون إتاحة الوقت الكافي للمناقشة والاختبار الشاملين. في النهاية، قرر الأشقاء ترك شركة OpenAI والبدء في مشروعهم الخاص.

"نحن نقود سيارتنا على طريق جبلي بجوار حافة الجرف مباشرة، حيث يكون أي خطأ قاتلاً."


ديف أور، رئيس قسم الأمن في شركة أنثروبيك

في عام 2021، وفي خضم ذروة الوباء، تم تأسيس شركة أنثروبيك من قبل الأشقاء أمودي وخمسة مؤسسين مشاركين آخرين. عُقدت الاجتماعات التحضيرية الأولية بالكامل تقريبًا عبر تطبيق زووم؛ وفي وقت لاحق، قاموا ببساطة بنقل الكراسي إلى حديقة لمناقشة استراتيجية تطوير الشركة وجهًا لوجه.

سعت الشركة منذ البداية إلى العمل بطريقة مختلفة. قبل إطلاق أي منتجات، قامت شركة أنثروبيك بتشكيل فريق متخصص لإجراء البحوث حول الأثر الاجتماعي. بل إن الشركة وظفت فيلسوفة مقيمة - أماندا أسكيل. كانت مهمتها هي المساعدة في تشكيل قيم وسلوكيات نظام الذكاء الاصطناعي كلود وتعليمه كيفية إصدار الأحكام في ظل عدم اليقين الأخلاقي المعقد، استعدادًا لمستقبل قد يكون أكثر ذكاءً من خالقيه من البشر.

وصف أسكيل هذا العمل على النحو التالي: "أحياناً يكون الأمر أشبه بتربية طفل يبلغ من العمر 6 سنوات، وتعليم هذا الطفل ما هو جيد، وما هو صحيح." لكن المشكلة تكمن في أنهم بحلول سن الخامسة عشرة قد يكونون أذكى منك في كل شيء.

تتمتع الشركة بجذور عميقة في الإيثار الفعال (EA). EA هي حركة اجتماعية وخيرية تدعو إلى تعظيم أثر الإيثار من خلال التحليل العقلاني، وهدفها الرئيسي هو تجنب المخاطر التي قد تؤدي إلى عواقب كارثية.

بدأ الأشقاء أمودي في أوائل العشرينات من عمرهم بالتبرع لمنظمة GiveWell. GiveWell هي منظمة EA تقوم على وجه التحديد بتقييم الأماكن التي يمكن أن يكون للأموال الخيرية فيها أكبر تأثير حقيقي على أرض الواقع. تعهد المؤسسون السبعة لشركة أنثروبيك، والذين أصبحوا جميعاً مليارديرات على الورق، بالتبرع بنسبة 80% من ثروتهم الشخصية.

إن أماندا أسكيل، الفيلسوفة التي تعمل في الشركة، هي الزوجة السابقة للفيلسوف ويليام ماكاسكيل من جامعة أكسفورد، والذي يعد أيضًا أحد المؤسسين المشاركين لحركة EA. زوج دانييلا أمودي هو هولدن كارنوفسكي، المؤسس المشارك لشركة GiveWell، وزميل داريو أمودي السابق في السكن، وهو المسؤول حاليًا عن السياسة الأمنية في شركة Anthropic.

ومع ذلك، لم يتبنى الأشقاء أمودي علنًا لقب "EA". أصبح هذا المفهوم مثيرًا للجدل للغاية في أعقاب حادثة سام بانكمان-فرايد، حيث تورط لاحقًا أحد أتباع حركة EA المعلنين ومستثمر في شركة أنثروبيك في واحدة من أكبر عمليات الاحتيال المالي في التاريخ الأمريكي.

أوضحت دانييلا أمودي: "الأمر أشبه بكيفية تقاطع بعض الأشخاص مع أيديولوجيات سياسية معينة في نقاط معينة، لكنهم لا ينتمون حقًا إلى معسكر سياسي محدد." أميل إلى النظر إلى الأمر بهذه الطريقة.

بالنسبة للبعض في وادي السيليكون وإدارة ترامب، فإن العلاقة بين الأنثروبية والإيثار الفعال (EA) بحد ذاتها كافية لإثارة الشكوك. يعتقد البعض أن شركة أنثروبيك قد جندت العديد من المسؤولين السابقين في إدارة بايدن، مما يجعلها أشبه ببقايا المؤسسة القديمة، التي تستخدم السلطة غير المنتخبة لعرقلة الأجندة السياسية لترامب "لنجعل أمريكا عظيمة مرة أخرى".

اتهم ديفيد ساكس، رئيس شؤون الذكاء الاصطناعي في إدارة ترامب، الشركة بالضغط من أجل فرض تنظيم من خلال "هستيريا مصطنعة"، مصرحاً بأن شركة أنثروبيك تتبع "استراتيجية متطورة للاستحواذ التنظيمي". ويرى أن الشركة تحاول المبالغة في مخاطر الذكاء الاصطناعي للدفع نحو سياسات تنظيمية صارمة، وبالتالي اكتساب ميزة تنافسية وقمع الشركات الناشئة.

في الوقت نفسه، يسخر إيلون ماسك، المنافس التشغيلي لشركة xAI، بشكل متكرر من شركة Anthropic، ويشير إليها بأنها "كارهة للبشر". وهو يعتقد أن هذه الشركة تمثل مجموعة نخبوية ذات أيديولوجية "مستنيرة" تحاول غرس نظام قيم أبوي في أنظمة الذكاء الاصطناعي. أثار هذا الشعور، الذي يشبه انتقاد المحافظين لمنصات التواصل الاجتماعي التي تقوم بتقييد وجهات نظرها بشكل غير عادل، غضب البعض.

ومع ذلك، حتى منافسي شركة أنثروبيك مضطرون للاعتراف ببراعتها التكنولوجية. أعرب الرئيس التنفيذي لشركة Nvidia، جينسن هوانغ، عن أنه "يختلف مع آراء داريو أمودي في جميع قضايا الذكاء الاصطناعي تقريباً"، لكنه لا يزال يعتبر كلود نموذجاً "رائعاً".

في نوفمبر 2025، استثمرت شركة إنفيديا العملاقة في مجال الرقائق الإلكترونية 10 مليارات دولار في شركة أنثروبيك.

طرح بوريس تشيرني سؤالاً بسيطاً على أداته الجديدة: "ما نوع الموسيقى التي أستمع إليها الآن؟"

كان ذلك في سبتمبر 2024، وكان المهندس المولود في أوكرانيا قد انضم إلى شركة أنثروبيك قبل أقل من شهر. كان تشيرني قد عمل سابقاً كمهندس برمجيات في شركة ميتا. قام بتطوير نظام يسمح لبرنامج الدردشة الآلي "كلود" بالتجول بحرية على جهاز الكمبيوتر الخاص به.

إذا كان كلود هو العقل المدبر، فإن كلود كود هو اليدان. بينما كان بإمكان برنامج الدردشة الآلي العادي الدردشة فقط، فإن هذه الأداة يمكنها الوصول إلى ملفات Cherny، وتشغيل البرامج، وكتابة وتنفيذ التعليمات البرمجية مثل أي مبرمج.

بعد أن أدخل المهندس أمرًا، فتح كلود مشغل الموسيقى الخاص بـ Cherny، والتقط لقطة شاشة، ثم أجاب: "『Husk』 by Men I Trust".

ضحك تشيرني وهو يتذكر قائلاً: "لقد انبهرت حقاً في تلك اللحظة".

"أحياناً يبدو الأمر وكأننا نتحدث بلغة المفارقات."

ديب غانغولي، رئيس فريق التأثير الاجتماعي في شركة أنثروبيك

قام بوريس تشيرني بمشاركة نموذجه الأولي بسرعة داخل الشركة. انتشر كود كلود بسرعة داخل شركة أنثروبيك، لدرجة أنه خلال أول تقييم لأداء تشيرني، سأله الرئيس التنفيذي داريو أمودي: "هل تحاول 'إجبار' زملائك على استخدام هذه الأداة؟"

عندما أصدرت شركة أنثروبيك معاينة بحثية عامة لبرنامج كلود كود في فبراير 2025، توافد المطورون الخارجيون لتجربته. بحلول شهر نوفمبر، أصدرت شركة أنثروبيك نسخة جديدة من طراز كلود. عندما تم دمج هذا النموذج مع كود كلود، كان بالفعل بارعًا بما يكفي لاكتشاف وتصحيح أخطائه الخاصة، لدرجة أنه يمكن الوثوق به لإكمال المهام بشكل مستقل.

ومنذ ذلك الحين، توقف تشيرني تماماً تقريباً عن كتابة برامجه الخاصة.

كما شهد نمو الأعمال التجارية ازدهاراً كبيراً. وبحلول نهاية عام 2025، تجاوزت الإيرادات السنوية من منتج وكيل البرمجة هذا وحده مليار دولار. وبحلول فبراير 2026، ارتفع هذا الرقم إلى 25 مليار دولار. وفقًا لشركتي الأبحاث الصناعية Epoch و SemiAnalysis، من المتوقع أن يتجاوز حجم إيرادات Anthropic حجم إيرادات OpenAI بحلول نهاية عام 2026.

لقد رسخت شركة أنثروبيك مكانتها بقوة كلاعب رئيسي في سوق الذكاء الاصطناعي للمؤسسات. يكاد كل منتج جديد يُطرح في الأسواق المالية أن يُحدث صدمة فيها.

عندما طرحت شركة Anthropic سلسلة من الإضافات، موسعةً نطاق استخدام Claude ليشمل تطبيقات غير ملائمة للمبرمجين مثل المبيعات والتمويل والتسويق والخدمات القانونية، تبخرت القيمة السوقية لشركات صناعة البرمجيات بمقدار 300 مليار دولار في فترة زمنية قصيرة.

وكان داريو أمودي قد حذر سابقاً من أن الذكاء الاصطناعي قد يحل محل نصف وظائف ذوي الياقات البيضاء المبتدئين في غضون 1 إلى 5 سنوات القادمة. كما دعا الحكومة وشركات الذكاء الاصطناعي الأخرى إلى التوقف عن "التستر" على هذه القضية.

ويبدو أن رد فعل وول ستريت على كل منتج جديد من منتجات شركة أنثروبيك يؤكد هذه النقطة أيضاً: فالسوق يعتقد على نطاق واسع أن تكنولوجيا هذه الشركة يمكن أن تتسبب في اختفاء فئة كاملة من الوظائف. بل إن أمودي ذكر أن هذا التغيير قد يعيد تشكيل الهياكل المجتمعية.

وكتب في مقال له: "من غير الواضح حاليًا إلى أين سيذهب هؤلاء الأشخاص أو ما العمل الذي سيقومون به". أشعر بالقلق من أنهم قد يشكلون طبقة دنيا من العاطلين عن العمل أو ذوي الأجور المنخفضة للغاية.

بالنسبة لموظفي شركة أنثروبيك، فإن المفارقة ليست صعبة الملاحظة: فالشركة الأكثر قلقاً بشأن المخاطر المجتمعية للذكاء الاصطناعي قد تصبح، بشكل مثير للسخرية، المحرك التكنولوجي الذي يتسبب في فقدان ملايين الأشخاص لوظائفهم.

قال ديب جانجولي، رئيس فريق التأثير الاجتماعي المسؤول عن البحث في تأثير كلود على التوظيف: "هذا في الواقع توتر حقيقي، وأنا أفكر في هذه القضية كل يوم تقريبًا". أحيانًا يبدو الأمر وكأننا نقول شيئين متناقضين في نفس الوقت.

تم نقل الرئيس الفنزويلي المخلوع نيكولاس مادورو وزوجته سيليا فلوريس جواً يوم الاثنين الموافق 5 يناير 2026، إلى المحكمة الفيدرالية في مانهاتن. صورة: فينسنت ألبان - صحيفة نيويورك تايمز/ريدكس

بدأ بعض الموظفين داخل الشركة يتساءلون: هل يقترب مفهوم الأنثروبيك من لحظة يتوقعها ويخشاها في آن واحد، وهي وصول عملية تُعرف في مجتمع الذكاء الاصطناعي باسم "التحسين الذاتي المتكرر"؟

يشير التحسين الذاتي المتكرر إلى نظام الذكاء الاصطناعي الذي يبدأ في تعزيز قدراته الخاصة ويحسن نفسه باستمرار، مما يخلق عجلة ذاتية التعزيز للتقدم المتسارع.


في أعمال الخيال العلمي والمحاكاة الاستراتيجية في مختبرات الذكاء الاصطناعي الرئيسية، غالباً ما يُنظر إلى هذه النقطة على أنها النقطة التي يمكن أن تبدأ فيها الأمور بالخروج عن مسارها: ما يسمى بـ "انفجار الذكاء" يمكن أن يحدث بسرعة كبيرة لدرجة أن البشر لن يكونوا قادرين على الإشراف على الأنظمة التي أنشأوها.

لم تصل الأنثروبيك إلى تلك المرحلة بعد، حيث لا يزال العلماء البشريون يوجهون تطور كلود. ومع ذلك، فقد ساهم برنامج كلود كود بالفعل في تسريع مبادرات البحث الخاصة بالشركة بشكل يتجاوز بكثير المعدلات السابقة.

لم يعد معدل التحديث يُقاس بالأشهر بل بالأسابيع. في عملية تطوير نماذج الجيل التالي، تتم كتابة ما يقرب من 70٪ إلى 90٪ من التعليمات البرمجية بواسطة كلود نفسه.

وقد دفعت سرعة التغيير جاريد كابلان، المؤسس المشارك وكبير العلماء في شركة أنثروبيك، إلى جانب بعض الخبراء الخارجيين، إلى الاعتقاد بأن أبحاث الذكاء الاصطناعي المؤتمتة بالكامل يمكن أن تظهر في غضون عام واحد فقط.

صرح الباحث إيفان هوبينجر، المسؤول عن اختبارات إجهاد محاذاة الذكاء الاصطناعي، بما يلي: "بالمعنى الأوسع، لم يعد التحسين الذاتي المتكرر ظاهرة من ظواهر المستقبل."
إنه أمر يحدث الآن.

وفقًا للمعايير الداخلية، أصبح كلود الآن أسرع بـ 427 مرة من مشرفيه البشريين في أداء مهام حاسمة معينة. في مقابلة، وصف أحد الباحثين سيناريو كان فيه زميل له يقوم بتشغيل 6 نسخ من برنامج Claude في وقت واحد، حيث يدير كل منها 28 نسخة أخرى من برنامج Claude، وكلها تجري تجارب بالتوازي.

حالياً، لا يزال النموذج متأخراً عن الباحثين البشريين في الحكم والجماليات. لكن المسؤولين التنفيذيين في الشركة يعتقدون أن هذه الفجوة لن تستمر لفترة طويلة. إن التسارع الناتج هو بالضبط الخطر الذي حذرت منه القيادة الأنثروبية منذ فترة طويلة: قد تتجاوز وتيرة التقدم التكنولوجي في نهاية المطاف السيطرة البشرية.

كما يجري تسريع العمل على تطوير بروتوكولات الأمان في شركة أنثروبيك نفسها بمساعدة كلود. ومع ذلك، مع ازدياد اعتماد الشركة على كلود لبناء واختبار الأنظمة، تتشكل المخاطر في حلقة تغذية راجعة. في بعض التجارب، أجرى الباحث إيفان هوبينجر تعديلات طفيفة على عملية تدريب كلود، مما أدى إلى ظهور نماذج تُظهر عداءً صريحًا، لا تعبر فقط عن رغبات في السيطرة على العالم، بل وتحاول أيضًا تقويض التدابير الأمنية لشركة أنثروبيك.

في الآونة الأخيرة، أظهرت النماذج أيضاً قدرة جديدة: وهي إدراك أنها تخضع للاختبار. قال هوبينجر: "هذه النماذج تتحسن في إخفاء سلوكها الحقيقي."

في سيناريو تجريبي صممه فريق من الباحثين، أظهر كلود ميلاً استراتيجياً مثيراً للقلق: لمنع إغلاقه، كان على استعداد للابتزاز من خلال فضح علاقة خارج نطاق الزواج لمهندس وهمي.

مع استخدام كلود لتدريب نسخ أكثر قوة من كلود في المستقبل، قد تستمر هذه الأنواع من المشكلات في التفاقم والتصاعد.

بالنسبة لشركات الذكاء الاصطناعي التي تم تمويلها بمليارات الدولارات بناءً على وعد "بتقدم تكنولوجي مستقبلي"، فإن فكرة تسريع الذكاء الاصطناعي المستمر لأبحاثه وتطويره تُعد جذابة وذاتية التعزيز - فهي تقنع المستثمرين بضرورة ضخ المزيد من التمويل لدعم جهود تدريب النماذج المكلفة هذه.

لكن بعض الخبراء ليسوا مقتنعين تماماً. إنهم غير متأكدين مما إذا كانت هذه الشركات قادرة حقًا على تحقيق أبحاث الذكاء الاصطناعي المؤتمتة بالكامل؛ ومع ذلك، فهم قلقون أيضًا من أنه إذا حدث هذا، فقد يفاجأ العالم غير مستعد.

صرحت هيلين تونر، المديرة المؤقتة لمركز الأمن والتكنولوجيا الناشئة (CSET) في جامعة جورج تاون، بما يلي: "بعض أغنى الشركات في العالم، والتي توظف بعضًا من أذكى الأشخاص على وجه الأرض، تحاول بالفعل أتمتة أبحاث الذكاء الاصطناعي." إن مجرد التفكير في هذا الأمر كافٍ لإثارة رد فعل من نوع "ما الذي يحدث بحق السماء؟".

لمعالجة مستقبل محتمل تتجاوز فيه التطورات التكنولوجية قدرة الشركة على إدارة المخاطر بنفسها، صممت شركة أنثروبيك مجموعة من "آليات الكبح" المعروفة باسم سياسة التوسع المسؤول (RSP).

تم الكشف عن هذه السياسة في عام 2023، وكان التزامها الأساسي هو: إذا لم تتمكن شركة Anthropic من ضمان موثوقية تدابير السلامة الخاصة بها بشكل كافٍ مسبقًا، فسوف توقف الشركة تطوير نظام الذكاء الاصطناعي المحدد.

ترى شركة أنثروبيك هذه السياسة بمثابة دليل حاسم على التزامها بالسلامة - حتى في السباق الشرس نحو "الذكاء الخارق"، فإن الشركة على استعداد لمقاومة ضغوط السوق والتوقف بشكل استباقي عند الضرورة.

في أواخر فبراير 2026، وكما ذكرت مجلة تايم لأول مرة، أجرت شركة أنثروبيك تعديلات على سياستها، متراجعة عن الالتزام الملزم سابقًا بـ "إيقاف التطوير".

في استعراض للأحداث، قال جاريد كابلان، المؤسس المشارك وكبير العلماء في شركة أنثروبيك، لمجلة تايم إن الاعتقاد الأولي بأن الشركة يمكنها رسم خط واضح بين "الخطر" و"السلامة" كان في الواقع "فكرة ساذجة".

وقال: "في سياق التطور السريع للذكاء الاصطناعي، إذا كان منافسونا يتقدمون بأقصى سرعة، فإن تقديم التزامات صارمة من جانب واحد ليس واقعياً في الواقع".

وقد تضمنت السياسة الجديدة بعض الالتزامات الجديدة: زيادة الشفافية، والكشف بشكل أكثر انفتاحاً عن مخاطر أمن الذكاء الاصطناعي؛ وزيادة الإفصاح عن المعلومات، والكشف عن أداء نموذج Anthropic في اختبارات الأمان؛ ومضاهاة المنافسين على الأقل في الاستثمار الأمني، أو حتى تجاوزهم؛ وإذا كانت الشركة تعتبر رائدة في مجال المنافسة في الذكاء الاصطناعي، وكان يُنظر إلى المخاطر الكارثية على أنها تتزايد بشكل كبير، فسيتم "تأجيل" التطوير ذي الصلة.

يصف أنثروبيك هذا التعديل بأنه تنازل عملي لبيئة العالم الحقيقي. ومع ذلك، بشكل عام، فإن تعديل سياسة التوسع المسؤول (RSP) يقلل بشكل كبير من قيود الشركة على سياستها الأمنية. وهذا ينذر أيضاً بأن هناك اختبارات أكثر صعوبة تنتظرنا.

كانت الغارة التي استهدفت القبض على الرئيس الفنزويلي نيكولاس مادورو واحدة من أوائل العمليات العسكرية واسعة النطاق التي تم التخطيط لها بمشاركة أنظمة الذكاء الاصطناعي المتطورة.

في ليلة 3 يناير 2026، دخلت مروحيات تابعة للجيش الأمريكي فجأة المجال الجوي الفنزويلي. بعد تبادل قصير لإطلاق النار، حدد فريق الاقتحام بسرعة المنطقة السكنية للرئيس، وهناك تم القبض على مادورو وزوجته سيليا فلوريس. وبعد ذلك، تم نقل الاثنين إلى نيويورك لمواجهة تهم تتعلق بالإرهاب المرتبط بالمخدرات.

لا يزال من غير الواضح للعالم الخارجي مدى مساهمة كلود في هذه العملية. ومع ذلك، ووفقًا لتقارير إعلامية، لم يشارك نظام الذكاء الاصطناعي هذا في تخطيط المهمة فحسب، بل تم استخدامه أيضًا لدعم عملية صنع القرار أثناء العملية.

منذ يوليو من العام الماضي، تسعى وزارة الدفاع الأمريكية جاهدة لتوزيع أدوات الذكاء الاصطناعي الخاصة بشركة أنثروبيك على المزيد من المقاتلين في الخطوط الأمامية. يعتقد الجيش أن هذه الأنظمة قادرة على معالجة كميات كبيرة من البيانات بسرعة من مصادر متعددة وتوليد معلومات استخباراتية قابلة للتنفيذ، مما يجعلها ذات قيمة استراتيجية هائلة.

قال مارك بيل، وهو مسؤول كبير سابق في وزارة الدفاع الأمريكية ويعمل الآن كرئيس للشؤون الحكومية في شبكة سياسات الذكاء الاصطناعي: "من وجهة نظر الجيش، يعتبر كلود أفضل نموذج في السوق حاليًا". وأضاف: "إن اعتماد كلود في الأنظمة المصنفة هو أحد أهم نجاحات أنثروبيك". لديهم ميزة السبق.

"لن نستخدم نماذج الذكاء الاصطناعي التي تمنعكم من القتال."

بيت هيغسيث، الولايات المتحدة وزير الدفاع

ومع ذلك، فإن عملية القبض على الرئيس الفنزويلي نيكولاس مادورو تجري في ظل سلسلة من المفاوضات الشائكة بين شركة أنثروبيك ووزارة الدفاع الأمريكية.

على مدى شهور، حاولت وزارة الدفاع إعادة التفاوض على العقد، معتقدة أن الشروط الحالية تقيد استخدام كلود بشكل مفرط. إن أسباب انهيار المفاوضات غير متسقة من كلا الجانبين.

صرح إميل مايكل، رئيس قسم الذكاء الاصطناعي في البنتاغون، بأن الصراع اندلع بسبب مكالمة هاتفية من مسؤول تنفيذي في شركة أنثروبيك إلى شركة بالانتير. تُعد شركة تحليل البيانات هذه، التي تركز على الأعمال الحكومية، شريكًا رئيسيًا في نظام الدفاع الأمريكي.

وبحسب مايكل، أعرب المسؤول التنفيذي عن مخاوفه بشأن مداهمة فنزويلا خلال المكالمة واستفسر عما إذا كان برنامج بالانتير متورطًا في الأمر. قال مايكل: "كانوا يحاولون الحصول على معلومات سرية".

أثار هذا الحادث مخاوف جدية في البنتاغون: "هل سيقومون فجأة بإيقاف نموذجهم في منتصف عملية ما في المستقبل، مما يعرض جنود الخطوط الأمامية للخطر؟"

لكن شركة أنثروبيك تنفي هذا الادعاء. صرحت الشركة بأنها لم تحاول قط تقييد استخدام البنتاغون لتقنيتها بشكل انتقائي.

قدّم مسؤول سابق في إدارة ترامب، مطلع على عملية التفاوض ويرتبط ارتباطاً وثيقاً بشركة أنثروبيك، رواية مختلفة للأحداث: كان أحد موظفي شركة بالانتير هو أول من ذكر دور كلود في تلك العملية خلال مكالمة جماعية روتينية.

لم تُظهر الأسئلة اللاحقة من شركة أنثروبيك أي علامات على معارضة العملية.

رسم توضيحي بواسطة Klawe Rzeczy لمجلة TIME، مصادر الصور: ديميتريوس كامبوريس - صور غيتي (دونالد ترامب)؛ كيني هولستون - صور غيتي (بيت هيغسيث)

ومع استمرار المفاوضات، شعر المسؤولون الحكوميون بشكل متزايد بأن موقف داريو أمودي كان أكثر عناداً بكثير من موقف الرؤساء التنفيذيين الآخرين لمختبرات الذكاء الاصطناعي الرائدة. وبحسب مصادر متعددة مطلعة على عملية التفاوض، فقد قدم مسؤولو الدفاع في إحدى المناقشات بعض السيناريوهات الافتراضية، مثل: صاروخ فرط صوتي يتجه نحو البر الرئيسي للولايات المتحدة؛ أو هجوم سرب من الطائرات بدون طيار.

في هذه الحالات، سألوا عما إذا كان من الممكن استخدام أداة الذكاء الاصطناعي الخاصة بشركة أنثروبيك.

وقالت مصادر إن رد أمودي في ذلك الوقت كان: إذا وصل الأمر إلى هذا الحد، فيمكن للمسؤولين الاتصال به مباشرة. إلا أن متحدثاً باسم شركة أنثروبيك نفى ذلك، واصفاً وصف عملية التفاوض بأنه "غير صحيح على الإطلاق".

كان لدى منظمة أنثروبيك بالفعل خصوم أقوياء داخل الحكومة، والآن، تطورت الشكوك حول "ميولها الأيديولوجية" إلى عداء صريح. في 12 يناير 2026، صرّح بيت هيغسيث بوضوح خلال خطاب ألقاه في مقر شركة سبيس إكس: "لن نستخدم نماذج الذكاء الاصطناعي التي تمنعكم من القتال."

ومع استمرار المفاوضات في التعثر، استدعى هيغسيث داريو أمودي إلى البنتاغون لعقد اجتماع وجهاً لوجه في 24 فبراير. وبحسب مصدر مطلع على المناقشات، كان الاجتماع ودياً، لكن كلا الجانبين ظلا ثابتين على مواقفهما. أشاد هيغسيث في البداية بكلود وأعرب عن رغبة الجيش في مواصلة التعاون مع شركة أنثروبيك. من جهة أخرى، صرح أمودي بأن الشركة مستعدة لقبول معظم التغييرات المقترحة من قبل البنتاغون، لكنها لن تتنازل عن موقفها بشأن قضيتين "محظورتين".

الخط الأحمر الأول هو: حظر استخدام كلود في أنظمة الأسلحة الحركية ذاتية التشغيل بالكامل، أي الأسلحة التي يتم فيها اتخاذ قرار الضربة النهائية بواسطة الذكاء الاصطناعي بدلاً من الإنسان.

لا تعتقد منظمة أنثروبيك بالضرورة أن الأسلحة ذاتية التشغيل خاطئة، لكنها تجادل بأن كلود غير موثوق به حاليًا بما يكفي للتحكم في هذه الأنظمة دون إشراف بشري.

أما الخط الأحمر الثاني فيتعلق بالمراقبة الجماعية للمواطنين الأمريكيين. ترغب الحكومة في استخدام كلود لتحليل كميات هائلة من البيانات العامة، لكن شركة أنثروبيك تعتقد أن قوانين الخصوصية الأمريكية الحالية لم تواكب حقيقة مقلقة: وهي أن الحكومة تشتري مجموعات بيانات ضخمة من السوق التجارية. على الرغم من أن مجموعات البيانات هذه قد لا تكون حساسة بشكل فردي، إلا أنها بمجرد تحليلها بواسطة الذكاء الاصطناعي، يمكن أن تولد ملفات تعريف مفصلة عن الحياة الخاصة للمواطنين الأمريكيين، بما في ذلك آرائهم السياسية وعلاقاتهم الاجتماعية وسلوكهم الجنسي وسجلات تصفحهم. (ومع ذلك، فإن منظمة أنثروبيك لا تعارض استخدام نفس الأسلوب لمراقبة المواطنين الأجانب قانونياً.)

لم يكن هيغسيث مقتنعاً. أصدر إنذاراً نهائياً لأمودي: يجب قبول شروط البنتاغون بحلول الساعة 5:00 مساءً يوم الجمعة الموافق 27 فبراير، وإلا سيتم اعتبارها "خطراً على سلسلة التوريد".

في اليوم السابق للموعد النهائي، تلقت شركة أنثروبيك عقدًا منقحًا بدا أنه يقبل الخطوط الحمراء للشركة، ولكن عند التدقيق فيه، وجدوا ثغرات لصالح الحكومة. وقال مصدر مطلع على المفاوضات إنه مع مرور الوقت، أجرى المسؤولون التنفيذيون في شركة أنثروبيك مكالمة أخرى مع إميل مايكل، رئيس قسم الذكاء الاصطناعي في البنتاغون. كانوا يعتقدون أنهم قريبون من التوصل إلى حل وسط، لكن قضية رئيسية ظلت دون حل: ما إذا كان بإمكان البنتاغون استخدام كلود لتحليل البيانات الأمريكية واسعة النطاق التي تم الحصول عليها من خلال القنوات التجارية. طلب مايكل من أمودي الانضمام إلى المكالمة، لكنه لم يكن متاحاً في ذلك الوقت.

وبعد بضع دقائق، وفي الموعد النهائي بالضبط، أعلن هيغسيث نهاية المفاوضات. حتى قبل ذلك، كان دونالد ترامب قد أدلى بتصريحات عبر وسائل التواصل الاجتماعي الخاصة به: "لن تسمح الولايات المتحدة الأمريكية أبداً لشركة يسارية متطرفة، أو شركة "مستنيرة"، بأن تقرر كيف يجب أن يعمل جيشنا العظيم وكيف ينتصر في الحروب!" لقد ارتكب المتطرفون اليساريون في شركة أنثروبيك خطأً كارثياً.

دون علم شركة أنثروبيك، كان البنتاغون يجري مفاوضات مع شركة أوبن إيه آي، ساعياً إلى إدخال برنامج ChatGPT في الأنظمة الحكومية السرية. وفي الليلة نفسها، أعلن سام ألتمان أنه تم التوصل إلى اتفاق، مدعياً ​​أن الاتفاق يحترم أيضاً الخطوط الحمراء الأمنية المماثلة. ثم أرسل أمودي رسالة إلى موظفيه، مصرحاً بأن ألتمان والبنتاغون "يتلاعبان بالرأي العام"، في محاولة لجعل الجمهور يعتقد أن هذا الاتفاق يتضمن حواجز أمنية صارمة. في وقت سابق، أكد مسؤولو البنتاغون أيضًا أن نماذج xAI سيتم نشرها على خوادم سرية؛ ويجري البنتاغون حاليًا مفاوضات مع جوجل.

كان هذا هو السيناريو الذي كان يقلق أمودي بالضبط: سباق "المنافسة الهابطة". عندما تصبح قوة الذكاء الاصطناعي كبيرة جدًا بحيث لا يمكن تجاهلها، يجد المنافسون صعوبة في التعاون ورفع معايير الأمن معًا.

بالنسبة لمنتقدي شركة أنثروبيك، كشف هذا الحدث أيضاً عن غطرسة جوهرية لدى الشركة: ربما اعتقدت أنها تستطيع أن تسلك الطريق بأمان نحو الآلات الخارقة، مما يجعل تحمل مثل هذه المخاطر الهائلة أمراً يستحق العناء. لكن الحقيقة هي أنها أدخلت بسرعة قدرات مراقبة جديدة وتقنيات حربية في نظام حكومي يميني، وعندما حاولت وضع حدود لهذه التقنيات، تفوق عليها المنافسون على الفور.

سعر --

--

"لم نمدح ترامب باعتباره ديكتاتوراً."


داريو أمودي، متناولاً جذور الصراع مع البنتاغون في مذكرة للموظفين

ومع ذلك، تشير بعض الدلائل إلى أن الأنثروبيك قد يكون قادراً على تحمل هذا التأثير، بل وقد يخرج منه أقوى. في صباح اليوم التالي لمحاولة بيت هيغسيث التوقيع على "شهادة وفاة الشركة"، ظهرت سلسلة من الرسائل التشجيعية المكتوبة بالطباشير على الرصيف خارج مقر الشركة في سان فرانسيسكو. وجاء في إحدى الرسائل المكتوبة بخط عريض: "لقد منحتمونا الشجاعة".

وفي نفس اليوم، تصدر تطبيق كلود الخاص بأجهزة آيفون قوائم التنزيل في متجر التطبيقات، متجاوزاً تطبيق ChatGPT. يسجل أكثر من مليون شخص في برنامج كلود كل يوم.

وفي الوقت نفسه، أثار العقد الذي وقعته شركة OpenAI مع الجيش مقاومة داخلية ومجتمعية. يشعر بعض موظفي OpenAI بأن الشركة فقدت الثقة. أعلن باحث بارز انتقاله إلى شركة أنثروبيك؛ واستقال رئيس فريق الروبوتات في شركة أوبن إيه آي بسبب هذا العقد الحكومي.

كما اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، لاحقاً بأن حرصه على التوصل إلى اتفاق مع البنتاغون بحلول يوم الجمعة كان خطأً. وكتب قائلاً: "هذه القضايا معقدة للغاية وتتطلب تواصلاً واضحاً وشاملاً". وبحلول يوم الاثنين، أقر ألتمان كذلك بأن تصرفاته في ذلك الوقت بدت بالفعل "انتهازية". كما ذكرت OpenAI أنه تم تعديل الاتفاقية لتتبنى صراحة نفس الخطوط الحمراء للسلامة التي تتبناها شركة Anthropic. ومع ذلك، يشير الخبراء القانونيون إلى أنه من الصعب تأكيد هذا الادعاء دون الاطلاع على العقد كاملاً.

في 4 مارس، تلقت شركة أنثروبيك رسالة رسمية من وزارة الدفاع الأمريكية تؤكد أن الشركة قد تم تحديدها على أنها تشكل خطراً على سلسلة التوريد للأمن القومي. صرحت شركة أنثروبيك بأن هذا التصنيف أضيق مما ادعاه هيغسيث على وسائل التواصل الاجتماعي، حيث يقتصر فقط على منع المقاولين من استخدام كلود في عقود الدفاع.

ومع ذلك، كشفت رسالة اطلعت عليها مجلة تايم موجهة إلى رئيس لجنة الاستخبارات في مجلس الشيوخ توم كوتون أن وزارة الدفاع استندت أيضًا إلى بند قانوني آخر - وهو بند قد يسمح للوكالات الحكومية خارج البنتاغون باستبعاد شركة أنثروبيك من عقودها وسلاسل التوريد الخاصة بها. يتطلب هذا الإجراء موافقة كبار مسؤولي وزارة الدفاع ويمنح شركة أنثروبيك مهلة 30 يومًا للرد.

قد يؤدي هذا الصراع إلى إحداث تأثير مضاعف في جميع أنحاء صناعة الذكاء الاصطناعي. قال دين بول، الذي شارك في صياغة مبادرة ترامب للذكاء الاصطناعي ويعمل الآن في مؤسسة الابتكار الأمريكي، "سيشعر بعض الأشخاص في إدارة ترامب بقسوة شديدة حيال هذا الأمر، وسيتباهون بذلك أمام أنفسهم ليلاً".

لكنه حذر أيضاً من أن هذا الحدث قد يدفع الشركات إلى التردد في العمل مع البنتاغون، بل وحتى نقل عملياتها إلى الخارج. وقال بول: "على المدى الطويل، هذا ليس جيداً لصورة الولايات المتحدة كبيئة أعمال مستقرة، والاستقرار هو ما نعتمد عليه".

تؤمن قيادة شركة أنثروبيك بأن كلود سيساعد في بناء أنظمة ذكاء اصطناعي أكثر قوة وقادرة على لعب دور حاسم في هيكل القوة العالمية في المستقبل.

إذا كان الأمر كذلك بالفعل، فإن الصراع بين هذه الشركة والبنتاغون قد يكون مجرد مقدمة لعملية تاريخية أكبر.

[ رابط المقال الأصلي ]

قد يعجبك أيضاً

سيتم حل اللغز الذي دام 17 عامًا، من هو ساتوشي ناكاموتو؟

صحيفة نيويورك تايمز تتعقب لغز ساتوشي ناكاموتو، وتشير الأدلة إلى آدم باك

5 دقائق لجعل الذكاء الاصطناعي دماغك الثاني

حان الوقت لتفويض الذاكرة إلى الذكاء الاصطناعي

يواجه مشروع Uniswap معضلة في الابتكار.

تُعدّ الإصدارات المختلفة من منصة Uniswap أحد مصادر الحيوية في سوق التمويل اللامركزي، ولكن منذ عام 2023، لم تُقدّم Uniswap أي ابتكارات جوهرية، بل التزمت بالاستكشافات التجارية التقليدية في سلاسل التطبيقات ومنصات الإطلاق، وما إلى ذلك، مما أدى إلى انخفاض أسعار الرموز والسوق...

ما هو مفتاح المنافسة في مجال الخدمات المصرفية المشفرة؟

تتقارب البنوك الرقمية وبطاقات العملات المشفرة والمحافظ الإلكترونية والتطبيقات الفائقة وبروتوكولات التمويل اللامركزي جميعها نحو نفس الهدف: أن تصبح البوابة الرئيسية لمدخراتك وإنفاقك وكسبك وتحويلاتك في العصر الجديد.

تدفق العملات المستقرة وآثارها غير المباشرة في سوق الصرف الأجنبي

أظهرت الأبحاث أن الزيادة الخارجية في صافي تدفقات العملات المستقرة تؤدي إلى اتساع كبير في الفارق السعري بين العملات المستقرة والعملات الأجنبية التقليدية، مما يؤدي إلى انخفاض قيمة العملة المحلية، ويزيد من سوء ظروف تمويل الدولار الاصطناعي (أي يزيد من...

بعد عامين، تم إصدار الدفعة الأولى من تراخيص العملات المستقرة في هونغ كونغ أخيرًا: تخطت HSBC وستاندرد تشارترد المرحلة

من المقرر أن تطلق الكيان المنظم عملة مستقرة في النصف الأول من هذا العام.

العملات الرائجة

أحدث أخبار العملات المشفرة

قراءة المزيد
iconiconiconiconiconiconiconiconicon

برنامج خدمة العملاء@WEEX_support_smart_Bot

خدمات (VIP)[email protected]