logo

تفسير تحقيق معمق من مجلة نيويوركر: لماذا يعتبر المطلعون في OpenAI شركة Altman غير جديرة بالثقة؟

By: rootdata|2026/04/08 15:51:40
0
مشاركة
copy

المؤلف الأصلي: شياوبينغ، شينتشاو تيك فلو

في خريف عام 2023، جلس كبير علماء OpenAI، إيليا سوتسكيفر، أمام جهاز الكمبيوتر الخاص به، وأكمل وثيقة من 70 صفحة.

تم تجميع هذه الوثيقة من سجلات رسائل سلاك، وملفات اتصالات الموارد البشرية، ومحاضر الاجتماعات الداخلية، وذلك فقط للإجابة على سؤال واحد: هل يمكن الوثوق بسام ألتمان، الشخص المسؤول عما قد يكون أخطر تكنولوجيا في تاريخ البشرية؟

الإجابة التي قدمها سوتسكيفر مكتوبة في السطر الأول من الصفحة الأولى من المستند، بعنوان القائمة "سام يُظهر نمطًا ثابتًا من السلوك ...".

النقطة الأولى: يكذب.

اليوم، وبعد عامين ونصف، نشر الصحفيان الاستقصائيان رونان فارو وأندرو مارانتز تقريراً استقصائياً موسعاً في مجلة نيويوركر. لقد أجروا مقابلات مع أكثر من 100 طرف، وحصلوا على مذكرات داخلية لم يتم الكشف عنها سابقًا، وأكثر من 200 صفحة من الملاحظات الخاصة التي تركها مؤسس شركة Anthropic داريو أمودي خلال فترة عمله في OpenAI. إن القصة التي تم تجميعها من هذه الوثائق أبشع بكثير من "مؤامرة القصر" لعام 2023: كيف تحولت OpenAI من منظمة غير ربحية تم إنشاؤها من أجل سلامة الإنسان إلى آلة تجارية، حيث قام نفس الشخص بتفكيك كل حاجز أمان تقريبًا.

أما استنتاج أمودي في ملاحظاته فهو أكثر وضوحاً: "المشكلة في OpenAI هي سام نفسه."

"الخطيئة الأصلية" لشركة OpenAI

لفهم أهمية هذا التقرير، يجب أولاً توضيح مدى تميز شركة OpenAI كشركة.

في عام 2015، did-133">قام ألتمان ومجموعة من نخبة وادي السيليكون بشيء غير مسبوق تقريبًا في تاريخ الأعمال: لقد استخدموا منظمة غير ربحية لتطوير ما قد يكون أقوى تقنية في تاريخ البشرية. تم تحديد مسؤوليات مجلس الإدارة بوضوح: السلامة لها الأولوية على نجاح الشركة، بل وحتى على بقاء الشركة. وبعبارة أخرى، إذا أصبح الذكاء الاصطناعي الخاص بشركة OpenAI خطيرًا في يوم من الأيام، فإن مجلس الإدارة ملزم بإغلاق الشركة بنفسه.

يعتمد الهيكل بأكمله على افتراض واحد: يجب أن يكون الشخص المسؤول عن الذكاء الاصطناعي العام شخصًا صادقًا للغاية.

ماذا لو كان هذا الافتراض خاطئاً؟

إن أهم ما يصدم القارئ في التقرير هو تلك الوثيقة المكونة من 70 صفحة. لا ينخرط سوتسكيفر في السياسة المكتبية؛ فهو أحد أبرز علماء الذكاء الاصطناعي في العالم. لكن بحلول عام 2023، ازداد اقتناعه بشيء واحد: كان ألتمان يكذب باستمرار على المديرين التنفيذيين ومجلس الإدارة.

مثال محدد: في ديسمبر 2022، أكد ألتمان للمجلس خلال اجتماع أن العديد من ميزات GPT-4 القادمة قد اجتازت مراجعات السلامة. طلب عضو مجلس الإدارة تونر الاطلاع على وثائق الموافقة واكتشف أن اثنتين من أكثر الميزات إثارة للجدل (الضبط الدقيق المخصص للمستخدم ونشر المساعد الشخصي) لم تحصل على موافقة لجنة السلامة على الإطلاق.

بل إن أموراً أكثر فظاعة حدثت في الهند. أبلغ أحد الموظفين عضواً آخر في مجلس الإدارة بشأن "تلك المخالفة": أصدرت مايكروسوفت نسخة مبكرة من برنامج ChatGPT في الهند دون استكمال مراجعات السلامة اللازمة.

كما سجل سوتسكيفر حادثة أخرى في المذكرة: أخبر ألتمان المديرة التقنية السابقة ميرا موراتي أن عملية الموافقة على السلامة لم تكن بتلك الأهمية، حيث أن المستشار العام للشركة قد وافق عليها بالفعل. ذهب موراتي للتأكد من الأمر مع المستشار العام، الذي أجاب قائلاً: "لا أعرف من أين حصل سام على هذا الانطباع".

200 صفحة من الملاحظات الخاصة لأمودي

تبدو وثيقة سوتسكيفر وكأنها لائحة اتهام من المدعي العام. تشبه ملاحظات أمودي التي تزيد عن 200 صفحة مذكرات كتبها شاهد عيان في مسرح الجريمة.

خلال السنوات التي شغل فيها أمودي منصب رئيس قسم السلامة في شركة OpenAI، شاهد الشركة وهي تتراجع تحت ضغط تجاري. وأشار إلى تفصيل رئيسي من دراسة جدوى استثمار مايكروسوفت في عام 2019: لقد أدرج بند "الاندماج والمساعدة" في ميثاق OpenAI، مما يعني أنه إذا وجدت شركة أخرى طريقًا أكثر أمانًا للوصول إلى الذكاء الاصطناعي العام، فيجب على OpenAI التوقف عن المنافسة ومساعدة تلك الشركة. كان هذا هو ضمان السلامة الذي كان يقدره أكثر من غيره في الصفقة بأكملها.

وبينما كان الاتفاق على وشك التوقيع، اكتشف أمودي شيئاً ما: حصلت شركة مايكروسوفت على حق النقض (الفيتو) على هذا البند. ماذا يعني ذلك؟ حتى لو وجد منافس ما في يوم من الأيام مسارًا أفضل، فبإمكان مايكروسوفت أن تمنع التزام OpenAI بالمساعدة بكلمة واحدة. كان البند لا يزال موجوداً على الورق، لكنه أصبح بلا قيمة منذ يوم التوقيع.

غادر أمودي لاحقًا شركة OpenAI وأسس شركة Anthropic. تتمحور المنافسة بين الشركتين بشكل أساسي حول الخلاف حول "كيفية تطوير الذكاء الاصطناعي".

اختفاء نسبة 20% من الالتزام بالحوسبة

هناك تفصيل في التقرير يثير القشعريرة، يتعلق بفريق "المحاذاة الفائقة" التابع لشركة OpenAI.

في منتصف عام 2023، أرسل ألتمان بريدًا إلكترونيًا إلى طالب دكتوراه يبحث في "التوافق الخادع" (الذكاء الاصطناعي الذي يتصرف بشكل جيد أثناء الاختبار ولكنه يفعل ما يحلو له بعد النشر)، معربًا عن مخاوفه العميقة بشأن هذه القضية ومفكرًا في إنشاء جائزة بحثية عالمية بقيمة مليار دولار. تم تشجيع طالب الدكتوراه، فأخذ إجازة، وانضم إلى شركة OpenAI.

ثم غير ألتمان رأيه: لا جائزة خارجية، بل أنشأ بدلاً من ذلك "فريق محاذاة فائق" داخلي. أعلنت الشركة أنها ستخصص "20% من الحوسبة الحالية" لهذا الفريق، بقيمة محتملة تتجاوز مليار دولار. كان الإعلان خطيرًا للغاية، حيث ذكر أنه إذا لم يتم حل مشكلة التوافق، فإن الذكاء الاصطناعي العام قد يؤدي إلى "تجريد البشر من السلطة، أو حتى انقراض البشرية".

قال يان ليك، الذي تم تعيينه لقيادة هذا الفريق، للصحفيين لاحقاً إن الالتزام نفسه كان "أداة فعالة للغاية للاحتفاظ بالمواهب".

وماذا عن الواقع؟ قال أربعة أفراد ممن عملوا في هذا الفريق أو على صلة وثيقة به: كانت القدرة الحاسوبية الفعلية المخصصة تتراوح بين 1% إلى 2% فقط من إجمالي القدرة الحاسوبية للشركة، وكانت هذه القدرة من أقدم الأجهزة. تم حل هذا الفريق لاحقاً، ولم تكتمل مهمته.

عندما طلب الصحفيون إجراء مقابلات مع موظفي شركة OpenAI المسؤولين عن أبحاث "السلامة الوجودية"، كان رد الشركة من قسم العلاقات العامة مثيراً للسخرية: "هذا ليس... شيئاً حقيقياً."

كان ألتمان نفسه هادئاً. وقال للصحفيين إن "حدسه لا يتوافق جيدًا مع العديد من أمور السلامة التقليدية في الذكاء الاصطناعي"، وأن OpenAI ستواصل السعي وراء "مشاريع السلامة، أو على الأقل المشاريع المتعلقة بالسلامة".

سعر --

--

المدير المالي المهمش والاكتتاب العام القادم

لم يكن تقرير مجلة نيويوركر سوى نصف الأخبار السيئة في ذلك اليوم. وفي اليوم نفسه، نشرت صحيفة "ذا إنفورميشن" خبراً هاماً آخر: كان هناك خلاف حاد بين سارة فراير، المديرة المالية لشركة OpenAI، وألتمان.

أخبرت فراير زملاءها سراً أنها شعرت بأن شركة OpenAI لم تكن مستعدة للطرح العام هذا العام. هناك سببان: الأول هو أن عبء العمل الإجرائي والتنظيمي المطلوب إنجازه كان كبيرًا جدًا، والثاني هو أن المخاطر المالية الناجمة عن إنفاق ألتمان الموعود على الحوسبة بقيمة 600 مليار دولار على مدى خمس سنوات كانت مرتفعة للغاية. بل إنها لم تكن متأكدة حتى مما إذا كان نمو إيرادات OpenAI سيدعم هذه الالتزامات.

لكن ألتمان أراد الإسراع في طرح أسهم الشركة للاكتتاب العام في الربع الأخير من هذا العام.

والأمر الأكثر إثارة للغضب هو أن فراير لم يعد يقدم تقاريره مباشرة إلى ألتمان. ابتداءً من أغسطس 2025، بدأت بتقديم تقاريرها إلى فيدجي سيمو (الرئيس التنفيذي لأعمال تطبيقات OpenAI). وكان سيمو قد حصل لتوه على إجازة مرضية لأسباب صحية. تخيل هذا الوضع: شركة تسرع في طرح أسهمها للاكتتاب العام، مع وجود خلافات جوهرية بين الرئيس التنفيذي والمدير المالي، وعدم تقديم المدير المالي تقاريره إلى الرئيس التنفيذي، ووجود رئيس المدير المالي في إجازة.

حتى المسؤولون التنفيذيون داخل شركة مايكروسوفت لم يستطيعوا تحمل ذلك، قائلين إن ألتمان "يشوه الحقائق، ويتراجع عن كلمته، وينقض الاتفاقيات باستمرار". بل إن أحد المديرين التنفيذيين في مايكروسوفت علق قائلاً: "أعتقد أن هناك احتمالاً معقولاً أن يُذكر في نهاية المطاف على أنه محتال على مستوى بيرني مادوف أو SBF".

صورة ألتمان "ذات الوجهين"

وصف عضو سابق في مجلس إدارة OpenAI صفتين في ألتمان للصحفيين. قد يكون هذا الوصف أقسى وصف للشخصية في التقرير بأكمله.

وقال عضو مجلس الإدارة إن ألتمان يمتلك مزيجًا نادرًا للغاية من الصفات: لديه رغبة قوية في إرضاء الآخرين وأن يكون محبوبًا منهم في كل تفاعل وجهاً لوجه. وفي الوقت نفسه، لديه لامبالاة شبه سيكوباتية تجاه عواقب خداع الآخرين.

من النادر جداً أن يمتلك شخص واحد كلا الصفتين. لكن بالنسبة لبائع، فهي الهدية المثالية.

يوجد في التقرير استعارة تعبر عن ذلك بشكل جيد: اشتهر ستيف جوبز بـ "مجال تشويه الواقع" الخاص به، والذي كان قادراً على جعل العالم يؤمن برؤيته. لكن حتى ستيف جوبز لم يقل للزبائن قط: "إذا لم تشتروا مشغل MP3 الخاص بي ، فسيموت الأشخاص الذين تحبونهم".

وقد قال ألتمان أشياء مماثلة عن الذكاء الاصطناعي.

مشكلة الشخصية لدى الرئيس التنفيذي: لماذا يُعدّ ذلك خطراً على الجميع

لو كان ألتمان مجرد الرئيس التنفيذي لشركة تقنية عادية، لكانت هذه الاتهامات في أحسن الأحوال مجرد ثرثرة تجارية مثيرة. لكن OpenAI ليس شركة عادية.

ووفقاً لمزاعمها الخاصة، فإنها تعمل على تطوير ما قد يكون أقوى تقنية في تاريخ البشرية. بإمكانها إعادة تشكيل الاقتصاد العالمي وسوق العمل (وقد أصدرت OpenAI نفسها للتو ورقة بيضاء سياسية حول قضية البطالة الناجمة عن الذكاء الاصطناعي) ويمكن استخدامها أيضًا لإنشاء أسلحة بيولوجية واسعة النطاق أو شن هجمات إلكترونية.

أصبحت جميع حواجز السلامة بلا معنى. لقد تراجعت مهمة المؤسس غير الربحية أمام التسرع في طرح أسهم الشركة للاكتتاب العام. يعتبر كل من كبير العلماء السابق ورئيس قسم السلامة السابق الرئيس التنفيذي "غير جدير بالثقة". يقارن الشركاء الرئيس التنفيذي بـ SBF. في هذا السياق، ما هو الحق الذي يملكه هذا الرئيس التنفيذي ليقرر من جانب واحد متى يتم إطلاق نماذج الذكاء الاصطناعي التي يمكن أن تغير مصير البشرية؟

كتب غاري ماركوس (أستاذ الذكاء الاصطناعي في جامعة نيويورك والمدافع المخضرم عن سلامة الذكاء الاصطناعي) سطراً بعد قراءة التقرير: إذا كان بإمكان نموذج OpenAI مستقبلي إنشاء أسلحة بيولوجية واسعة النطاق أو شن هجمات إلكترونية كارثية، فهل ستشعر حقًا بالراحة في ترك ألتمان يقرر ما إذا كان سيصدره بمفرده؟

كان رد شركة OpenAI على مجلة نيويوركر موجزاً: "معظم محتوى هذه المقالة عبارة عن إعادة صياغة لأحداث تم الإبلاغ عنها سابقًا، بالاعتماد على تصريحات مجهولة المصدر وحكايات مختارة، مع وجود دوافع شخصية واضحة لدى المصادر."

يتماشى هذا إلى حد كبير مع أسلوب رد ألتمان: عدم التطرق إلى اتهامات محددة، وعدم إنكار صحة المذكرة، والاكتفاء بالتشكيك في الدوافع.

شجرة مال تنمو على جثة منظمة غير ربحية

يمكن تلخيص قصة OpenAI على مدى عشر سنوات على النحو التالي:

قامت مجموعة من المثاليين القلقين بشأن مخاطر الذكاء الاصطناعي بإنشاء منظمة غير ربحية ذات رسالة محددة. حققت المنظمة إنجازات تكنولوجية استثنائية. وقد اجتذبت هذه الإنجازات رؤوس أموال ضخمة. طالب رأس المال بالعوائد. بدأت المهمة تنهار. تم حل فريق السلامة. تم تطهير المعارضين. تم تحويل الهيكل غير الربحي إلى كيان ربحي. مجلس الإدارة، الذي كان يتمتع في السابق بصلاحية إغلاق الشركة، أصبح الآن مليئاً بحلفاء الرئيس التنفيذي. الشركة التي وعدت ذات مرة بتخصيص 20% من قدراتها الحاسوبية لحماية سلامة الإنسان، أصبح مسؤولو العلاقات العامة فيها يقولون الآن: "هذا ليس شيئاً حقيقياً".

وقد وصف أكثر من مئة شاهد عيان بطل هذه القصة بنفس الوصف: "غير مقيد بالحقيقة."

وهو يستعد لطرح هذه الشركة للاكتتاب العام، بقيمة تتجاوز 850 مليار دولار.

يجمع هذا المقال معلومات من تقارير عامة صادرة عن The New Yorker و Semafor و Tech Brew و Gizmodo و Business Insider و The Information ووسائل إعلام أخرى.

قد يعجبك أيضاً

عالمان منقسمان: رؤى من قمة نيويورك للأصول الرقمية، المؤتمر الأكثر مؤسسية في مجال تقنية البلوك تشين

وول ستريت "تستحوذ" على شبكة الويب 3: تقود DTCC عملية توسيع نطاق الأصول الرئيسية على سلسلة الكتل، وتشهد صناعة العملات المشفرة عملية "طي مزدوج المسار" تاريخية ذات أبعاد هائلة.

أهم عشرة اكتشافات في كتاب سي زد الجديد: الكشف عن تفاصيل "94"، القصة الداخلية لتغيير ملكية منصة Huobi، لأول مرة.

من ريف جيانغسو إلى ملك العملات المشفرة، بيع منزل للاستثمار الكامل في البيتكوين.

وقف إطلاق النار بين عشية وضحاها يمحو أثر الحرب، ثلاثة خطوط صدع، واحد منها فقط مغلق | موجز أخبار ريواير الصباحي

استبدال الحد الأقصى لمدة أسبوعين بليلتين من تجنب المخاطرة

روبن هود تؤمن "حساب ترامب": تمكين الملايين من حديثي الولادة للوصول إلى سوق الأسهم

مناورة ترامب في الانتخابات النصفية ضخت مليارات إلى روبن هود.

هل تخشى فتح صندوق باندورا؟ أقوى نموذج أنثروبي على الإطلاق لا يجرؤ على الكشف عنه

ما نحتاج إلى مراقبته في الأشهر المقبلة هو عدد الثغرات الأمنية التي تم تحديدها في الشركات المدرجة في القائمة البيضاء والتي سيتم إصلاحها.

أسعار النفط بعد وقف إطلاق النار في إيران: لماذا انخفضت أسعار النفط الخام في أبريل 2026

انخفضت أسعار النفط في إيران بشكل حاد في 8 أبريل 2026 بعد أن قام التجار بإزالة جزء من علاوة الحرب المرتبطة بتعطيل إمدادات مضيق هرمز.

العملات الرائجة

أحدث أخبار العملات المشفرة

قراءة المزيد
iconiconiconiconiconiconiconiconicon

برنامج خدمة العملاء@WEEX_support_smart_Bot

خدمات (VIP)[email protected]