مقالات مترجمة

خلاف البنتاغون يعزز السمعة الإنسانية لكنه يثير تساؤلات حول جاهزية الذكاء الاصطناعي في الجيش

خلاف البنتاغون يعزز السمعة الإنسانية لكنه يثير تساؤلات حول جاهزية الذكاء الاصطناعي في الجيش


الأنثروبي الموقف الأخلاقي إن الاستخدام العسكري الأمريكي للذكاء الاصطناعي يعيد تشكيل المنافسة بين شركات الذكاء الاصطناعي الرائدة، ولكنه يكشف أيضًا عن وعي متزايد بأن روبوتات الدردشة ربما لا تكون قادرة بما يكفي على القيام بأعمال حربية.

تفوق برنامج الدردشة الآلي Claude التابع لشركة Anthropic، للمرة الأولى، على منافسه ChatGPT في تنزيلات تطبيقات الهاتف في الولايات المتحدة هذا الأسبوع، في إشارة إلى الاهتمام المتزايد من المستهلكين الذين يقفون إلى جانب Anthropic في مواجهتها مع البنتاغون، وفقًا لشركة أبحاث السوق Sensor Tower.

وأمرت إدارة ترامب يوم الجمعة الوكالات الحكومية بذلك التوقف عن استخدام كلود ووصفها بأنها خطر على سلسلة التوريد بعد أن رفض الرئيس التنفيذي لشركة Anthropic، داريو أمودي، ثني الضمانات الأخلاقية لشركته التي تمنع تطبيق التكنولوجيا على الأسلحة المستقلة والمراقبة الجماعية المحلية. وقالت شركة أنثروبيك إنها ستتحدى البنتاغون أمام المحكمة بمجرد تلقي إشعار رسمي بالعقوبات.

وبينما أشاد العديد من الخبراء العسكريين وخبراء حقوق الإنسان بأمودي لدفاعه عن المبادئ الأخلاقية، يشعر البعض أيضًا بالإحباط بسبب سنوات من تسويق صناعة الذكاء الاصطناعي التي أقنعت الحكومة بتطبيق التكنولوجيا على المهام عالية المخاطر.

وقالت ميسي كامينغز، الطيار المقاتل السابق في البحرية والذي يدير الآن مركز الروبوتات والأتمتة في جامعة جورج ماسون: “لقد تسبب في هذه الفوضى”. “لقد كانوا الشركة رقم 1 التي أثارت ضجة سخيفة حول قدرات هذه التقنيات. والآن، فجأة، يريدون أن يكونوا حقيقيين. إنهم يريدون أن يقولوا للناس: “أوه، انتظر لحظة. لا ينبغي لنا حقًا استخدام هذه التقنيات في الأسلحة”.

ولم تستجب الأنثروبيك على الفور لطلب التعليق. ورفضت وزارة الدفاع التعليق على ما إذا كانت لا تزال تستخدم كلود، بما في ذلك في حرب إيران، بحجة الأمن التشغيلي.

نشر كامينغز ورقة بحثية في مؤتمر رفيع المستوى للذكاء الاصطناعي في ديسمبر/كانون الأول، قال فيها إن الوكالات الحكومية يجب أن تحظر استخدام الذكاء الاصطناعي التوليدي “للسيطرة على أي سلاح أو توجيهه أو توجيهه أو التحكم فيه”. ليس لأن الذكاء الاصطناعي ذكي للغاية لدرجة أنه يمكن أن يصبح مارقًا، ولكن لأن النماذج اللغوية الكبيرة التي تقف وراء روبوتات الدردشة مثل كلود ترتكب الكثير من الأخطاء ــ والتي تسمى الهلوسة أو التخريب ــ وهي “غير موثوقة بطبيعتها وغير مناسبة في البيئات التي يمكن أن تؤدي إلى خسائر في الأرواح”.

وقال كامينغز في مقابلة يوم الثلاثاء مع وكالة أسوشيتد برس: “سوف تقتلون غير المقاتلين”. “سوف تقتل قواتك. ليس من الواضح ما إذا كان الجيش يفهم حقا القيود “.

وقد سعى أمودي إلى التأكيد على هذه القيود في دفاعه عن الموقف الأخلاقي لشركة أنثروبك الأسبوع الماضي، قائلا إن “أنظمة الذكاء الاصطناعي الحدودية لا يمكن الاعتماد عليها بالقدر الكافي لتشغيل أسلحة ذاتية التشغيل بالكامل. ولن نقدم عن عمد منتجا يعرض المقاتلين والمدنيين الأميركيين للخطر”.

وكانت شركة أنثروبيك، حتى وقت قريب، هي الشركة الوحيدة من بين نظيراتها التي حصلت على الموافقة للاستخدام في الأنظمة العسكرية السرية، حيث أبرمت شراكة مع شركة تحليل البيانات Palantir ومقاولين دفاعيين آخرين. قال الرئيس دونالد ترامب يوم الجمعة، في نفس الوقت تقريبًا الذي وافق فيه على الضربات العسكرية يوم السبت على إيران، إن البنتاغون سيكون لديه ستة أشهر للتخلص التدريجي من التطبيقات العسكرية لـ Anthropic.

وقال كامينغز، وهو مستشار سابق لشركة بالانتير، إنه من المحتمل أن يكون كلود قد تم استخدامه بالفعل في التخطيط للضربات العسكرية.

قالت: “آمل بشكل أساسي أن يكون هناك بشر في الحلقة”. “يجب على الإنسان أن يعتني بهذه التقنيات عن كثب. يمكنك استخدامها للقيام بهذه الأشياء، ولكن عليك التحقق، والتحقق، والتحقق”.

وقالت إن هذا يتناقض مع الرسائل الواردة من شركات الذكاء الاصطناعي التي أشارت إلى أن التكنولوجيا الخاصة بها تتطور إلى درجة أنها “تكاد تكون واعية”.

وقال كامينغز: “إذا كانت هناك مسؤولية هنا، فإن نصفها هو خطأ إنساني في إثارة هذه الضجة، والنصف الآخر هو خطأ وزارة الحرب لفصلها جميع الأشخاص الذين كانوا سينصحونها بعدم الاستخدام الغبي للتكنولوجيا”.

وصف أحد المعلقين على وسائل التواصل الاجتماعي هذا الأسبوع المشاكل الحكومية التي تواجهها شركة أنثروبك بأنها “ضريبة الضجيج” – وهي رسالة أعاد نشرها كبير مستشاري الرئيس دونالد ترامب في مجال الذكاء الاصطناعي، ديفيد ساكس، وهو منتقد متكرر للشركة.

وعلى الرغم من أنها تسببت في متاعب قانونية يمكن أن تعرض للخطر الشراكات التجارية لشركة Anthropic مع المقاولين العسكريين الآخرين، فقد عززت أيضًا سمعتها كمطور للذكاء الاصطناعي يهتم بالسلامة.

وقالت جينيفر هادلستون، وهي زميلة بارزة في معهد كاتو ذي الميول التحررية: “من الجدير بالثناء أن تقف شركة ما في وجه الحكومة من أجل الحفاظ على ما شعرت أنه أخلاقياتها وخياراتها التجارية، حتى في مواجهة هذه الاستجابات السياسية التي قد تعوقها”.

لقد تحدث المستهلكون بالفعل، مما أدى إلى زيادة في تنزيلات Claude التي جعلته تطبيق iPhone الأكثر شعبية بدءًا من يوم السبت ولجميع أنظمة الهاتف في الولايات المتحدة يوم الاثنين، وفقًا لـ Sensor Tower. يأتي ذلك على حساب ChatGPT من OpenAI، والتي تضررت سمعتها الاستهلاكية عندما أعلنت عن صفقة يوم الجمعة مع البنتاغون لاستبدال Anthropic بشكل فعال بـ ChatGPT في البيئات السرية.

في متجر Apple، ارتفع عدد التقييمات بنجمة واحدة – وهو أسوأ تصنيف – لـ ChatGPT بنسبة 775% يوم السبت واستمر في النمو في وقت مبكر من هذا الأسبوع، مما أجبر OpenAI على التحكم في الأضرار.

وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في منشور على وسائل التواصل الاجتماعي يوم الاثنين: “لم يكن ينبغي لنا أن نتعجل لإصدار هذا يوم الجمعة”. “القضايا معقدة للغاية، وتتطلب تواصلًا واضحًا. كنا نحاول بصدق تهدئة الأمور وتجنب نتيجة أسوأ بكثير، لكنني أعتقد أن الأمر بدا انتهازيًا وقذرًا”.

كان ألتمان يخطط لجمع الموظفين لحضور اجتماع “شامل” يوم الثلاثاء لمناقشة الخطوات التالية.

وقال ألتمان: “هناك أشياء كثيرة ليست التكنولوجيا جاهزة لها، والعديد من المجالات التي لم نفهم بعد المفاضلات المطلوبة للسلامة”. وأضاف “سنعمل على حل هذه الأمور ببطء مع (البنتاغون) وبضمانات فنية وأساليب أخرى.”



■ مصدر الخبر الأصلي

نشر لأول مرة على: www.defensenews.com

تاريخ النشر: 2026-03-04 03:00:00

الكاتب: Matt O’Brien

تنويه من موقع “wakalanews”:

تم جلب هذا المحتوى بشكل آلي من المصدر:
www.defensenews.com
بتاريخ: 2026-03-04 03:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “wakalanews”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.