يقال إن البيت الأبيض يدرس الإشراف على نماذج الذكاء الاصطناعي الجديدة قبل إطلاقها، في عكس موقفه المتمثل في عدم التدخل
ذكرت صحيفة نيويورك تايمز يوم الاثنين نقلا عن مصادر أن البيت الأبيض يدرس إمكانية مراجعة نماذج الذكاء الاصطناعي الجديدة قبل الإصدار الرسمي، مما يمثل تحولا محتملا عن نهج عدم التدخل الحالي.
وفقًا للمنفذ، تدرس إدارة الرئيس الأمريكي دونالد ترامب إنشاء مجموعة عمل للذكاء الاصطناعي تجمع المسؤولين والمديرين التنفيذيين للتكنولوجيا لاستكشاف خيارات الرقابة، بما في ذلك عملية المراجعة الرسمية المحتملة.
وتقول المصادر إن هذه الحملة تهدف إلى تجنب التداعيات السياسية الناجمة عن هجوم إلكتروني محتمل مدعوم بالذكاء الاصطناعي، مع منح المسؤولين أيضًا إمكانية الوصول المبكر إلى نماذج جديدة لتقييم ما إذا كان بإمكانهم تقديم قدرات إلكترونية مفيدة للبنتاغون.
ومن الممكن أن يمنح النظام الحكومة إمكانية الوصول المبكر إلى النماذج المتقدمة، ولكن ليس بالضرورة القدرة على منعها. وبحسب ما ورد ناقش المسؤولون الخطط الأسبوع الماضي مع ممثلين عن Anthropic وGoogle وOpenAI.
ويمكن أن يعكس هذا النهج معهد أمن الذكاء الاصطناعي في المملكة المتحدة، الذي يقوم بتقييم النماذج المتقدمة للمخاطر ويقدم المشورة للحكومة بشأن حواجز الحماية. وفي الولايات المتحدة، تقوم المختبرات الكبرى بالفعل باختبار النماذج طوعا مع المركز الفيدرالي لمعايير الذكاء الاصطناعي والابتكار، ولكنها تتبنى نهجا أكثر تأييدا للأعمال التجارية، وتضع السلامة كأداة لبناء الثقة.
ولا يزال من غير الواضح كيف ستعمل المراجعات أو الوكالات التي ستديرها. ومن المرجح أن يتم تقديم أي آلية عبر أمر تنفيذي، على الرغم من عدم تحديد جدول زمني.
إن المطالبة بإجراء مراجعات رسمية من شأنها أن تمثل تراجعاً في سياسة ترامب بشأن الذكاء الاصطناعي. منذ عودته إلى منصبه، دافع عن الحد الأدنى من التنظيم، ودعا الذكاء الاصطناعي “مولود جميل جميل” وهذا هو المفتاح للتنافس مع الصين والتحذير منها “سياسة أم قواعد غبية” مما قد يعيق نموها.
تزعم صحيفة نيويورك تايمز أن هذا التحول أصبح أكثر إلحاحًا بعد أن كشفت شركة Anthropic عن نموذج جديد قوي، وهو Claude Mythos، والذي اختارت عدم إصداره علنًا، محذرة من أنه قد يكشف عن نقاط ضعف خطيرة في البرامج.
وتأتي المناقشة أيضًا في أعقاب خلاف بين شركة أنثروبيك والبنتاغون، بعد أن رفضت الشركة تخفيف الضمانات المتعلقة بالمراقبة والأسلحة المستقلة. وصفته وزارة الحرب بأنه أ “مخاطر سلسلة التوريد” تهميشها من العقود – وهي خطوة تتحدى الأنثروبيك الآن في المحكمة.
لقد قام البنتاغون بتوسيع استخدام الذكاء الاصطناعي في عملياته بسرعة، حيث قام مؤخرًا بإبرام صفقات معه جوجل و OpenAI للنماذج المصنفة.
لقد تصاعدت المخاوف بشأن مخاطر الذكاء الاصطناعي في الولايات المتحدة لبعض الوقت. وجد استطلاع أجراه مركز بيو للأبحاث العام الماضي أن 50% من الأمريكيين كانوا قلقين بشأن الذكاء الاصطناعي أكثر من حماستهم، ارتفاعًا من 37% في عام 2021. وأظهر استطلاع أجرته مؤسسة غالوب في مارس/آذار أن مشاعر الجيل Z أصبحت أكثر سلبية، مع انخفاض التفاؤل وتزايد الغضب.
ولا تزال الشكوك العامة بشأن جهود البنتافون في مجال الذكاء الاصطناعي مرتفعة أيضًا. وجد استطلاع أجرته مؤسسة ITIF في فبراير أن 79% من الأمريكيين يعتقدون أن الإنسان يجب أن يتخذ قرارات نهائية بشأن القوة المميتة، بينما قال 75% إن الذكاء الاصطناعي ليس موثوقًا بدرجة كافية لاستخدامه في الحياة أو الموت. وأظهر الاستطلاع نفسه دعمًا واسع النطاق للقيود التي تفرضها شركات التكنولوجيا، حيث قال 67% إن الشركات يجب أن تقيد كيفية استخدام منتجاتها، حتى من قبل الحكومة.
تنويه من موقع “beiruttime-lb.com”:
تم جلب هذا المحتوى بشكل آلي من المصدر: www.rt.com بتاريخ: 2026-05-05 16:30:00. الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
