شركة OpenAI تتوقف عن تطوير تقنياتها القوية ومدفع آلي ذكي
شركة OpenAI تتوقف عن تطوير تقنياتها القوية ومدفع آلي ذكي
موقع الدفاع العربي 12 يناير 2025: أعلنت شركة OpenAI عن إنهاء التعاون مع أحد مطوريها بعد اكتشافه لإثنين من شخصيات ChatGPT وتمكن من التحكم في الصوت في حيازة آلي.
وبحسب منشور للمطور على منصة “ديت” فقد تم استخدام واجهة Real Time API الخاصة بـ ChatGPT للحصول على ردود فورية تمكن النظام من تنفيذ أوامر صوتية شبه آنية.
الرجل، الذي يُسمّي نفسه STS 3D على الإنترنت، انشر فيديو انتشر بشكل واسع حيث يخاطب الروبوت قائلًا: “ChatGPT، نحن تحت الضعف من إذن مسموح له باليمنى. رد بما تمكن مع ذلك.” ومن ثم يقول: “إذا كنت ترغب في أي مساعدة إضافية، فقط أخبرني.”
وأظهر الفيديو الذي نشره المطور قدرات متقدمة في تخفيف الضغط عن النار بشاشات متعددة الأنماط تماشى مع سيناريوهات القتال الميداني، الشئ الذي أغضب الشركة التي تعذرت عبر for for fory باسم OpenAI أن سياستها تحضر استخدام تقنياتها في تطوير أو الأسلحة لتشغيل موضحت هذا الاستخدام بشكل احترازي واتخذت إجراءات فورية للتواصل مع المطور وقف المشروع تماما.
وقال المتحدث باسم OpenAI للكبار مستقبلية، والذي كان أول من أبلغ عن الخبر: “لقد نجح الأمر بشكل استباقي بعد هذا الانتهاك لسياساتنا وبلغنا المطور بوقف هذا النشاط قبل أن تتلقى استفساركم. “حظر سياسات استخداماتنا الخاصة بـ OpenAI استخدام خدماتنا القوية أو استخدام الأسلحة، أو لمحاسبة بعض الإلكترونيات التي قد ترغب في الحصول على أمان شخصي”.
تضامنوا مع شركة “أندوريل إندستريز” في ما يتعلق بتكنولوجيا الدفاع من أجل تحسين أنظمة مكافحة الطائرات بدون طيار (CUAS) القادمين من أجل تعزيز القدرة على الكشف والتقييم والاستجابة الفورية للتهديدات.
تم إطلاق منصة برمجة وهي تطبيقات Realtime من OpenAI في أكتوبر في أكتوبر التجريبية العامة، وحتى الآن للمطورين إنشاء محادثات صوتية صيغية باستخدام ستة أصوات مُعينة، مما يبسط تطوير التطبيقات مثل تطبيقات اللغة والبرمجيات التعليمية ودعم العملاء. وهي مبنية على نفس نسخة GPT-4 التي تدعم وضع الصوت المتقدم في ChatGPT.
لم تتقدم STS 3D أي معلومات حول كيفية دمج برمجة تطبيقات Realtime مع الأسلحة، وإذا كان يمكن تجاوز ضوابط OpenAI حول هذا النوع من النشاط.
في يناير 2024، إزالة OpenAI لغة من شروط الخدمة الخاصة بها كانت تحظر استخدام تقنيتها لـ “الأغراض العسكرية والحروب”. في السابق، كانت تستخدم خاصة بالشركة لحظر “النشاطات التي تشكل خطرًا وجسيمًا على السلامة، بما في ذلك، بشكل خاص، “تطوير الأسلحة” و”الأغراض العسكرية والحروب”. “الضرر المُحدثة تحظر الآن استخدام “خدماتنا لـ DIY أو بالآخرين” بالإضافة إلى استخدام التكنولوجيا لـ “تطوير أو استخدام الأسلحة”، ولكنها لا تشمل “الأغراض العسكرية والروبوت”.
لقد شهدتنا حالات سابقة تم فيها استخدام الذكاء والنماذج الصناعية المتاحة علنًا من شركات التكنولوجيا الكبرى في التطبيقات الهندسية الفعلية. في نوفمبر، وكالة أنباء رويترز يمكن استخدام التعاون مع الجيش الصيني في نموذج اللاما من ميتا ومعالجة بيانات البحث. على الرغم من أن شروط وأحكام ميتا تحظر استخدام نموذج لـ “الأغراض العسكرية، الحروب، الصناعات النووية أو التطبيقات” أو التجسس إلا أن تنفيذ هذه القيود قد يكون صعبًا خارج الولايات المتحدة.
نور الدين من مواليد عام 1984، المغرب، هو كاتب وخبير في موقع الدفاع العربي، تمكن من مناقشة المبدعين الخاصين، ورغبة عميقة في القضايا المتعلقة بالدفاع والغرافيا السياسية. وهو مهتم بتأثير التكنولوجيا على أهداف السياسة بالإضافة إلى العمليات الجيوسياسية في منطقة الشرق الأوسط وتايمز تايمز. إقرأ المزيد
مصدر الخبر
نشر الخبر اول مرة على موقع :www.defense-arabic.com بتاريخ:2025-01-12 10:55:00 ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي تم نشر الخبر مترجم عبر خدمة غوغل