أدوبي تطلق مبادرة لتفادي مخاطر الذكاء الاصطناعي

أطلقت شركة أدوبي بالتعاون مع شركات أخرى، مبادرة للتشجيع على استخدام رمزًا لتمييز المحتوى الذي تم انشائه باستخدام تقنيات من الذكاء الاصطناعي المختلفة، لتجنب حالات الالتباس على المستخدمين وعدم قدرتهم على تمييز المحتوى الحقيقي عن ذلك الذي تم تطويره من خلال الذكاء الاصطناعي.

حققت عدة شركات تقدمًا كبيرًا في تطوير قدرات الذكاء الاصطناعي التوليدي في الفترة الأخيرة، ويعيش المجال طفرة حقيقية في الاعتماد على تقنيات الذكاء الاصطناعي في انشاء أنواع مختلفة من المحتوى سواء صور، مقاطع صوتية، نصوص وحتى مقاطع فيديو كاملة.

وبحسب ما ورد عبر The Verge فإن شركة أدوبي الشهيرة في صناعة برامج تصميم وتحرير الصور ومقاطع الفيديو، قررت تخصيص رمزًا لتمييز المحتوى الذي تمت صناعته من خلال قدرات الذكاء الاصطناعي، لتسهيل تمييزه من قبل المستخدمين.

أدوبي الذكاء الاصطناعي

وقالت الشركة أن الرمز يمكن ارفاقه بالمحتوى جنبًا إلى جنب مع البيانات الوصفية وتحديد مصدره، وعند رؤيته من قبل المستخدمين، سيتم التعرف على كونه مطورًا من جانب أحد برامج الذكاء الاصطناعي.

الشركة التي حققت تقدمًا أيضًا في تصوير قدرات كبيرة للذكاء الاصطناعي التوليدي عبر برامجها المختلفة لصناعة المحتوى، قالت أن الرمز يمكن أن يتم اعتماده من قبل شركات أخرى، بحيث تكون قادرة على تبيه مستخدميها حول ما يشاهدونه أو يقرؤونه.

وأكدت أن لديها اتفاق بالفعل مع شركات مثل إنتل ومايكروسوفت، التي لديها برامج مثيرة للاهتمام من الذكاء الاصطناعي التوليدي، على استخدام الرمز في الصورة أسفله، لتمييز المحتوى الصادر عن برامجها المتطورة.

وأضافت أنه سيتم اعتماد الرمز الجديد في أي محتوى يتم تصميمه في فوتوشوب، بريمير وإلستريتور وكذلك من برامج Bing Image Generator من مايكروسوفت، وتأمل أن تدخل الشركات الأخرى على الخط.

جدير بالذكر، أن التقدم الجاري في مجال الذكاء الاصطناعي التوليدي، أثار بعض المخاوف بشأن قدرة المستخدمين على التعرف عما إذا كان ما يطلعون عليه حقيقيًا من عدمه، خاصة الصور ومقاطع الفيديو المزيفة والتي تم تصميمها باحترافية كبيرة.

كانت شركات أخرى أكدت اعتزامها على تمييز المحتوى الذي تم تصميمه من جانب برامج الذكاء الاصطناعي، فقبل أدوبي، طرحت جوجل، ميتا وتيك توك الفكرة لمواجهة الشكوك ومراعات مبادئ الشفافية الرقمية.

المصدر
الكاتب:حسام أبو خلف
الموقع : technologianews.com
نشر الخبر اول مرة بتاريخ : 2023-10-10 22:06:04
ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي

Exit mobile version