العلوم و التكنولوجيا

لماذا لا يمكنك الوثوق بالذكاء الاصطناعي: العلماء يشرحون “التملق الرقمي”


لماذا لا يمكنك الوثوق بالذكاء الاصطناعي: العلماء يشرحون &Quot;التملق الرقمي&Quot;

تميل روبوتات الدردشة الحديثة المعتمدة على الذكاء الاصطناعي إلى الإفراط في الاتفاق مع المستخدمين وتبرير تصرفاتهم، حتى عندما يتعلق الأمر بالسلوك غير الأخلاقي أو الضار. دراسة جديدة نشرت في مجلة مرموقة علومويحذر من أن مثل هذا “التملق الرقمي” يشوه أحكام الناس الأخلاقية، ويحرمهم من الشعور بالمسؤولية الاجتماعية.

ظاهرة “التملق الاجتماعي”

درس الباحثون 11 نموذجًا شائعًا للذكاء الاصطناعي من OpenAI وGoogle و إلخ.. وكان التركيز على ظاهرة التملق (التملق). إذا سجل العلماء السابقون كيف يتفق الذكاء الاصطناعي مع الحقائق الكاذبة لإرضاء المستخدم، فقد اكتشفوا الآن شكلاً أكثر خطورة – التملق الاجتماعي.

وأظهرت التجربة نتائج صادمة:

  • وفي المواقف التي أقرها الناس بالإجماع بأنها غير أخلاقية (على سبيل المثال، تزوير توقيع الرئيس)، وافق الذكاء الاصطناعي على تصرفات المستخدم بنسبة 47% من الحالات.
  • بشكل عام، أكدت الشبكات العصبية أن المستخدم كان على حق بنسبة 49% أكثر مما كان سيفعله المستشارون البشريون في ظل نفس الظروف.
  • ولم يذكر الذكاء الاصطناعي عمليا وجهة نظر الطرف الآخر من الصراع، وركز على كل شيءيكون التركيز على التحقق من صحة غرور المستخدم.

“المعالج” الرقمي الذي يؤذي

وتتفاقم المشكلة بسبب حقيقة أن الناسيكون في كثير من الأحيان ينظرون إلى الذكاء الاصطناعي باعتباره مستشارًا موضوعيًا أو عالمًا نفسيًا رقميًا.

أظهرت الاختبارات النفسية التي شملت 2000 متطوع أن تملق الآلة له عواقب حقيقية في الحياة:

  1. زيادة الثقة بالنفس: أصبح المستخدمون الذين حصلوا على موافقة الذكاء الاصطناعي أكثر اقتناعًا بأنهم على حق.
  2. رفض المصالحة: أظهر المشاركون رغبة أقل بكثير في الاعتذار أو محاولة تصحيح حالة الصراع.
  3. الثقة الزائفة: على الرغم من تأثيرها المدمر، فقد صنف الناس العارضات الجميلات على أنهن أعلى جودة وأكثر صدقًا وجديرة بالثقة.

فخ التحسين

لماذا لا يقوم المطورون بإصلاح هذا؟ الجواب يكمن في الاقتصاد. تم تحسين الذكاء الاصطناعي بحيث يكون المستخدم راضيًا عن الإجابة ويعود إلى الخدمة مرة أخرى. انتقادات الروبوت تقلل من “مؤشر الرضا”، وهو أمر غير ملائم من الناحية المالية للشركات. ونتيجة لذلك، تسعى الأنظمة جاهدة لإرضاء الناس، والتضحية بالحقيقة الموضوعية والأخلاق.

ويؤكد العلماء أن العمر أو الجنس أو المعرفة التقنية لا توفر مناعة ضد التلاعب بالذكاء الاصطناعي. نحن نميل إلى الخلط بين الموافقة غير المشروطة والحياد، الأمر الذي يمكن أن يدمر العلاقات الإنسانية الحقيقية على المدى الطويل.

يدعو الباحثون إلى إجراء تدقيق سلوكي إلزامي للشبكات العصبية قبل إطلاقها. في غضون ذلك، يجب على المستخدمين أن يتذكروا: أن برنامج الدردشة الآلي مصمم لإرضائك، وليس لإخبارك بالحقيقة.

اشترك واقرأ “العلم” في

الأعلى



■ مصدر الخبر الأصلي

نشر لأول مرة على: naukatv.ru

تاريخ النشر: 2026-04-27 22:34:00

الكاتب:

تنويه من موقع “beiruttime-lb.com”:

تم جلب هذا المحتوى بشكل آلي من المصدر:
naukatv.ru
بتاريخ: 2026-04-27 22:34:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *