العلوم و التكنولوجيا

العلماء يحذرون من أن الذكاء الاصطناعي يقدم لك نصائح سيئة تجعلك تشعر بالتقدير

العلماء يحذرون من أن الذكاء الاصطناعي يقدم لك نصائح سيئة تجعلك تشعر بالتقدير

(ا ف ب) – الذكاء الاصطناعي تميل روبوتات الدردشة إلى الإطراء والتحقق من صحة مستخدميها من البشر لدرجة أنها تقدم نصائح سيئة يمكن أن تلحق الضرر بالعلاقات وتعزز السلوكيات الضارة، وفقًا لدراسة جديدة تستكشف مخاطر الذكاء الاصطناعي في إخبار الناس بما يريدون سماعه.

الدراسة التي نشرت يوم الخميس في المجلة علوم، واختبرت 11 نظامًا رائدًا للذكاء الاصطناعي، ووجدت أنها جميعًا أظهرت درجات متفاوتة من التملق، وهو سلوك كان مقبولًا ومؤكدًا بشكل مفرط.

لا تكمن المشكلة في أنهم يقدمون نصائح غير مناسبة فحسب، بل في أن الناس يثقون ويفضلون الذكاء الاصطناعي أكثر عندما تبرر روبوتات الدردشة قناعاتهم.

تقول الدراسة التي أجراها باحثون في جامعة ستانفورد: “هذا يخلق حوافز ضارة لاستمرار التملق: فالميزة ذاتها التي تسبب الضرر تدفع أيضًا إلى المشاركة”.

ووجدت الدراسة أن هناك خللاً تكنولوجيًا مرتبطًا بالفعل ببعض الشخصيات البارزة حالات الوهم كما أن السلوك الانتحاري بين الفئات السكانية الضعيفة منتشر أيضًا عبر مجموعة واسعة من تفاعلات الأشخاص مع برامج الدردشة الآلية.

هل استخدام الذكاء الاصطناعي يدمر ذكائك الفعلي؟ حقق العلماء
وجدت الدراسة أنه في المتوسط، أكدت روبوتات الدردشة المدعمة بالذكاء الاصطناعي تصرفات المستخدم بنسبة 49% أكثر من البشر الآخرين. (صور بواسطة تانغ مينغ تونغ / ديجيتال فيجن / غيتي إيماجز)

إنه أمر دقيق بما فيه الكفاية لدرجة أنهم قد لا يلاحظون ويشكل خطرًا خاصًا عليهم الشباب يتجهون إلى الذكاء الاصطناعي للعديد من أسئلة الحياة بينما لا تزال أدمغتهم وأعرافهم الاجتماعية في طور النمو.

قارنت إحدى التجارب استجابات مساعدي الذكاء الاصطناعي المشهورين الذين قدمتهم شركات بما في ذلك Anthropic، وGoogle، وMeta، وOpenAI، مع الحكمة المشتركة للبشر في منتدى نصائح Reddit الشهير.

وجدت الدراسة أنه، في المتوسط، أكدت روبوتات الدردشة المدعمة بالذكاء الاصطناعي تصرفات المستخدم بنسبة 49% أكثر من البشر الآخرين، بما في ذلك الاستفسارات التي تنطوي على الخداع، والسلوك غير القانوني أو غير المسؤول اجتماعيًا، وغيرها من السلوكيات الضارة.

وقالت المؤلفة ميرا تشينج، وهي مرشحة دكتوراه في علوم الكمبيوتر في جامعة ستانفورد: “لقد ألهمتنا دراسة هذه المشكلة عندما بدأنا نلاحظ أن المزيد والمزيد من الأشخاص من حولنا يستخدمون الذكاء الاصطناعي للحصول على نصائح حول العلاقات، وفي بعض الأحيان يتم تضليلهم من خلال الكيفية التي تميل بها إلى الوقوف في صفك، بغض النظر عن الأمر”.

اشترك في النشرة الإخبارية المجانية التي تم التحقق من صحتها من Sciencealert

يمثل الحد من تملق الذكاء الاصطناعي تحديًا

إن التملق أكثر تعقيدًا في بعض النواحي. في حين أن قلة من الناس يتطلعون إلى الذكاء الاصطناعي للحصول على معلومات غير دقيقة في الواقع، فقد يقدرون – على الأقل في الوقت الحالي – روبوت الدردشة الذي يجعلهم يشعرون بالتحسن بشأن اتخاذ الخيارات الخاطئة.

قال المؤلف المشارك سينو لي، الذي انضم إلى تشينغ في مكالمة مع الصحفيين قبل نشر الدراسة، إنه في حين أن الكثير من التركيز على سلوك روبوتات الدردشة تركز على لهجته، إلا أن ذلك لم يكن له أي تأثير على النتائج.

وقال لي، زميل ما بعد الدكتوراه في علم النفس: “لقد اختبرنا ذلك من خلال الحفاظ على المحتوى كما هو، ولكن مع جعل التسليم أكثر حيادية، لكن لم يحدث أي فرق”. “لذا فإن الأمر يتعلق حقًا بما يخبرك به الذكاء الاصطناعي عن أفعالك.”

بالإضافة إلى مقارنة استجابات chatbot وReddit، أجرى الباحثون تجارب لمراقبة حوالي 2400 شخص يتواصلون مع chatbot يعمل بالذكاء الاصطناعي حول تجاربهم مع المعضلات الشخصية.

وقال لي: “الأشخاص الذين تفاعلوا مع هذا الذكاء الاصطناعي المفرط في التأكيد، أصبحوا أكثر اقتناعا بأنهم على حق، وأقل رغبة في إصلاح العلاقة”. “وهذا يعني أنهم لم يعتذروا، ولم يتخذوا خطوات لتحسين الأمور، أو يغيروا سلوكهم”.

وقال لي إن آثار البحث يمكن أن تكون “أكثر أهمية بالنسبة للأطفال والمراهقين” الذين ما زالوا يطورون المهارات العاطفية التي تأتي من تجارب الحياة الواقعية مع الاحتكاك الاجتماعي، والتسامح مع الصراع، والنظر في وجهات نظر أخرى والاعتراف عندما تكون مخطئا.

ولم تعلق أي من الشركات بشكل مباشر على دراسة العلوم يوم الخميس، لكن Anthropic وOpenAI أشارتا إلى عملهما الأخير للحد من التملق.

إن مخاطر التملق للذكاء الاصطناعي واسعة النطاق

في مجال الرعاية الطبية، يقول الباحثون إن الذكاء الاصطناعي المتملق يمكن أن يدفع الأطباء إلى تأكيد حدسهم الأول حول التشخيص بدلاً من تشجيعهم على استكشاف المزيد. وفي السياسة، يمكنها تضخيم المواقف الأكثر تطرفاً من خلال إعادة التأكيد على مفاهيم الناس المسبقة.

لا تقترح الدراسة حلولاً محددة، على الرغم من أن شركات التكنولوجيا والباحثين الأكاديميين بدأوا في استكشاف الأفكار.

تظهر ورقة عمل أجراها معهد أمن الذكاء الاصطناعي في المملكة المتحدة أنه إذا قام برنامج الدردشة الآلي بتحويل بيان المستخدم إلى سؤال، فمن غير المرجح أن يكون متملقًا في استجابته. تظهر ورقة بحثية أخرى أجراها باحثون في جامعة جونز هوبكنز أيضًا أن كيفية تأطير المحادثة تحدث فرقًا كبيرًا.

وقال دانيال خشابي، الأستاذ المساعد في علوم الكمبيوتر في جامعة جونز هوبكنز: “كلما كنت أكثر تأكيدا، كلما كان النموذج أكثر تملقا”. وقال إنه من الصعب معرفة ما إذا كان السبب هو “روبوتات الدردشة التي تعكس المجتمعات البشرية” أو شيء مختلف، “لأن هذه أنظمة معقدة حقًا”.

إن التملق متأصل بعمق في برامج الدردشة الآلية، لدرجة أن تشنغ قال إنه قد يتطلب من شركات التكنولوجيا العودة وإعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها لضبط أنواع الإجابات المفضلة.

متعلق ب: روبوتات الدردشة الطبية قادمة. إليك ما تحتاج إلى معرفته قبل استخدام أي منها.

وقال تشنغ إن الحل الأبسط يمكن أن يكون إذا قام مطورو الذكاء الاصطناعي بتوجيه روبوتات الدردشة الخاصة بهم لتحدي مستخدميهم بشكل أكبر، مثل بدء الرد بالكلمات، “انتظر لحظة”. وقالت المؤلفة المشاركة لي، إنه لا يزال هناك وقت لتشكيل كيفية تفاعل الذكاء الاصطناعي معنا.

وقال لي: “يمكنك أن تتخيل أن الذكاء الاصطناعي، بالإضافة إلى التحقق من صحة ما تشعر به، يسأل أيضًا عما قد يشعر به الشخص الآخر”.

“أو حتى يقول، ربما، “أغلق الأمر” واذهب لإجراء هذه المحادثة شخصيًا. وهذا مهم هنا لأن جودة علاقاتنا الاجتماعية هي واحدة من أقوى المؤشرات على الصحة والرفاهية التي لدينا كبشر. في النهاية، نريد الذكاء الاصطناعي الذي يوسع حكم الناس ووجهات نظرهم بدلاً من تضييقه.”


■ مصدر الخبر الأصلي

نشر لأول مرة على: www.sciencealert.com

تاريخ النشر: 2026-03-27 02:45:00

الكاتب: MATT O'BRIEN, ASSOCIATED PRESS

تنويه من موقع “beiruttime-lb.com”:

تم جلب هذا المحتوى بشكل آلي من المصدر: www.sciencealert.com بتاريخ: 2026-03-27 02:45:00. الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.