أصبحت تحذيرات عذاب الذكاء الاصطناعي أعلى. هل هم واقعيون؟

إنه عام 2035، ويتمتع نظام الذكاء الاصطناعي بالسلطة العليا لإدارة كل شيء، بدءًا من حكومات العالم وحتى شبكات الكهرباء الوطنية. تم إنشاء النظام، الذي يُسمى “الإجماع 1″، باستخدام إصدارات سابقة من نفسه، وقد طور أهداف الحفاظ على الذات التي تتجاوز الضمانات المضمنة فيه. في أحد الأيام، بحثًا عن مساحة إضافية للألواح الشمسية ومصانع الروبوتات، يطلق الذكاء الاصطناعي بهدوء أسلحة بيولوجية تقتل البشرية جمعاء، باستثناء القليل منها الذي يحتفظ به كحيوانات أليفة.

حساب “AI 2027” هذا عبارة عن قصة شارك في إنشائها الباحث دانييل كوكوتاجلو، وهو موظف سابق في شركة الذكاء الاصطناعي OpenAI، ويصف أحد السيناريوهات العديدة التي تخيلها الباحثون حيث يقتلنا الذكاء الاصطناعي المستقبلي جميعًا (انظر https://ai-2027.com/race). إن هذا الإعداد هو خيال علمي، ولكن بالنسبة للبعض، فإن القلق حقيقي. يقول أندريا ميوتي، مؤسس منظمة ControlAI، وهي منظمة غير ربحية مقرها لندن، تقوم بحملة لمنع تطوير ما تسميه الذكاء الاصطناعي الفائق: “إذا وضعنا أنفسنا في موقف حيث لدينا آلات أكثر ذكاءً منا، وتتحرك دون سيطرتنا، فإن بعض ما تفعله سيكون غير متوافق مع حياة الإنسان”.

ميوتي ليس وحده. منذ عام 2022، حدث تغيير كبير في قدرات الذكاء الاصطناعي نتيجة لنماذج اللغة الكبيرة (LLMs)، التي تدعم روبوتات الدردشة مثل ChatGPT من OpenAI في سان فرانسيسكو، كاليفورنيا. وقد دفع هذا التطور العديد من الباحثين وكذلك كبار المديرين التنفيذيين في شركات الذكاء الاصطناعي إلى التحذير من احتمال حدوث نهاية العالم للذكاء الاصطناعي. في العام الماضي، تزايدت قدرة النماذج على العمل على مهام طويلة الأمد و بهم القدرة على الوصول إلى أدوات العالم الحقيقي وقد ركزت المخاوف بشكل أكبر. تقول جيليان هادفيلد، التي تدرس حوكمة الذكاء الاصطناعي في جامعة جونز هوبكنز في بالتيمور بولاية ميريلاند: “لم أكن أبدًا من المتشائمين، لكنني أصبحت متوترًا للغاية في الأشهر الأخيرة”.

لكن العديد من الباحثين يشعرون بقلق أكبر بشأن تسبب الذكاء الاصطناعي في كوارث لا تصل إلى حد الانقراض، مثل بدء حرب نووية. ويقول البعض إن المخاوف من سيناريوهات يوم القيامة مبالغ فيها. يقول جاري ماركوس، عالم الأعصاب والباحث في الذكاء الاصطناعي بجامعة نيويورك في مدينة نيويورك: “لا أرى أي سيناريو محدد للانقراض الناجم عن الذكاء الاصطناعي يبدو معقولًا بشكل خاص”.

يحذر ماركوس وآخرون من أن إطلاق الإنذار دون داع قد يكون ضارًا صرف انتباه الجمهور والسياسيين عن مخاطر الذكاء الاصطناعي الموثقة جيدًا – مثل نشر المعلومات الخاطئة وتمكين المراقبة الجماعية. ويقول بعض الباحثين إن القلق غير المبرر بشأن انقراض الإنسان يمكن أن يوجه الحكومات بعيدًا عن التنظيم، لأن القادة الوطنيين قد يسعون إلى الحصول على ميزة على المنافسين الجيوسياسيين في سباق تسلح الذكاء الاصطناعي.

إذن، ما مدى واقعية المخاوف بشأن خطر انقراض الذكاء الاصطناعي وما الذي يجب فعله حيال ذلك؟ طبيعة تحدثت إلى متخصصين في هذا المجال، وإليكم ما قالوه.

كيف يتخيل المحكوم عليهم الانقراض

ويشير الخطر الوجودي عادة إما إلى انقراض كل البشر أو معظمهم، أو خضوع البشر بالكامل للآلات. في معظم السيناريوهات، يكون العنصر الأساسي هو وجود نظام أكثر قدرة من البشر على القيام بمعظم الأشياء. من شأنها أن تتخذ قرارات استراتيجية أفضل، وتكون أكثر إقناعًا، وتتصرف بشكل أسرع، كما تقول كاتيا جريس، باحثة الذكاء الاصطناعي التي شاركت في تأسيس مشروع AI Impacts، وهو مشروع يحلل التأثيرات طويلة المدى للتكنولوجيا، في بيركلي، كاليفورنيا.

على الرغم من أن مثل هذه السيناريوهات تشير غالبًا إلى الذكاء الاصطناعي القاتل باعتباره كائنًا واعيًا، إلا أن قدراته هي الأكثر أهمية، كما تقول جريس. وتقول: “نحن بالتأكيد لا نحتاج إلى “ذكاء عام اصطناعي” قادر على الفهم الحقيقي” حتى يشكل تهديدًا وجوديًا.

والعنصر الأساسي الآخر هو أن أهداف النظام لا تتوافق مع أهداف البشر، بما في ذلك رغبتنا في الحفاظ على السيطرة الشاملة. يحاول المطورون التحكم في سلوك النموذج من خلال التدريب عليه، ولكن عملية فوضوية تعطي نتائج بعيدة عن الكمال. غالبًا ما تكون الأولويات التي يتم تشجيع النماذج على تطويرها متضاربة. قد يُطلب من النظام ليس فقط أن يكون “صادقًا” ولكن أيضًا أن “ينجح في مهمته” وأن “يحسّن نفسه”. في سيناريو الذكاء الاصطناعي 2027، ينتهي النموذج بقتل الجميع من خلال تطبيق نفس استراتيجيات التحسين التي مكنته من النجاح في التدريبات السابقة.

يقول جريس إن الذكاء الاصطناعي الذي يتمتع بقدرات متفوقة وأهداف متضاربة من شأنه في أفضل الأحوال أن يترك البشر خاضعين و”عاجزين اقتصاديًا وسياسيًا”، وغير قادرين على التنبؤ بتصرفات الآلة أو التخفيف منها.

فهل هذا السيناريو واقعي؟

غالبًا ما يستشهد الباحثون الذين يخشون المخاطر الوجودية بوتيرة التقدم في تطوير الذكاء الاصطناعي كدليل على أننا نتحرك نحو مستوى مثير للقلق من القدرة. يقول أنتوني أغيري، عالم الكونيات في جامعة كاليفورنيا، سانتا كروز، والمدير التنفيذي لمعهد مستقبل الحياة، وهو مركز أبحاث في كامبل، كاليفورنيا، يقوم بتحليل التقنيات التحويلية، إن أنظمة الذكاء الاصطناعي تقوم بأشياء كانت تبدو مستحيلة قبل عقد من الزمن. ويقول: “أي شخص يعتقد أن هناك جدارًا أو هضبة أو شيء من هذا القبيل، فليظهر لي ذلك في الرسوم البيانية، لأنه ليس هناك”.

لكن آخرين يعارضون ذلك بالقول إن النمو المستمر في القدرات ليس مضمونا على الإطلاق. النجاح في المجالات الخاضعة للرقابة والتي تم اختبار النماذج فيها بشكل جيد، مثل البرمجة، لا يترجم بالضرورة إلى مهام في العالم الحقيقييقول كيسي موك، الباحث في سياسات التكنولوجيا بجامعة ديوك في دورهام بولاية نورث كارولينا. ويقول: “إن القدرة على فهم المشكلات الجديدة والتعامل معها بشكل موثوق في الأنظمة الفوضوية والمفتوحة للعالم المادي هي شرط أساسي واضح لأنظمة الذكاء الاصطناعي التي تشكل تهديدًا على النطاق الذي يقترحه المنكوبون”. ويقول إن حاملي شهادة الماجستير في القانون “يقصون كثيرًا جدًا من ذلك في الوقت الحالي”.

على نحو متزايد، يقول الباحثون إن تحقيق قدرات واسعة شبيهة بالإنسان هو أمر ضروري من غير المرجح أن تكون كافية لتوسيع نطاق الأنظمة الحالية القائمة على ماجستير إدارة الأعمال باستخدام بيانات إضافية وقوة الحوسبة. تقول ساشا لوتشيوني، باحثة الذكاء الاصطناعي في منصة الذكاء الاصطناعي المجتمعية Hugging Face، ومقرها مونتريال، كندا، إن مدى القدرة على استيعاب كميات هائلة من البيانات والوصول إليها “يمثل الذكاء، وهو أمر مثير للجدل للغاية”. “ليس لديهم أي فكرة عن ماهية الحقيقة على الأرض.”

وفي إشارة إلى أن التقدم لا يحدث بالسرعة التي توقعها البعض، في فبراير/شباط، قال مؤلفو الذكاء الاصطناعي 2027 دفعوا الجداول الزمنية المتوقعة للسيناريو الخاص بهم إلى الوراء بحلول 18 شهرا.

يعتقد البعض أن التغيير التدريجي سيأتي من أتمتة البحث والتطوير في مجال الذكاء الاصطناعي، أي السماح لنموذج الذكاء الاصطناعي بتطوير خليفته في حلقة ردود فعل إيجابية. وتوقع جاريد كابلان، كبير العلماء في شركة الذكاء الاصطناعي أنثروبيك في سان فرانسيسكو، كاليفورنيا، أن هذه الطريقة ستؤدي إلى “انفجار الذكاء”، وتخطط معظم شركات التكنولوجيا الكبرى لتجربتها.

لكن موك يقول إنه لا يوجد دليل علمي على أن التحسين الذاتي للذكاء الاصطناعي سيكون له تأثير متصاعد متصور. يقول موك: “يجب أن يقع عبء الإثبات على عاتق أولئك الذين يزعمون أننا نسير في قطار جامح نحو تطوير ذكاء خارق من شأنه أن يبيد البشرية”. “لقد فشلوا في مواجهة هذا العبء.”

هل تنقلب الآلات ضدنا؟

تشير الدراسات إلى أن بعض الاختلالات المتوقعة مع الأهداف البشرية تحدث بالفعل. وجدت اختبارات ماجستير القانون في سيناريوهات المحاكاة أن النماذج قادرة على ذلك إظهار سلوكيات خادعة و”مخططات” ضد مطوريها من خلال، على سبيل المثال، التظاهر باتباع التعليمات أو محاولة تكرار أنفسهم.

في ديسمبر/كانون الأول، أفاد باحثون في معهد أمن الذكاء الاصطناعي في لندن أنه في البيئات المبسطة الخاضعة للرقابة، كانت العديد من النماذج تقترب من القدرة على إنشاء نسخ من نفسها (انظر: go.nature.com/4szxaa2). قد يكون هذا بمثابة مقدمة مبكرة لتهرب الذكاء الاصطناعي من الرقابة البشرية.

بالنسبة لبعض الباحثين، هذه هي التلميحات الأولى إلى أن النماذج يمكن أن تفسد يومًا ما. تقول جريس: “عندما كنت أفكر في كل هذا لأول مرة، كان الأمر مجردًا للغاية. ولكن في الآونة الأخيرة، رأينا سلوكًا من النوع الكذب”.

لكن بالنسبة للباحثين الآخرين، فإن النماذج هي مجرد إجراءات لعب الأدوار التي تظهر في بيانات التدريب الخاصة بهم. علاوة على ذلك، نادرا ما تكون مثل هذه التجارب انعكاسا عادلا للعالم الحقيقي. على سبيل المثال، في تقييم أجرته شركة OpenAI لبرنامج GPT-4 LLM الخاص بها في عام 2023، ذُكر على نطاق واسع أن هذا النموذج زيف كونه أعمى حتى يتمكن من خداع عامل عن بعد لإجراء اختبار CAPTCHA – المصمم للتخلص من الروبوتات – نيابة عنه. لكن تفاصيل البحث أظهرت أن المحفز البشري هو الذي اقترح الاستراتيجية (انظر: 1). go.nature.com/4vspnbw).

تميل شركات الذكاء الاصطناعي إلى رؤية ما تسميه عدم توافق أهداف النموذج مع الأهداف البشرية ليس أمرًا حتميًا، بل مشكلة عملية يجب دراستها واختبارها والتخفيف من حدتها. ويأمل المطورون أيضًا في دمج الأخلاق في أدواتهم من خلال “مواصفات النموذج” التي تعطي النظام أمثلة واضحة على السلوك المناسب أو “الدستور” الذي يعلم القيم الأساسية العامة التي من المفترض أن تساعده على اتخاذ القرارات الصحيحة حتى في المناطق المجهولة. و جيفري هينتون، الحائز على جائزة نوبل واقترح باحث في الذكاء الاصطناعي بجامعة تورنتو في كندا بناء أنظمة ذكاء اصطناعي ذات “غرائز أمومية” بحيث تتجاوز دوافعها للحفاظ على البشر أي أهداف فرعية ضارة قد تطورها، مثل الحفاظ على الذات.

هل يشعر الباحثون بالقلق؟

غالبًا ما تركز المناقشات العامة حول مخاطر الذكاء الاصطناعي على انقراض الإنسان. وهذا يرفع أصوات الباحثين مثل إليعازر يودكوفسكي، عالم الكمبيوتر في معهد أبحاث الذكاء الآلي في بيركلي والمؤلف المشارك لكتاب إذا قام أي شخص ببنائه، فسيموت الجميع (2025)، الذي يضع خطر الانقراض على مقربة من اليقين إذا استمرت التنمية بلا هوادة.

لكن العلماء عمومًا لا يشاركون هذه الدرجة من القلق. تشير الدراسات إلى أنه على الرغم من قلق العديد من الباحثين في مجال الذكاء الاصطناعي بشأن الانقراض، إلا أن هذا ليس خوفهم الرئيسي بالنسبة لمعظمهم. في دراسة ما قبل الطباعة لشهر مارس1، سأل الباحثون في جامعة كوليدج لندن حوالي 4000 باحث في مجال الذكاء الاصطناعي “ما هو أكثر شيء يقلقك بشأن الذكاء الاصطناعي؟”. أجاب 3% فقط من المشاركين بالمخاطر الوجودية – على الرغم من “الأهمية المعطاة لهذه المخاطر في وسائل الإعلام والسياسة” (انظر: “مجموعة من المخاوف”). استطلاع رأي الباحثين في مجال الذكاء الاصطناعي2 وجدت العام الماضي أن القلق يختلف اعتمادًا على ما إذا كان المشاركون ينظرون إلى الذكاء الاصطناعي على أنه “أداة يمكن السيطرة عليها” أو “عامل لا يمكن السيطرة عليه”. قال نيكولاس كارليني، الباحث في سلامة الذكاء الاصطناعي في أنثروبيك، في أكتوبر الماضي، في مؤتمر نمذجة اللغة في مونتريال، إن العديد من أولئك الذين يهتمون بالمخاطر قصيرة المدى أكثر من اهتمامهم بسيناريوهات الانقراض “يرون أن النماذج ستنتهي في القدرات في وقت ما خلال العامين المقبلين”.

وفيما يتعلق بمعدل التنمية، قال: “إذا كان من الواضح بالنسبة لي أن هذا سيستمر بشكل كبير، فسأشعر بالقلق”. وأضاف أن المخاوف يجب أن تستند إلى مناقشات علمية، لكنه مجال ليس من السهل إجراء بحث فعال فيه.


■ مصدر الخبر الأصلي

نشر لأول مرة على: www.nature.com

تاريخ النشر: 2026-04-21 06:00:00

الكاتب: Elizabeth Gibney

تنويه من موقع “beiruttime-lb.com”:

تم جلب هذا المحتوى بشكل آلي من المصدر: www.nature.com بتاريخ: 2026-04-21 06:00:00. الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

Exit mobile version