لقد سئمت دانييل كراولي من الأشخاص الذين يطلبون منها استخدام الذكاء الاصطناعي التوليدي (genAI). وباعتبارها عالمة حيوانات بحرية في جامعة بانجور بالمملكة المتحدة، تقول إنها إلى حد كبير طالبة الدكتوراه الوحيدة في مجموعتها التي لا تستخدمها. لقد شاهدت زملاء يستخدمون أدوات genAI للبرمجة وللحصول على نغمة رسائل البريد الإلكتروني بشكل صحيح. وفي إحدى المناسبات، شجعها أحد المحاضرين على استخدامها لإنشاء ملصق للمؤتمر.
وتقول إن زملائها غالبًا ما يتفاجأون عندما يسمعون أنها لم تجربه، واقترحوا عليها استخدامه في تطبيقات مثل البرمجة. وتتذكر قائلة: “لقد كان لدي الكثير من الناس يقولون “أوه، ولكن عليك أن تستخدمها”. لكن كراولي لديها أسبابها. ولديها مخاوف بشأن أخلاقيات حقوق الطبع والنشر، وما تسميه نقص الشفافية من جانب الشركات حول كيفية استخدامها للبيانات، والتأثيرات البيئية لأدوات الذكاء الاصطناعي، ودقة ما تبثه نماذج الذكاء الاصطناعي الجيني.
وتعتقد أيضًا أن استخدام الأدوات سيؤدي إلى نتائج عكسية لدراساتها. وتقول: “إن البرمجة هي مهارة أريد أن أتعلمها وأطورها، لأنها ليست الشيء الذي أثق به كثيرًا”. إنها تفضل أن تحاول أن تفعل ذلك بنفسها، وتتعلم من أخطائها.
لقد أصبح GenAI موضوعًا ساخنًا خلال السنوات القليلة الماضية، حيث تتنافس شركات التكنولوجيا لإصدار النموذج الأكثر إثارة للإعجاب للاستخدام العام. يستخدم الباحثون هذه الأدوات لمهام مثل أوراق الكتابة, نظير مراجعة و الترميز. يمكن يحفظ لهم الوقت والطاقة العقلية وأحيانا المال. لكن كراولي والآخرين الذين يمتنعون عن التصويت عمداً غالباً ما يجدون أنفسهم موضع الحكم من قبل أقرانهم.
وتقول: “يقول الكثير من الناس: “إنه المستقبل، والجميع يستخدمه”. وتتابع قائلة: “إن عدم استخدامه، يبدو وكأنه يظهر في إحدى المناسبات ويقول إنك لا تشرب”.
كفاءة، ولكن بأي ثمن؟
بحسب أ طبيعة استطلاع لحوالي 5000 باحث نُشرت هذه الدراسة في شهر مايو من العام الماضي، حيث انقسم العلماء حول أخلاقيات استخدام الذكاء الاصطناعي في الأوساط الأكاديمية. شعر أكثر من 90% من المشاركين أنه من المقبول استخدام الذكاء الاصطناعي لتحرير النصوص الخاصة بهم أو ترجمتها، ولكن كان عدد أقل منهم منفتحًا على فكرة استخدامه لإنشاء نص مباشرةً. وقالت أقلية فقط إنهم استخدموا بالفعل أدوات الذكاء الاصطناعي في عملهم. استخدمها حوالي ربع المشاركين لتحرير أوراقهم، في حين استخدمها 8% فقط لترجمة أو تلخيص أو كتابة مسودة أولى.
في الآونة الأخيرة، أ استطلاع من بين 3,234 باحثًا نشرتها دار النشر الأكاديمية Elsevier في نوفمبر الماضي، وجدوا أن 58% من الباحثين استخدموا الذكاء الاصطناعي في عملهم، مقارنة بـ 37% في العام السابق. فيما يتعلق بكيفية استخدام الباحثين لأدوات الذكاء الاصطناعي أو رغبتهم في استخدامها، قال 61% أنهم يبحثون عن أبحاث جديدة، وقال 51% إنهم جمع الأدبيات وتلخيصها، وقال 41% إنهم يقومون بإعداد طلبات المنح. كان المشاركون في الاستطلاع إيجابيين بشكل عام حول إمكانات التكنولوجيا لتعزيز الكفاءة.
هيو بوسينجهام، عالم الرياضيات وعالم الحفاظ على البيئة في جامعة كوينزلاند في بريسبان، أستراليا، هو من بين الباحثين الذين لا يستخدمون الذكاء الاصطناعي. لقد بذل جهدًا واعيًا لتجنب أي نوع من الذكاء الاصطناعي الجيني، وبدلاً من ذلك تعهد على موقع LinkedIn بالاعتماد عليه “طبيعي غباء”.
يقول: “لم أستخدم أيًا منها على الإطلاق”. على الرغم من أن الذكاء الاصطناعي أصبح مدمجًا في العديد من الوظائف اليومية، إلا أنه لم ينقر أبدًا على الزر الذي يولد أو يلخص النص عند كتابة رسالة بريد إلكتروني، على سبيل المثال.
ويشكو بشكل خاص من الأخطاء التي اكتشفها في الكتابة التي ينتجها الذكاء الاصطناعي. الذكاء الاصطناعي في بعض الأحيان يهلوس: تقديم معلومات كاذبة أو مضللة مع الإدانة. ويقول: “لقد قرأت رسالة ماجستير حيث توفي الشخص المذكور قبل عشر سنوات من نشر الورقة، وهو عمل بارع”.
لماذا تحتاج الجامعات إلى إعادة التفكير بشكل جذري في الامتحانات في عصر الذكاء الاصطناعي؟
وقد رأت أودري موريس – عالمة الكيمياء بجامعة ماكجيل في مونتريال بكندا – أن الذكاء الاصطناعي يرتكب أخطاء في مجالها أيضًا. لقد شهدت العديد من العروض غير الصحيحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي للمواد الكيميائية. وقد لاحظت ذلك لأول مرة في مجلة الكيمياء التي تحتوي على جزيئات “غير منطقية”، ولكن أصبح الأمر بمثابة اتجاه في العروض التقديمية والمجلات الأخرى لدرجة أنها كتبت مع زميل لها مقالًا للتعليق.1 دعوة مجتمع الكيمياء إلى حظر استخدام genAI في مهام معينة.
يقول موريس: “يبدو الأمر كما لو أنك تطلب من طفل يبلغ من العمر ثلاث سنوات أن يرسم مادة كيميائية”. وتضيف أن نموذج الذكاء الاصطناعي “لم يسبق له قط أن خضع لدورات الكيمياء التي قد يحتاجها الإنسان”. حتى عندما يتم تكليفها بمهمة رسم جزيء بسيط مثل الكافيين، فإنها قد تفشل. (طبيعة، إلى جانب ناشرين آخرين، لديها إرشادات تحظر استخدام الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.)
ويقول المتشائمون إن التحقق من المعلومات التي يولدها الذكاء الاصطناعي غالبًا ما يحبط الغرض من استخدام الأداة لتحقيق الكفاءة. تقول تانيشا جوسي، عالمة الاجتماع بجامعة بوند في روبينا بأستراليا، إنها بصفتها «بطلة الذكاء الاصطناعي» في هيئة التدريس، من المفترض أن تقوم بتقييم النماذج، وتحديد ما تجيده، واقتراح كيفية استخدام هيئة التدريس لها. لكن من المفارقات، كما تؤكد، أن التحقق منها يخلق المزيد من العمل.
وتقول إنه في 95% من الحالات “سيكون من الأسرع بالنسبة لي أن أفعل الشيء بنفسي بدلاً من الحصول على الأداة اللازمة للقيام بذلك ثم يتعين علي التحقق مما إذا كانت قد فعلت ذلك بشكل صحيح أم لا”. وتجد أيضًا أنها أداة غير فعالة للبحث النوعي: وجهة نظر عبرت عنها في مقال تعليق شارك في تأليفه2 التي تم نشرها على منصة ما قبل الطباعة SSRN.
سلبيات أخرى
مصدر قلق رئيسي آخر يشير إليه الباحثون هو التأثير البيئي. تستخدم مراكز البيانات التي تغذي أنظمة الذكاء الاصطناعي الجيني الكثير من طاقة والماء. دراسة نشرت في أنماط تشير التقديرات إلى أنه في عام 2025، يمكن أن تتراوح البصمة الكربونية لأنظمة الذكاء الاصطناعي على مستوى العالم بين 32.6 مليون و79.7 مليون طن من ثاني أكسيد الكربون، ويمكن أن تتراوح البصمة المائية من 312.5 مليار إلى 764.6 مليار لتر.3. وتقول الدراسة إنه لوضع الأمر في نصابه الصحيح، يمكن مقارنة ذلك بالبصمة الكربونية لمدينة نيويورك ككل.
تعد العواقب البيئية الضارة المحتملة أحد الأسباب العديدة التي تجعل كراولي يمتنع عن استخدام أدوات الذكاء الاصطناعي الجيني. وتقول: “خاصة عندما يعمل مشروعي على تغير المناخ، لم يكن من المناسب استخدام هذه الأداة التي فعلت نفس الشيء مثل الأدوات الأخرى، ولكنها استخدمت المزيد من الطاقة للقيام بذلك”.
كما أشار علماء آخرون إلى مخاوف أخلاقية. يعتقد عالم الاستدامة خوان روشا أن استخدام أدوات الذكاء الاصطناعي يساعد الشركات الخاصة الكبيرة على تدريب خوارزمياتها لتكون أفضل، وربما تؤدي على المدى الطويل إلى إزاحة العمال البشريين. تقول روشا، التي تعمل في مركز ستوكهولم للمرونة في السويد: “إن الذكاء الاصطناعي يستخدمك، ولا تستخدمه”. “نحن نمنح الحريات ونجعل العمل في المستقبل أمراً عفا عليه الزمن، مما يقلل من أهمية العمل في الجامعة.”
كما أن ميكايلا سوكولوف، عالمة اللغويات النفسية بمعهد ماساتشوستس للتكنولوجيا في كامبريدج، لديها مخاوف بشأن كيفية قيام الذكاء الاصطناعي باستخلاص المعلومات. وتقول: “السبب الرئيسي الذي يجعلني ضد الذكاء الاصطناعي التوليدي هو أنه يتم تدريبه على أعمال المؤلفين الذين لم يعطوا موافقتهم”، معتبرة ذلك سرقة أدبية. “هذه مجرد سرقة أعمال الكتاب والفنانين.”
كتابة الشكاوى
الكتابة المولدة بواسطة الذكاء الاصطناعي هي مجال تعارضه إليزابيث وولكوفيتش أيضًا. باعتبارها عالمة في مجال الحفاظ على البيئة بجامعة كولومبيا البريطانية في فانكوفر بكندا، تقول إنها سئمت قراءة الأوراق البحثية التي ينشئها الطلاب بواسطة الذكاء الاصطناعي. وبناء على ذلك فقد مقرر التوقف عن رئاسة الدفاع عن الأطروحات أو الانضمام إلى لجان طلاب الدراسات العليا في الحالات التي يستخدم فيها الطلاب الذكاء الاصطناعي في الكتابة. وفي مختبرها، يمكن للأشخاص استخدام genAI فقط في حالات محددة، مثل التدقيق الإملائي.
بالنسبة لها، يعد الاستعانة بمصادر خارجية للكتابة لدى genAI وسيلة لالاستعانة بمصادر خارجية لإتاحة الفرصة لتطوير تفكير جديد. وتقول: “أحاول تدريب الطلاب على كيفية توصيل أبحاثهم، خاصة باعتباري عالمة بيئة مختصة بتغير المناخ”. “أنت هنا في مدرسة الدراسات العليا لبناء المهارات وأنت هنا تعمل معي لتتعلمها مني. ليس من الواضح بالنسبة لي أن الذكاء الاصطناعي التوليدي يعرف كيفية القيام بذلك بشكل جيد.”
نشر لأول مرة على: www.nature.com
تاريخ النشر: 2026-05-05 06:00:00
الكاتب: Hannah Docter-Loeb
تنويه من موقع “beiruttime-lb.com”:
تم جلب هذا المحتوى بشكل آلي من المصدر: www.nature.com بتاريخ: 2026-05-05 06:00:00. الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
