علوم
محمد الربيعي: معضلة الذكاء الاصطناعي والمؤلف العلمي

يكشف لنا استطلاع مجلة "نيتشر" الذي صدر مؤخرا (Nature, Vol 641, 578, 15 May 2025)عن مشهد معقد ومليء بالتناقضات يحيط بمسألة استخدام الذكاء الاصطناعي في صياغة الابحاث العلمية. فالانقسام بين الباحثين ليس مجرد اختلاف في وجهات النظر، بل يعكس قلقا عميقا بشان مستقبل البحث العلمي واخلاقياته الاساسية. يبدو ان هناك اتجاها يرى في الذكاء الاصطناعي اداة واعدة يمكن ان تساهم في تسريع عملية الكتابة وتوفير الوقت والجهد، خاصة في المراحل الاولية من اعداد المخطوطات. يمكن للنماذج اللغوية الكبيرة (LLMs) ان تساعد في تجاوز حواجز اللغة للباحثين غير الناطقين بالانكليزية، او في تلخيص مراجعات الادبيات الضخمة، او حتى في اقتراح هياكل منطقية للمقالات، مما يترك للباحثين مساحة اكبر للتركيز على الجوهر العلمي والتحليل العميق.
لكن في المقابل، يبرز تخوف متزايد من المساس بجوهر البحث العلمي، بدءا من تحديد المسؤولية عن المحتوى وصولا الى ضمان الاصالة وتجنب الانتحال غير المقصود. تطرح تساؤلات حادة حول من يتحمل المسؤولية القانونية والاخلاقية عن الاخطاء او المعلومات المضللة التي قد ينتجها الذكاء الاصطناعي، خصوصا وان هذه الادوات قد "تختلق" معلومات غير صحيحة او تعرف بـ "هلوسات" البيانات. كما ان التدريب على مجموعات بيانات ضخمة يمكن ان يورث النماذج تحيزات موجودة في تلك البيانات، مما قد يؤدي الى انتاج محتوى متحيز او يعزز الصور النمطية، وهو امر خطير في سياق البحث العلمي الذي يسعى للموضوعية. يرى العديد من الاكاديميين ان الافراط في الاعتماد على الذكاء الاصطناعي قد يؤدي الى تاكل مهارات التفكير النقدي لدى الباحثين وقدرتهم على التعبير الاصيل.
الامر الاكثر اثارة للقلق هو تلك الفجوة التي يكشف عنها الاستطلاع بين القبول النظري لاستخدام الذكاء الاصطناعي كمساعد وبين التردد الواضح في تطبيقه الفعلي. والاخطر من ذلك، هو ميل نسبة غير قليلة ممن استخدموا هذه الادوات الى عدم الافصاح عن ذلك في اوراقهم المقدمة للنشر. هذا السلوك يثير علامات استفهام كبيرة حول الشفافية والنزاهة الاكاديمية، ويفتح الباب امام تساؤلات حول مدى قدرة المجتمع العلمي على الثقة في الابحاث التي قد تكون بصمة الذكاء الاصطناعي واضحة فيها دون اعتراف بذلك. يعكس هذا التردد في الكشف عن الاستخدام مخاوف من الوصم او عدم وجود ارشادات واضحة حول كيفية ومتى يجب الاشارة الى استخدام ادوات الذكاء الاصطناعي.
ان هذه النتائج تدق ناقوس الخطر، وتستدعي تحركا عاجلا وحاسما من المؤسسات الاكاديمية والناشرين والمنظمات البحثية لوضع اطار اخلاقي وقانوني واضح ينظم استخدام الذكاء الاصطناعي في الكتابة العلمية. وقد بدات بالفعل بعض دور النشر الكبرى مثل "الزفير" و"سبرينغر نيتشر" في صياغة سياسات، حيث ينص العديد منها على ان الذكاء الاصطناعي لا يمكن ان يكون مؤلفا للورقة، ولكنه يمكن ان يستخدم كاداة مع الافصاح الصريح عن ذلك في قسم المنهجية او الشكر والتقدير. هذه المسائل الحساسة مثل تحديد معايير واضحة للتاليف في حال تدخل الذكاء الاصطناعي بشكل كبير في الصياغة، وضمان خلو المحتوى من التحيزات الكامنة في البيانات التي تدربت عليها هذه الانظمة، والحفاظ على قدرة الباحثين على التفكير النقدي والتعبير عن افكارهم بوضوح، ليست مجرد تفاصيل هامشية. بل هي الركائز الاساسية التي تقوم عليها مصداقية العلم وقدرته على خدمة المجتمع.
ومع ذلك، لا بد من الإشارة الى ان التحيز في البيانات في مجال البحث العلمي الطبي والبيولوجي قد يحدث دون قصد، وذلك بسبب محدودية المتغيرات المستخدمة في الدراسة، والتي يصعب تجاوزها في كثير من الأحيان لأسباب تقنية. وتؤدي هذه القيود الى نتائج تعرف بالافراط في التكيف Overfitting وعدم قابلية تعميم النموذج Lack of Generalizability، حيث يصبح النموذج دقيقا للغاية على بيانات التدريب ولكنه يفشل في التكيف مع البيانات الجديدة.
جدير بالذكر أن النقاش الشائع حول مخاطر التحيز في البيانات يركز في الغالب على "التحيز المقصود"، والذي يظهر بشكل أكبر في المجالات الاجتماعية والدراسات الإنسانية، على عكس التحيز غير المقصود الذي ينتج عن قيود منهجية او تقنية في البحوث العلمية.
يمكن القول ان استطلاع "نيتشر" هذا لا يمثل مجرد استبيان للاراء، بل هو نقطة تحول مفصلية في النقاش حول مستقبل البحث العلمي في عصر الذكاء الاصطناعي. انه يضعنا امام حقيقة مفادها اننا بحاجة الى التفكير مليا وبشكل استباقي في كيفية دمج هذه التقنيات القوية والتحويلية في منظومة عملنا البحثي دون المساس بالقيم الاساسية التي لطالما ميزت المسعى العلمي عبر التاريخ، مثل الدقة المتناهية والموضوعية المطلقة والاصالة الفكرية والابداع البشري الذي لا يمكن استبداله.
ان هذا التحول يتطلب منا اكثر من مجرد تحديث للسياسات، انه يدعونا الى اعادة تعريف شاملة وواعية لمفهوم "التاليف" لياخذ في الاعتبار المساهمة الفكرية العميقة والمسؤولية الكاملة والشاملة عن المحتوى والنتائج المترتبة عليه، وليس فقط مجرد فعل الكتابة او الصياغة نفسه. ان وضع مبادئ توجيهية واضحة المعالم وملزمة التطبيق وتعزيز ثقافة الشفافية المطلقة والافصاح الكامل والصريح عن اي مساعدة من الذكاء الاصطناعي في اي مرحلة من مراحل البحث او الكتابة، وتطوير ادوات تقنية متقدمة وفعالة للكشف عن المحتوى الذي تم انشاؤه بواسطة الذكاء الاصطناعي او تم تعديله بواسطته، هي خطوات اساسية وضرورية لضمان استمرار العلم كمصدر موثوق ومسؤول للمعرفة الانسانية في المستقبل القريب والبعيد.
علاوة على ذلك، يبرز الاستطلاع الحاجة الماسة الى حوار مستمر وبناء بين جميع الاطراف المعنية—من الباحثين وصناع السياسات الى مطوري الذكاء الاصطناعي وخبراء الاخلاقيات لضمان ان التطورات التكنولوجية تخدم الاهداف السامية للعلم والتقدم البشري. ان هذا الحوار هو السبيل الوحيد للتصدي للتحديات غير المتوقعة التي قد تطرأ، وللحفاظ على روح الاكتشاف الفضولي والتفكير النقدي التي تعد جوهر التقدم العلمي والابتكار. هذا التحدي يمثل فرصة ثمينة لاعادة تقييم وتجديد ممارساتنا العلمية لتتوافق مع العصر الجديد، بدلا من مجرد التكيف معه.
***
د. محمد الربيعي
بروفسور متمرس في جامعة دبلن ومستشار دولي