الكتابة الأكاديمية المدعومة بالذكاء الصناعي: توصيات للاستخدام الأخلاقي

 في الملف المرفق ترجمة غير رسمية لورقة علمية نشرت خلال الأشهر الماضية (ابريل 2025) بعنوان الكتابة الأكاديمية المعومة بالذكاء الصناعي: توصيات للاستخدام الأخلاقي.
نشرت الورقة في مجلة Advances in Simulation وهي مجلة مصنفة في Q1 وتنشرها دار النشر Springer العالمية.

توضح الورقة أن أدوات الذكاء الاصطناعي التوليدي المعتمدة على النماذج اللغوية الكبيرة (مثل ChatGPT) أصبحت أكثر انتشارًا في الأوساط الأكاديمية منذ عام 2022، وأسهمت في رفع كفاءة إنجاز بعض مهام الباحثين. لكنها في المقابل تثير تحديات مهمة تتعلق بالانتحال، و”هلوسة“ المحتوى، وإنتاج مراجع غير دقيقة أو مُختلَقة، ما يضع علامات استفهام حول موثوقيتها ونزاهة استخدامها في كتابة الأبحاث.

وتشير الورقة إلى وجود نقص في الإرشادات الواضحة—خصوصًا لدى باحثي محاكاة الرعاية الصحية—حول الاستخدام المشروع لهذه الأدوات في إنتاج الأدبيات العلمية. لذلك تناقش الورقة: (1) كيف يتعامل الناشرون الأكاديميون مع استخدام الذكاء الاصطناعي التوليدي، (2) أبرز المخاطر المحتملة عند توظيفه في الكتابة الأكاديمية، و(3) ثلاث فئات من الاستخدامات الأخلاقية الممكنة لهذه الأدوات، مع تقديم أربعة مبادئ إرشادية لمساعدة الباحثين على إنتاج مخرجات بحثية عالية الجودة مع الحفاظ على أعلى درجات النزاهة الأكاديمية. 

يمكن قراءة وتحميل الورقة بالانتقال الى الصفحة التالية، مع ملاحظة أن الترجمة غير رسمية وهي منشورة تحت رخصة المشاع الأدبي CC BY-NC-ND  (يسمح فقط للآخرين بتنزيل أعمالك ومشاركتها مع الآخرين، طالما أنهم ينسبون العمل إليك، ولكن لا يمكنهم تغيير العمل بأي شكل من الأشكال (ND) أو استخدامه تجارياً (NC))


تنزيل ملف PDF