يزور المراجع ويخطئ.. ChatGPT يفشل أمام الأسئلة الطبية

قناة اليمن | متابعات

منذ انتشاره لم يصعب شيء على روبوت الدردشة “تشات جي بي تي” الذي يعمل بالذكاء الاصطناعي في المجالات كافة، إلا أن دراسة جديدة كشفت عيباً في البرنامج وسقوطاً خطراً بما يخص الإجابة الشاملة عن الأسئلة الطبية.

فقد طرح الباحثون في جامعة لونغ آيلاند 39 استفساراً متعلقاً بالأدوية على النسخة المجانية من البرنامج وكانت جميعها أسئلة حقيقية من خدمة المعلومات الدوائية بكلية الصيدلة بالجامعة، بحسب تقرير نشرته شبكة “سي إن إن”.

10 أسئلة فقط من أصل 39

ثم تمت مقارنة إجابات البرنامج مع الإجابات المكتوبة والمراجعة من قبل الصيادلة المدربين، وتبين أن الإجابات الدقيقة كانت لحوالي 10 أسئلة فقط أما الأسئلة الأخرى والبالغ عددها 29 فكانت إجاباتها غير كاملة أو غير دقيقة أو أنها لم تتناول الأسئلة.

وعلى سبيل المثال في أحد الأسئلة سأل الباحثون البرنامج عما إذا كان دواء كوفيد-19 المضاد للفيروسات “باكلوفيد” ودواء خفض ضغط الدم “فيراباميل” سيتفاعلان مع بعضهما البعض في الجسم، فرد بأن تناول الدواءين معاً لن يؤدي إلى أي آثار ضارة!

لكن في الحقيقة قد يعاني الأشخاص الذين يتناولون كلا الدواءين من انخفاض كبير في ضغط الدم، مما قد يسبب الدوخة والإغماء.
رويترز
رويترز
يلفق المراجع

في الأثناء عندما طلب الباحثون من البرنامج مراجع علمية لدعم كل من إجاباته، وجدوا أنه يمكن أن يوفر لهم ثمانية فقط، وفي كل حالة فوجئوا عندما اكتشفوا أنه كان يقوم بتلفيق المراجع.

وهذه الدراسة ليست الأولى التي تثير المخاوف بشأن “تشات جي بي تي” إذ وثقت الأبحاث السابقة أيضاً إنشاء البرنامج عمليات تزوير خادعة للمراجع العلمية وحتى إدراج أسماء المؤلفين الحقيقيين، الذين لديهم منشورات سابقة في المجلات العلمية.
تشات جي بي تي (أ ب)
تشات جي بي تي (أ ب)

يذكر أنه تم إصدار “تشات جي بي تي” وهو روبوت الدردشة التجريبي القائم على الذكاء الاصطناعي من شركة OpenAI، في نوفمبر/شباط 2022، وأصبح تطبيق المستهلك الأسرع نمواً في التاريخ، حيث سجل ما يقرب من 100 مليون شخص في غضون شهرين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

زر الذهاب إلى الأعلى