الإشاعة:
نرى يوميًا العديد من الفيديوهات التي يقدمها رواد وسائل التواصل الاجتماعي حول التسهيلات الضخمة التي يوفرها تطبيق ChatGPT الذي يعمل بالذكاء الاصطناعي، في الأسئلة التي تتعلق بمختلف المجالات، لكن هل تعتقدون أن الأمر ذاته ينطبق على الأسئلة المتعلقة بالأدوية؟
الحقيقة:
- أجرى صيادلة بحثًا توصلوا فيه إلى أن النسخة المجانية من تطبيق ChatGPT قد تقدم إجابات غير دقيقة أو غير كاملة، وذلك فيما يتعلق بالأسئلة الخاصة بالأدوية، وهو ما يمكن أن يسبب أضرارًا للمرضى المتعاملين معه.
- طرح الصيادلة 39 سؤالًا على ChatGPT المجاني، لكنهم وجدوا أن 10 إجابات فقط كانت “مُرضية” بناءً على المعايير التي وضعوها للإجابات النموذجية التي يجب أن يحصلوا عليها.
- وجد الصيادلة أن إجابات ChatGPT على الأسئلة أنها تتناول السؤال المطروح بشكل مباشر أو غير دقيق أو غير مكتمل، ونصح الصيادلة باتباع نصيحة OpenAI “بعدم الاعتماد على استجابات ChatGPT المجانية كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية”.
- في وقت سابق من هذا العام، استخدم الرئيس التنفيذي لشركة Google، ساندر بيتشاي، أيضًا مرجعًا طبيًا لتوفير خطورة المخاطر التي تشكلها روبوتات الدردشة الحالية المعتمدة على الذكاء الاصطناعي، كان أحد الأسباب التي ذكرها لتأخره في الانضمام إلى “حفلة الذكاء الاصطناعي” هو الشعور بالحذر داخل Google.
- في النهاية، خلصت الدراسات والأبحاث إلى أن المرضى ومتخصصي الرعاية الصحية، على حد سواء، يجب أن يكونوا حذرين بشأن الاعتماد على برنامج الدردشة الآلي المجاني الخاص بـ OpenAI للحصول على معلومات الأدوية.