
“ثق بطبيبك، لا بروبوت الدردشة”، هذا هو الاستنتاج الصارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، والتي تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة.
فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب.
وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم.
وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين.
والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية.
بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: “بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود”.
وأضاف: “ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة”.
وقال مودي: “من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم”.
وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم.
ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%.
في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40 % من الحالات.