دراسة دولية تكشف تحريف تطبيقات الذكاء الاصطناعي لمحتوى الأخبار


أظهرت دراسة حديثة، أعدها اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية «بي بي سي»، أن تطبيقات الذكاء الاصطناعي الرائدة تحرّف محتوى الأخبار في نحو 45% من ردودها.

وتناولت الدراسة 3 آلاف رد من مساعدين افتراضيين على أسئلة إخبارية، مقيمة دقتها ومصادرها وقدرتها على التمييز بين الرأي والحقيقة بأكثر من 14 لغة. ومن أبرز التطبيقات التي شملها البحث: «تشات جي بي تي»، و«كوبايلوت»، و«جيميناي»، و«بربليكستي».

وأظهرت النتائج أن 45% من ردود الذكاء الاصطناعي تحتوي على مشكلة كبيرة واحدة على الأقل، فيما وُجدت مشكلات بأشكال مختلفة في 81% من الردود. كما كشفت الدراسة أن ثلث الإجابات تضمنت أخطاء جسيمة في المصادر، سواء من حيث الإسناد المفقود أو المضلل أو غير الصحيح.

وكان تطبيق «جيميناي» من «جوجل» الأعلى نسبة في المشكلات المتعلقة بالمصادر، حيث سجلت 72% من ردوده مشكلات كبيرة، مقارنة بأقل من 25% لبقية المساعدين. أما بالنسبة لدقة المعلومات، فقد عُثر على أخطاء في 20% من الردود، بما في ذلك معلومات قديمة أو غير دقيقة، مثل ذكر تغييرات غير صحيحة في قوانين السجائر الإلكترونية أو خطأ في هوية البابا الحالي بعد وفاته.

وشارك في الدراسة 22 مؤسسة إعلامية من 18 دولة، بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة. وأشار تقرير الأخبار الرقمية لعام 2025 الصادر عن معهد «رويترز» إلى أن نحو 7% من متصفحي الأخبار على الإنترنت، و15% من المستخدمين تحت سن 25 عامًا، يعتمدون على مساعدين افتراضيين للحصول على الأخبار.