دراسة تكشف تشويه الذكاء الاصطناعي للمعلومات في 45% من الحالات
كشفت دراسة دولية معمقة، اليوم الخميس، أن مساعدات الذكاء الاصطناعي مثل ChatGPT وCopilot وGemini وPerplexity تقدم معلومات مشوهة أو غير دقيقة في 45% من الحالات، دون تأثير واضح للغة أو المنطقة الجغرافية.
وشارك في الدراسة 22 هيئة بث عامة من 18 دولة، بما في ذلك الاتحاد الأوروبي للبث وهيئة الإذاعة البريطانية (BBC) وVRT البلجيكية، حيث حللت أكثر من 3000 إجابة صادرة عن المساعدات الذكية.
وأظهرت النتائج أن أخطاء الإسناد للمصادر كانت الأبرز، حيث كانت المراجع مفقودة أو مضللة في 31% من الحالات، بينما احتوت 20% من الردود على معلومات غير دقيقة أو قديمة. وتبين أن Gemini سجلت أسوأ النتائج بمشاكل في 76% من ردودها.
وأكدت الدراسة أن مساعدات الذكاء الاصطناعي بدأت تحل تدريجياً محل محركات البحث لملايين المستخدمين، حيث أظهر تقرير معهد "رويترز" للأخبار الرقمية 2025 أن 7% من مستهلكي الأخبار يستخدمون هذه المساعدات، وترتفع النسبة إلى 15% بين الشباب.
ردًا على النتائج، قيّدت VRT وصول المساعدات الذكية إلى محتواها الإخباري، مع التخطيط للتعاون مع وسائل إعلام أخرى لمعالجة هذه القضية. وأوضحت جريت دي كرين، مديرة المعلومات في VRT، أن "طريقة تعامل روبوتات الدردشة مع الأخبار حالياً تفتقر للموثوقية الكافية"، مؤكدة أن هذا القرار يرسل رسالة واضحة لشركات التكنولوجيا الكبرى بأهمية المعلومات الموثقة.
على الصعيد الدولي، يضغط الاتحاد الأوروبي للبث وأعضاؤه على فرض قوانين صارمة للمعلومات والخدمات الرقمية ومراقبة مستمرة لمساعدات الذكاء الاصطناعي. كما أطلقت المجموعة البحثية الدولية "مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي" لتطوير حلول لتحسين دقة الردود وتعزيز الثقافة الإعلامية لدى المستخدمين.
وأشارت الدراسة إلى أن النهج التعليمي لمؤسسات البث العامة يهدف إلى تعزيز الوعي النقدي لدى الشباب، بما يمكّنهم من استخدام التكنولوجيا بشكل مسؤول وفهم حدودها، مع الحفاظ على الشفافية والرقابة البشرية كركائز أساسية.
