دراسة: 45% من ردود نماذج الذكاء الاصطناعى كاذبة.. وGemini الأكثر تضليلاً

دراسة: 45% من ردود نماذج الذكاء الاصطناعى كاذبة.. وGemini الأكثر تضليلاً

كشفت دراسة حديثة صادرة عن اتحاد البث الأوروبى (EBU) وهيئة الإذاعة البريطانية (BBC)، أن ما يقرب من نصف الردود التى قدمتها برامج المساعدة الرقمية الرائدة وهى نماذج الذكاء الاصطناعى تُحرّف الأخبار، مما يثير مخاوف بشأن الثقة والدقة والتأثير المحتمل على المشاركة الديمقراطية.

وقد حللت الدراسة، 3000 رد من برامج مساعدة رقمية شائعة تعمل بالذكاء الاصطناعى، وسلطت الضوء على حجم المعلومات المضللة ومشاكل تحديد المصادر فى ردودها المتعلقة بالأخبار، ويأتى هذا التقرير فى الوقت الذى يلجأ فيه المزيد من المستخدمين، وخاصةً الشباب، إلى برامج المساعدة الرقمية للحصول على الأخبار، وفقًا لتقرير معهد رويترز للأخبار الرقمية 2025.


وتدفع هذه النتائج شركات الذكاء الاصطناعي إلى معالجة دقة منتجاتها وزيادة المساءلة بشأن استخدام هذه التقنية فى استهلاك الأخبار.

هل نماذج الذكاء الاصطناعى مضللة وتنشر ردود كاذبة؟ 

وقد قيّمت الدراسة أداء مساعدي الذكاء الاصطناعى فى الإجابة على الأسئلة الإخبارية، مع التركيز على الدقة، والمصادر، والقدرة على التمييز بين الحقيقة والرأى.


و أُجرى البحث بـ 14 لغة، وقيّم مساعدين شائعي الاستخدام مثل ChatGPT وCopilot وGemini وPerplexity

وقد شاركت 22 مؤسسة إعلامية خدمية عامة من 18 دولة، بما في ذلك فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة، في الدراسة، التي  أظهرت أن 45% من الإجابات تضمنت مشكلة مهمة واحدة على الأقل، بينما تضمنت 81% منها شكلاً من أشكال المشاكل.

جيمينى من جوجل يستحوذ على الرمتبة الأولى كأثر النماذج تضليلا وكذبًا

وكانت أخطاء المصادر مصدر قلق خاص، حيث أظهر ثلث إجابات مساعدى الذكاء الاصطناعى مشاكل خطيرة مثل نقص أو تضليل أو عدم صحة الإسناد، وسجّل مساعد جيمينى من جوجل معدلات مرتفعة بشكل خاص من مشاكل المصادر، حيث تأثرت 72% من إجاباته، مقارنةً بأقل من 25% لمساعدين رائدين آخرين.
كما وُجدت مشاكل تتعلق بالدقة في 20% من جميع الردود، بما في ذلك معلومات قديمة وأخطاء واقعية، ومن الأمثلة على ذلك تقرير جيميني الخاطئ حول تغييرات في القوانين المتعلقة بالسجائر الإلكترونية التي تُستخدم لمرة واحدة، وتقرير تشات جي بي تي الذي ذكر أن البابا فرانسيس كان البابا الحالي بعد عدة أشهر من وفاته.

مع تزايد شعبية برامج المساعدة بالذكاء الاصطناعي كبديل لمحركات البحث التقليدية عن الأخبار، هناك مخاوف من أن عدم دقتها قد يُقوّض ثقة الجمهور، وقد سلّط اتحاد الإذاعات الأوروبية الضوء على المخاطر المحتملة التي تُشكّلها هذه الأخطاء، مُشدّدًا على أهمية المعلومات الموثوقة للمجتمعات الديمقراطية.

كشف تقرير الأخبار الرقمية 2025 الصادر عن معهد رويترز أن حوالي 7% من جميع مُستخدمي الأخبار عبر الإنترنت، و15% ممن تقل أعمارهم عن 25 عامًا، يستخدمون الآن برامج المساعدة بالذكاء الاصطناعي للوصول إلى الأخبار.


ويُحمّل هذا التحوّل شركات التكنولوجيا مسؤوليةً إضافيةً لضمان توفير منتجاتها معلومات دقيقة، ومن مصادر موثوقة، ومنسوبة بوضوح.

 

تحذيرات من استخدام نماذج الذكاء الاصطناعى.. مصابة بالهلوسة والكذب 

وحث تقرير اتحاد الإذاعات الأوروبية شركات الذكاء الاصطناعى على تحمل المسؤولية وتحسين كيفية استجابة مساعدي الذكاء الاصطناعي للاستفسارات المتعلقة بالأخبار.


وجد التقرير أيضًا أنه بالإضافة إلى مشاكل تحديد المصادر، واجهت مساعدات الذكاء الاصطناعى صعوبة في التمييز بين الحقيقة والرأي، ورغم توعية الشركات بهذه المشاكل، يُقرّ بعضها بالحاجة إلى تحسينات مستمرة.


وتواجه  شركات التكنولوجيا الرائدة الأخرى مشكلة ما يُسمى بالهلوسة، حيث تُنتج نماذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، وقد سبق أن ذكرت OpenAI وMicrosoft أن الهلوسة، عندما يُنتج نموذج الذكاء الاصطناعى معلومات غير صحيحة أو مضللة، غالبًا بسبب عوامل مثل نقص البيانات، تُمثل مشكلة يسعون إلى حلها.

كما  تُشير Perplexity على موقعها الإلكتروني إلى أن أحد أوضاعها يُركز على تحسين دقة الحقائق، حيث ذكرت أن أحد أوضاع “البحث العميق” لديها يتمتع بدقة 93.9% من حيث الواقعية”.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *