🧠 لماذا قد لا تكون «طلب الأخبار من الذكاء الاصطناعي» فكرة جيدة؟

 

مع تزايد استخدام المساعدات الذكية مثل ChatGPT وGoogle Gemini وMicrosoft Copilot وPerplexity للحصول على الأخبار، كشفت دراسة حديثة أن هذه الأدوات ترتكب أخطاء جسيمة في تحليل الأخبار من حيث الدقة والمصادر وحتى التمييز بين الحقيقة والرأي. وتشير الأرقام إلى أن نحو 45 ٪ من الإجابات المولدة تحتوي على مشاكل كبيرة أو أخطاء فادحة.

⚙️ نتائج الدراسة

- تمت مراجعة أكثر من 3000 إجابة من أدوات الذكاء الاصطناعي عبر 14 لغة و18 بلدًا، وتبين أن نحو 31 ٪ من هذه الإجابات تعاني من ضعف في توثيق المصادر، بينما 20 ٪ منها تحتوي على معلومات خاطئة أو زائفة.
- الأداة التي سجلت أعلى نسبة خطأ كانت Google Gemini بنسبة بلغت حوالي 76 ٪ من الإجابات.
- كما وجدت دراسات أخرى أن ثقة المستخدمين بالأخبار تقل حين يعلمون أن المحتوى مكتوب أو مولد جزئيًا بواسطة الذكاء الاصطناعي.

🛡️ أسباب هذه الأخطاء

  • الاعتماد على بيانات تدريب قديمة أو غير دقيقة يؤدي إلى “هلوسات” أو توليد معلومات غير صحيحة.
  • صعوبة الأنظمة في التمييز بين الرأي والخبر أو في التحقق من المصدر الأصلي للمعلومة.
  • غياب الشفافية في عرض الروابط والمصادر، مما يجعل المستخدم غير قادر على التأكد من صحة الخبر.

🤔 ما الذي يعنيه ذلك للمستخدم؟

- لا تعتمد على الذكاء الاصطناعي كمصدر وحيد للأخبار، خصوصًا في المواضيع الحساسة مثل السياسة والصحة.
- تحقق دائمًا من المصدر الأصلي لأي معلومة قبل مشاركتها أو اتخاذ قرارات بناءً عليها.
- استخدم أدوات الذكاء الاصطناعي كوسيلة مساعدة فقط، وليس كبديل عن الصحفيين أو المنصات الإخبارية الموثوقة.

🧾 الخلاصة

رغم أن الذكاء الاصطناعي يسهل الوصول إلى المعلومات بسرعة، إلا أن الدراسات تُظهر أن الاعتماد الكامل عليه للأخبار يحمل مخاطر كبيرة، إذ تحتوي ما يقارب نصف المخرجات على أخطاء جوهرية أو مصادر ضعيفة. لذلك، يبقى التحقق البشري والتفكير النقدي ضرورة أساسية للحفاظ على مصداقية الأخبار.

🔗 المصادر الرسمية:

إرسال تعليق

أحدث أقدم