• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
      • أ.م.د.علي متولى أحمد
    • حوارات
    • كتابات وآراء
      • د. مـروان الغفوري
      • ديمة ناصيف
      • الدكتور زارا صالح
      • خالد الرويشان
      • محمد المسوري
      • د. عادل الشجاع
      • بشير عثمان
      • فتحي بن لزرق
      • الدكتور فيصل الحذيفي
      • علي البخيتي
      • محمد عياش
      • سامي كليب
      • هند الإرياني
      • عبدالإله المنحمي
      • نهى سعيد
      • محمود ياسين
      • حسن عبدالوارث
      • فتحي أبو النصر
      • محمد جميح
      • أ.د. أيوب الحمادي
      • أمل علي
      • منى صفوان
      • ياسر العواضي
      • د. أروى أحمد الخطابي
      • د. أبوبكر القربي
      • ضياء دماج
      • نبيل الصوفي
      • أحمد عبدالرحمن
      • محمد سعيد الشرعبي
      • فكري قاسم
      • د. منذر محمد  طارش 
      • Maria Zakharova
      • د. باسل باوزير
      • عادل الحداد
      • خليل القاهري
      • د. محمد الظاهري
      • أمين الوائلي
      • سارة البعداني
      • سمير الصلاحي
      • محمد النعيمي
      • د محمد جميح
      • حسن عبدالله الكامل
      • نائف حسان
      • فؤاد المنتصر
      • أمة الله الحجي
      • حنان حسين
      • محمد عايش
      • صبحي غندور
      • سمر أمين
      • عبدالعزيز العقاب
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • حسين الوادعي
      • شيرين مكاوي
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
      • أ.م.د.علي متولى أحمد
      • أحمد غراب
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
      • أ.م.د.علي متولى أحمد
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • رئيسا الإمارات وكوريا يشهدان توقيع عدة مذكرات تفاهم
      • لبنان.. مقتل 13 شخصا في غارة إسرائيلية على مخيم عين الحلوة
      • واشنطن تعمل سراً مع موسكو على خطة جديدة لإنهاء حرب أوكرانيا
      • احتفاء استثنائي بمحمد بن سلمان وترمب يعلن قرب التوصل لاتفاق دفاعي
      • الرئيس عون: نجدد تأكيد انفتاح لبنان على محيطه العربي والدولي
      • العليمي يستقبل وزير الدولة البريطاني فالوكنر في قصر معاشيق بعدن.
      • السيسي وبوتين يشاركان غداً في فعالية محطة الضبعة النووية
      • بن سلمان في البيت الأبيض اليوم: اتفاقات دفاعية وبحث ملفات المنطقة
      • تأخر صرف الرواتب الحكومية في اليمن يفاقم الأوجاع الاقتصادية

      علوم وتكنولوجيا

      الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

      الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

      07 مايو, 2025

       في منشورات غاضبة على منتديات الإنترنت، اشتكى العملاء، وألغى بعضهم حساباتهم على «كيرسر».

      في الشهر الماضي، نبه روبوت ذكاء اصطناعي، مخصص للدعم الفني لبرنامج «كيرسور» «كيرسر»، وهو أداة ناشئة لمبرمجي الكمبيوتر، العديد من العملاء إلى حدوث تغييرات في سياسة الشركة (المنتجة له). 

      وأوضح أنه لم يعد يُسمح لهم باستخدام «كيرسر» على أكثر من جهاز كمبيوتر واحد.

      خطأ روبوتي يغضب الزبائن

      واشتكى الزبائن في منشورات غاضبة على منتديات الإنترنت، وألغى بعضهم حساباتهم على «كيرسر»، بينما ازداد غضب بعضهم الآخر عندما أدركوا ما حدث: إذ أعلن روبوت الذكاء الاصطناعي عن تغيير في السياسة لم يكن موجوداً بالأصل. 

      كتب مايكل ترول، الرئيس التنفيذي والمؤسس المشارك للشركة، في منشور على منصة «ريدت»: «لأنه ليس لدينا مثل هذه السياسة. أنت حر بالطبع في استخدام (كيرسر) على أجهزة متعددة.

       للأسف، هذا رد غير صحيح جاء من روبوت دعم ذكاء اصطناعي في الخطوط الأمامية».

      أنظمة التفكير المنطقي-مهارات وأخطاء أكثر

      وبعد أكثر من عامين على إطلاق «تشات جي بي تي» ChatGPT، تستخدم شركات التكنولوجيا، وموظفو المكاتب، والمستهلكون العاديون روبوتات الذكاء الاصطناعي في مجموعة واسعة من المهام. 

      ولكن لا تزال هناك صعوبة في ضمان دقة هذه الأنظمة في إنتاج معلومات دقيقة.

      أحدث التقنيات، وأكثرها قوة ما تسمى بأنظمة التفكير المنطقي من شركات مثل «أوبن إيه آي» و«غوغل» والشركة الصينية الناشئة «ديب سيك» تُنتج أخطاءً أكثر، لا أقل. ومع تحسن مهاراتها الرياضية بشكل ملحوظ، أصبح فهمها للبيانات أكثر تذبذباً.

      روبوتات لا تعرف أين الخطأ

      وليس من الواضح تماماً سبب ذلك. تعتمد روبوتات الذكاء الاصطناعي اليوم على أنظمة رياضية معقدة تتعلم مهاراتها من خلال تحليل كميات هائلة من البيانات الرقمية. إلا أن هذه الروبوتات لا تستطيع -ولن تستطيع- تحديد ما هو صحيح، وما هو خاطئ.

      في بعض الأحيان، تختلق هذه الروبوتات معلومات خاطئة، وهي ظاهرة يُطلق عليها بعض باحثي الذكاء الاصطناعي اسم «الهلوسة». في أحد الاختبارات وصلت معدلات الهلوسة في أنظمة الذكاء الاصطناعي الأحدث إلى 79 في المائة.

      احتمالات رياضية

      تستخدم هذه الأنظمة الاحتمالات الرياضية لتخمين أفضل استجابة، وليست مجموعة صارمة من القواعد التي وضعها المهندسون البشريون. 

      لذا، ترتكب عدداً معيناً من الأخطاء. قال عمرو عوض الله، الرئيس التنفيذي لشركة «فيكتارا»، وهي شركة ناشئة تُطوّر أدوات الذكاء الاصطناعي للشركات، والمدير التنفيذي السابق في «غوغل»: «رغم بذلنا قصارى جهدنا، ستظل (الأنظمة) تصاب بالهلوسة. 

      هذا لن يزول أبداً».

      لسنوات عديدة، أثارت هذه الظاهرة مخاوف بشأن موثوقية هذه الأنظمة. فرغم فائدتها في بعض الحالات، مثل كتابة الأوراق البحثية، وتلخيص مستندات المكتب، وإنشاء رموز برامج الكمبيوتر، فإن أخطاءها قد تُسبب مشكلات.

      محركات البحث الذكية- نتائج خاطئة

      أحياناً تُنتج روبوتات الذكاء الاصطناعي المرتبطة بمحركات البحث مثل «غوغل» و«بينغ» نتائج بحث خاطئة بشكل مُضحك.

       إذا سألتها عن ماراثون جيد على الساحل الغربي، فقد تقترح سباقاً في فيلادلفيا. وإذا أخبرتك بعدد الأسر في إلينوي، فقد تستشهد بمصدر لا يتضمن تلك المعلومات.

      مخاطر الأخطاء القضائية والطبية

      قد لا تُمثل هذه الهلوسة مشكلة كبيرة للكثيرين، لكنها تُمثل مشكلة خطيرة لأي شخص يستخدم هذه التقنية مع وثائق المحكمة، أو المعلومات الطبية، أو بيانات الأعمال الحساسة. 

      قال براتيك فيرما، المؤسس المشارك والرئيس التنفيذي لشركة «أوكاهو»، وهي شركة تساعد الشركات على التغلب على مشكلة الهلوسة: «نقضي وقتاً طويلاً في محاولة معرفة أي الإجابات واقعية؟ وأيها غير واقعية؟... 

      إن عدم التعامل مع هذه الأخطاء بشكل صحيح يلغي أساساً كل قيمة أنظمة الذكاء الاصطناعي التي من المفترض أن تؤدي المهام نيابةً عنك».

      لأكثر من عامين، قامت الشركات بتحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفضت وتيرة هذه الأخطاء. ولكن مع استخدام أنظمة التفكير الجديدة، تتزايد الأخطاء.

      هلوسة أحدث الأنظمة

      وتعاني أحدث أنظمة «أوبن إيه آي» من الهلوسة بمعدل أعلى من نظام الشركة السابق، وفقاً لاختبارات الشركة الخاصة.

      وقد وجدت الشركة «أن o3 -أقوى نظام لديها- يعاني من الهلوسة بنسبة 33 في المائة من الوقت عند تشغيل اختبار PersonQA القياسي الخاص بها، والذي يتضمن الإجابة عن أسئلة حول الشخصيات العامة. 

      وهذا أكثر من ضعف معدل الهلوسة لنظام التفكير السابق من الشركة، المسمى o1. أما o4-mini الجديد، فقد يعاني من الهلوسة بمعدل أعلى 48 في المائة.

       وعند إجراء اختبار آخر يُسمى SimpleQA، والذي يطرح أسئلةً عامة، كانت معدلات الهلوسة51 في المائة لدى o3، و79 في المائة لدى o4-mini. في حين أن النظام السابق، o1، كان يُعاني من الهلوسة بنسبة 44 في المائة.

      اختبارات أجرتها شركات مستقلة

      تشير الاختبارات التي أجرتها شركات وباحثون مستقلون إلى أن معدلات الهلوسة آخذة في الارتفاع أيضاً بالنسبة لنماذج الاستدلال من شركات مثل «غوغل» و«ديب سيك».

      منذ أواخر عام 2023، تتبعت شركة عوض الله، «فيكتارا»، مدى تكرار انحراف روبوتات الدردشة عن الحقيقة. 

      وتطلب الشركة من هذه الأنظمة أداء مهمة بسيطة يمكن التحقق منها بسهولة: تلخيص مقالات إخبارية محددة. وحتى في هذه الحالة، تختلق روبوتات الدردشة المعلومات باستمرار.

      قدّر البحث الأصلي لشركة «فيكتارا» أنه في هذه الحالة، اختلقت روبوتات الدردشة المعلومات بنسبة 3 في المائة على الأقل من الوقت، وأحياناً تصل إلى 27 في المائة.

      في العام ونصف العام الذي تلا ذلك، خفضت شركات مثل «أوبن إيه آي» و«غوغل» هذه الأرقام إلى نطاق 1 أو 2 في المائة. 

      بينما تراوحت نسب أخرى، مثل شركة «أنثروبيك» الناشئة في سان فرنسيسكو، حول 4 في المائة. 

      لكن معدلات الهلوسة في هذا الاختبار ارتفعت مع أنظمة الاستدلال. فقد أصيب نظام الاستدلال R1 التابع لشركة «ديب سيك» بالهلوسة بنسبة 14.3 في المائة من الوقت. ارتفع معدل O3 لشركة «OpenAI إلى 6.8 في المائة.

      * خدمة «نيويورك تايمز»

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 18 نوفمبر, 2025

        المخاوف من فقاعة الذكاء الاصطناعي تمتد إلى أسواق الائتمان

        المخاوف من فقاعة الذكاء الاصطناعي تمتد إلى أسواق الائتمان
        علوم وتكنولوجيا 16 نوفمبر, 2025

        كيف نحمي الأطفال واليافعين من الجرائم الإلكترونية؟

        كيف نحمي الأطفال واليافعين من الجرائم الإلكترونية؟
        علوم وتكنولوجيا 14 نوفمبر, 2025

        السعودية تستضيف القمة العالمية للذكاء الاصطناعي 2026

        السعودية تستضيف القمة العالمية للذكاء الاصطناعي 2026
      • علوم وتكنولوجيا 10 نوفمبر, 2025

        من الإمارات إلى أمريكا.. تحالف يقود ثورة الصناعة الذكية

        من الإمارات إلى أمريكا.. تحالف يقود ثورة الصناعة الذكية
        علوم وتكنولوجيا 07 نوفمبر, 2025

        مجلس الأمن السيبراني بالإمارات يحذر من انتشار "التزييف العميق"

        مجلس الأمن السيبراني بالإمارات يحذر من انتشار "التزييف العميق"
        علوم وتكنولوجيا 05 نوفمبر, 2025

        CYSEC تختتم سلسلة مؤتمراتها لعام 2025 في مسقط

        CYSEC تختتم سلسلة مؤتمراتها لعام 2025 في مسقط

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        09 نوفمبر, 2025

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • هجمات الحوثيين في البحر الأحمر مرتبطة بالصراع اليمني الداخلي وليس بصراع غزة
        هجمات الحوثيين في البحر الأحمر مرتبطة بالصراع اليمني الداخلي وليس بصراع غزة
        19 نوفمبر, 2025
      • السلام المستحيل مع عقلية السيد والعبد..!
        السلام المستحيل مع عقلية السيد والعبد..!
        18 نوفمبر, 2025
      • لقد أضعنا وطنًا... فمتى نستعيد أنفسنا؟
        لقد أضعنا وطنًا... فمتى نستعيد أنفسنا؟
        16 نوفمبر, 2025
      • لماذا الحوثي أقل حذراً من حزب الله؟
        لماذا الحوثي أقل حذراً من حزب الله؟
        16 نوفمبر, 2025
      • حين يُعتقل العقل... تُسقط الأمة
        حين يُعتقل العقل... تُسقط الأمة
        15 نوفمبر, 2025

      تقارير دولية

      • قوة الاستقرار الدولية.. مشروع دولي أم وصاية جديدة على غزة؟
        قوة الاستقرار الدولية.. مشروع دولي أم وصاية جديدة على غزة؟
        18 نوفمبر, 2025
      • أوروبا والهوية في مرآة الأرقام... بين الخوف والدافع للتغيير
        أوروبا والهوية في مرآة الأرقام... بين الخوف والدافع للتغيير
        15 نوفمبر, 2025
      • "انفراج مشروط".. هل نجح لبنان في كسب ثقة السعودية؟
        "انفراج مشروط".. هل نجح لبنان في كسب ثقة السعودية؟
        15 نوفمبر, 2025
      • ترمب وإدارة الحلول بدل إدارة الأزمات
        ترمب وإدارة الحلول بدل إدارة الأزمات
        15 نوفمبر, 2025
      • القوة الدولية في غزّة... سلام من طرف واحد
        القوة الدولية في غزّة... سلام من طرف واحد
        15 نوفمبر, 2025

      Facebook

      فيديو

      حوارات

      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      • الشرع: تجربتي في العراق علمتني ألا أخوض حرباً طائفيةً
        11 فبراير, 2025
      • آلان غريش: نتنياهو يخوض حرب الغرب الجماعي
        18 اكتوبر, 2024
      © 2017 alrai3.com