• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
      • أ.م.د.علي متولى أحمد
    • حوارات
    • كتابات وآراء
      • أحمد عبدالرحمن
      • محمد سعيد الشرعبي
      • فكري قاسم
      • د. منذر محمد  طارش 
      • Maria Zakharova
      • د. باسل باوزير
      • عادل الحداد
      • خليل القاهري
      • د. محمد الظاهري
      • أمين الوائلي
      • سارة البعداني
      • سمير الصلاحي
      • محمد النعيمي
      • د محمد جميح
      • حسن عبدالله الكامل
      • نائف حسان
      • فؤاد المنتصر
      • أمة الله الحجي
      • حنان حسين
      • محمد عايش
      • صبحي غندور
      • سمر أمين
      • عبدالعزيز العقاب
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • حسين الوادعي
      • شيرين مكاوي
      • د. مـروان الغفوري
      • ديمة ناصيف
      • الدكتور زارا صالح
      • خالد الرويشان
      • محمد المسوري
      • د. عادل الشجاع
      • بشير عثمان
      • فتحي بن لزرق
      • الدكتور فيصل الحذيفي
      • علي البخيتي
      • محمد عياش
      • سامي كليب
      • هند الإرياني
      • عبدالإله المنحمي
      • نهى سعيد
      • محمود ياسين
      • حسن عبدالوارث
      • فتحي أبو النصر
      • محمد جميح
      • أ.د. أيوب الحمادي
      • أمل علي
      • منى صفوان
      • ياسر العواضي
      • د. أروى أحمد الخطابي
      • د. أبوبكر القربي
      • ضياء دماج
      • نبيل الصوفي
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
      • أ.م.د.علي متولى أحمد
      • أحمد غراب
      • الدكتور علي الأشبط
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
      • أ.م.د.علي متولى أحمد
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • فيصل بن فرحان والبوسعيدي يناقشان المستجدات إقليمياً ودولياً
      • 37 ألف مهاجر غير شرعي إلى اليمن خلال 4 أشهر
      • ثلاثة قتلى بغارة إسرائيلية استهدفت سيارة في جنوب لبنان
      • تصعيد «الانتقالي» يضع «مجلس القيادة الرئاسي» أمام اختبار «وحدة القرار»
      • اغتيال جنرال في الجيش الروسي بانفجار يهز موسكو
      • العليمي يدعو «المجلس الانتقالي» إلى تغليب لغة الحكمة والحوار
      • إعلانات الولاء تكرّس انقسامات الشرعية اليمنية وتوسّع نفوذ "الانتقالي"
      • عقوبات قاصرة... الحوثيون يُعيدون رسم خريطة التهديد
      • بيانات أممية: 35 % من اليمنيين الخاضعين للحوثيين تحت وطأة الجوع
      • الشيخ محمد بن زايد يستقبل ماكرون ويبحث معه العلاقات الثنائية

      علوم وتكنولوجيا

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      10 نوفمبر, 2024

      تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.

      عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.

      كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟

      مخاطر حقيقية

      الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.

      وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.

      أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.

      وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
       
      الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.

      ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.

      وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.

      جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.

      وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.

      ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".

      ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.


       
      على بعد سنوات

      ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.

      موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.

      الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.

      كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.
       
      مبالغة

      لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).

      ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.

      واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".

      كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.

      وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية". 

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 18 ديسمبر, 2025

        "جوجل" تطور "Gemini" لتحويل الأبحاث إلى تقارير بصرية تفاعلية

        "جوجل" تطور "Gemini" لتحويل الأبحاث إلى تقارير بصرية تفاعلية
        علوم وتكنولوجيا 14 ديسمبر, 2025

        أدوات القرصنة المدعومة بالذكاء الاصطناعي تنافس القراصنة البشر

        أدوات القرصنة المدعومة بالذكاء الاصطناعي تنافس القراصنة البشر
        علوم وتكنولوجيا 08 ديسمبر, 2025

        الذكاء الاصطناعي يُقنع البشر… على حساب الحقائق

        الذكاء الاصطناعي يُقنع البشر… على حساب الحقائق
      • علوم وتكنولوجيا 03 ديسمبر, 2025

        سباق الذكاء الاصطناعي: عالَم ينتقل من المشي إلى الركض

        سباق الذكاء الاصطناعي: عالَم ينتقل من المشي إلى الركض
        علوم وتكنولوجيا 01 ديسمبر, 2025

        "أمازون" و"جوجل" تطلقان خدمة شبكية متعددة السحابة

        "أمازون" و"جوجل" تطلقان خدمة شبكية متعددة السحابة
        علوم وتكنولوجيا 27 نوفمبر, 2025

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        09 نوفمبر, 2025

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • حضرموت و"الانتقالي"... بين المعلن الأمني والسياسي الخفي
        حضرموت و"الانتقالي"... بين المعلن الأمني والسياسي الخفي
        22 ديسمبر, 2025
      • لماذا يجب عدم السماح بتفكّك اليمن؟
        لماذا يجب عدم السماح بتفكّك اليمن؟
        20 ديسمبر, 2025
      • "أبعاد دعوة السفير أحمد علي، على خلفية أحداث المناطق الشرقية في اليمن"
        "أبعاد دعوة السفير أحمد علي، على خلفية أحداث المناطق الشرقية في اليمن"
        19 ديسمبر, 2025
      • المهمة الملحة في اليمن
        المهمة الملحة في اليمن
        16 ديسمبر, 2025
      • لماذا نعتاد المأساة في اليمن؟
        لماذا نعتاد المأساة في اليمن؟
        15 ديسمبر, 2025

      تقارير دولية

      • "إلغاء قيصر".. سوريا بين كسر العزلة وتحديات المرحلة المقبلة
        "إلغاء قيصر".. سوريا بين كسر العزلة وتحديات المرحلة المقبلة
        20 ديسمبر, 2025
      • الحاجة إلى رؤية عربية جديدة لإدارة الصراع مع إسرائيل
        الحاجة إلى رؤية عربية جديدة لإدارة الصراع مع إسرائيل
        20 ديسمبر, 2025
      • الطرق معبّدة نحو التصنيف الأميركي لـ«الإخوان»
        الطرق معبّدة نحو التصنيف الأميركي لـ«الإخوان»
        12 ديسمبر, 2025
      • الهجرة إلى التاريخ في زمن الهزائم
        الهجرة إلى التاريخ في زمن الهزائم
        12 ديسمبر, 2025
      • حين يصبح الخطر داخلياً: ترامب وتفكيك أميركا
        حين يصبح الخطر داخلياً: ترامب وتفكيك أميركا
        12 ديسمبر, 2025

      Facebook

      فيديو

      حوارات

      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      • الشرع: تجربتي في العراق علمتني ألا أخوض حرباً طائفيةً
        11 فبراير, 2025
      • آلان غريش: نتنياهو يخوض حرب الغرب الجماعي
        18 اكتوبر, 2024
      © 2017 alrai3.com