• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
      • أ.م.د.علي متولى أحمد
    • حوارات
    • كتابات وآراء
      • د. أروى أحمد الخطابي
      • د. أبوبكر القربي
      • ضياء دماج
      • نبيل الصوفي
      • أحمد عبدالرحمن
      • محمد سعيد الشرعبي
      • فكري قاسم
      • د. منذر محمد  طارش 
      • Maria Zakharova
      • د. باسل باوزير
      • عادل الحداد
      • خليل القاهري
      • د. محمد الظاهري
      • أمين الوائلي
      • سارة البعداني
      • سمير الصلاحي
      • محمد النعيمي
      • د محمد جميح
      • حسن عبدالله الكامل
      • نائف حسان
      • فؤاد المنتصر
      • أمة الله الحجي
      • حنان حسين
      • محمد عايش
      • صبحي غندور
      • سمر أمين
      • عبدالعزيز العقاب
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • حسين الوادعي
      • شيرين مكاوي
      • د. مـروان الغفوري
      • ديمة ناصيف
      • الدكتور زارا صالح
      • خالد الرويشان
      • محمد المسوري
      • د. عادل الشجاع
      • بشير عثمان
      • فتحي بن لزرق
      • الدكتور فيصل الحذيفي
      • علي البخيتي
      • محمد عياش
      • سامي كليب
      • هند الإرياني
      • عبدالإله المنحمي
      • نهى سعيد
      • محمود ياسين
      • حسن عبدالوارث
      • فتحي أبو النصر
      • محمد جميح
      • أ.د. أيوب الحمادي
      • أمل علي
      • منى صفوان
      • ياسر العواضي
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
      • أ.م.د.علي متولى أحمد
      • أحمد غراب
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
      • أ.م.د.علي متولى أحمد
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • خبراء وسياسيون: الملف اليمني يشهد تحولات... ويحتاج لحل سياسي
      • الانتقالي يستدعي قواته ويعلن عن اعتصام للمطالبة باستقلال الجنوب
      • غروندبرغ: تآكل كامل لمستوى الثقة بحل الصراع اليمني ونبحث عن حلول
      • انسحاب القوات السعودية والسودانية من قصر معاشيق الرئاسي في عدن
      • رئيسا الإمارات والإكوادور يبحثان تعزيز التعاون الاقتصادي
      • خنق حضرموت: مصير مجهول لإدارة الحقول وإنتاج النفط
      • مقتل العشرات في هجوم بطائرة مسيرة على روضة أطفال بالسودان
      • التوغلات الإسرائيلية في القنيطرة... إجرام يومي يُقوّض حياة السكان
      • العليمي يُحذّر من تقويض وحدة القرار السيادي للدولة
      • وفد مجلس الأمن يزور كبار المسؤولين في لبنان دعماً لاستقراره

      علوم وتكنولوجيا

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      10 نوفمبر, 2024

      تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.

      عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.

      كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟

      مخاطر حقيقية

      الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.

      وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.

      أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.

      وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
       
      الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.

      ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.

      وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.

      جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.

      وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.

      ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".

      ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.


       
      على بعد سنوات

      ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.

      موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.

      الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.

      كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.
       
      مبالغة

      لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).

      ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.

      واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".

      كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.

      وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية". 

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 03 ديسمبر, 2025

        سباق الذكاء الاصطناعي: عالَم ينتقل من المشي إلى الركض

        سباق الذكاء الاصطناعي: عالَم ينتقل من المشي إلى الركض
        علوم وتكنولوجيا 01 ديسمبر, 2025

        "أمازون" و"جوجل" تطلقان خدمة شبكية متعددة السحابة

        "أمازون" و"جوجل" تطلقان خدمة شبكية متعددة السحابة
        علوم وتكنولوجيا 27 نوفمبر, 2025

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود
      • علوم وتكنولوجيا 23 نوفمبر, 2025

        عُمان توقع اتفاقية لتصنيع أول قمر صناعي للاتصالات

        عُمان توقع اتفاقية لتصنيع أول قمر صناعي للاتصالات
        علوم وتكنولوجيا 22 نوفمبر, 2025

        بحجم حبة رمل... روبوت يمكنه دخول مجرى الدم وإيصال الأدوية بدقة

        بحجم حبة رمل... روبوت يمكنه دخول مجرى الدم وإيصال الأدوية بدقة
        علوم وتكنولوجيا 19 نوفمبر, 2025

        سباق جديد فوق الغيوم.. الخليج يقود عصر الإنترنت في الطائرات

        سباق جديد فوق الغيوم.. الخليج يقود عصر الإنترنت في الطائرات

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        09 نوفمبر, 2025

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • تركة الجمهورية اليمنية: سردية وطن يتنازع مستقبله
        تركة الجمهورية اليمنية: سردية وطن يتنازع مستقبله
        06 ديسمبر, 2025
      • "سليت سيفي"... الحوثية تستخدم الفن لخدمة الموت
        "سليت سيفي"... الحوثية تستخدم الفن لخدمة الموت
        03 ديسمبر, 2025
      • الافراج عن معتقلي الرأي هو انتصار للعقل والحكمة وللوطن
        الافراج عن معتقلي الرأي هو انتصار للعقل والحكمة وللوطن
        03 ديسمبر, 2025
      • لماذا فشلت النخب اليمنية؟
        لماذا فشلت النخب اليمنية؟
        30 نوفمبر, 2025
      • ٣٠ نوفمبر: من الجلاء إلى السقوط
        ٣٠ نوفمبر: من الجلاء إلى السقوط
        30 نوفمبر, 2025

      تقارير دولية

      • السودان على حافة التحوّل… هل تفتح المبادرة السعودية باب السلام؟
        السودان على حافة التحوّل… هل تفتح المبادرة السعودية باب السلام؟
        01 ديسمبر, 2025
      • لعبة بايسبول أميركية لا شطرنج إيرانية
        لعبة بايسبول أميركية لا شطرنج إيرانية
        30 نوفمبر, 2025
      • المعادلة الإسرائيلية الأميركية تضع لبنان على منزلق خطر وطريق مسدود
        المعادلة الإسرائيلية الأميركية تضع لبنان على منزلق خطر وطريق مسدود
        27 نوفمبر, 2025
      • حصار دولي متزايد يفاقم الضغوط على «الإخوان المسلمين»
        حصار دولي متزايد يفاقم الضغوط على «الإخوان المسلمين»
        24 نوفمبر, 2025
      • فلسطين... من وعد بلفور إلى خطّة ترامب
        فلسطين... من وعد بلفور إلى خطّة ترامب
        22 نوفمبر, 2025

      Facebook

      فيديو

      حوارات

      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      • الشرع: تجربتي في العراق علمتني ألا أخوض حرباً طائفيةً
        11 فبراير, 2025
      • آلان غريش: نتنياهو يخوض حرب الغرب الجماعي
        18 اكتوبر, 2024
      © 2017 alrai3.com