• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
      • أ.م.د.علي متولى أحمد
    • حوارات
    • كتابات وآراء
      • هند الإرياني
      • عبدالإله المنحمي
      • نهى سعيد
      • محمود ياسين
      • حسن عبدالوارث
      • فتحي أبو النصر
      • محمد جميح
      • أ.د. أيوب الحمادي
      • أمل علي
      • منى صفوان
      • ياسر العواضي
      • د. أروى أحمد الخطابي
      • د. أبوبكر القربي
      • ضياء دماج
      • نبيل الصوفي
      • أحمد عبدالرحمن
      • محمد سعيد الشرعبي
      • فكري قاسم
      • د. منذر محمد  طارش 
      • Maria Zakharova
      • د. باسل باوزير
      • عادل الحداد
      • خليل القاهري
      • د. محمد الظاهري
      • أمين الوائلي
      • سارة البعداني
      • سمير الصلاحي
      • محمد النعيمي
      • د محمد جميح
      • حسن عبدالله الكامل
      • نائف حسان
      • فؤاد المنتصر
      • أمة الله الحجي
      • حنان حسين
      • محمد عايش
      • صبحي غندور
      • سمر أمين
      • عبدالعزيز العقاب
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • حسين الوادعي
      • شيرين مكاوي
      • د. مـروان الغفوري
      • ديمة ناصيف
      • الدكتور زارا صالح
      • خالد الرويشان
      • محمد المسوري
      • د. عادل الشجاع
      • بشير عثمان
      • فتحي بن لزرق
      • الدكتور فيصل الحذيفي
      • علي البخيتي
      • محمد عياش
      • سامي كليب
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
      • أ.م.د.علي متولى أحمد
      • أحمد غراب
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
      • أ.م.د.علي متولى أحمد
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • الحوثيون يحاصرون منزل رئيس حزب المؤتمر الشعبي العام
      • مقتل شخصين بغارة أميركية في محافظة مأرب
      • غوتيريش يطالب بفتح ممرات إنسانية لغزة ويحذّر من الانهيار
      • بيانات أممية: مستويات الجوع تتفاقم في مناطق سيطرة الحوثيين
      • طائرات الاحتلال تحلّق فوق بيت جن جنوبي سورية غداة المجزرة
      • أوامر قبض قهرية بحق زعيم حلف قبائل حضرموت وقائد وحداتها المسلحة
      • هروب حوثي من استحقاقات المعيشة إلى الاستنفار العسكري
      • اجتماع وزاري الأحد في البحرين تحضيراً للقمة الخليجية الـ 46
      • زيلينسكي يعلن توجه وفد أوكراني إلى واشنطن لبحث خطة إنهاء الحرب
      • بيت جن جنوبي سورية تتحوّل لساحة حرب : شهادات الناجين والجرحى

      علوم وتكنولوجيا

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      هل يقود الذكاء الاصطناعي الفائق إلى فناء البشرية؟

      10 نوفمبر, 2024

      تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.

      عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.

      كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟

      مخاطر حقيقية

      الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.

      وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.

      أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.

      وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
       
      الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.

      ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.

      وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.

      جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.

      وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.

      ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".

      ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.


       
      على بعد سنوات

      ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.

      موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.

      الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.

      كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.
       
      مبالغة

      لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).

      ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.

      واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".

      كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.

      وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية". 

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 27 نوفمبر, 2025

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود

        الأمن السيبراني في الخليج … سباقٌ مع الزمن في مواجهة تهديدات عابرة للحدود
        علوم وتكنولوجيا 23 نوفمبر, 2025

        عُمان توقع اتفاقية لتصنيع أول قمر صناعي للاتصالات

        عُمان توقع اتفاقية لتصنيع أول قمر صناعي للاتصالات
        علوم وتكنولوجيا 22 نوفمبر, 2025

        بحجم حبة رمل... روبوت يمكنه دخول مجرى الدم وإيصال الأدوية بدقة

        بحجم حبة رمل... روبوت يمكنه دخول مجرى الدم وإيصال الأدوية بدقة
      • علوم وتكنولوجيا 19 نوفمبر, 2025

        سباق جديد فوق الغيوم.. الخليج يقود عصر الإنترنت في الطائرات

        سباق جديد فوق الغيوم.. الخليج يقود عصر الإنترنت في الطائرات
        علوم وتكنولوجيا 18 نوفمبر, 2025

        المخاوف من فقاعة الذكاء الاصطناعي تمتد إلى أسواق الائتمان

        المخاوف من فقاعة الذكاء الاصطناعي تمتد إلى أسواق الائتمان
        علوم وتكنولوجيا 16 نوفمبر, 2025

        كيف نحمي الأطفال واليافعين من الجرائم الإلكترونية؟

        كيف نحمي الأطفال واليافعين من الجرائم الإلكترونية؟

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        ما أفسدته السياسة السورية لعقود… يُصلحه تركي آل الشيخ.
        09 نوفمبر, 2025

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • أحزابٌ بلا ظِلّ… ووطنٌ بلا سقف: الفصول الأخيرة في مسرح السياسة اليمنية
        أحزابٌ بلا ظِلّ… ووطنٌ بلا سقف: الفصول الأخيرة في مسرح السياسة اليمنية
        28 نوفمبر, 2025
      • استعادة الدولة في اليمن بين معركتين
        استعادة الدولة في اليمن بين معركتين
        28 نوفمبر, 2025
      • حملات الاحتجاز التعسفي والاختفاء القسري مستمرة
        حملات الاحتجاز التعسفي والاختفاء القسري مستمرة
        28 نوفمبر, 2025
      • قضاءٌ عقائدي على مقاس جماعة الحوثيين
        قضاءٌ عقائدي على مقاس جماعة الحوثيين
        28 نوفمبر, 2025
      • حضرموت الطلقة التي ستغير وجه اليمن
        حضرموت الطلقة التي ستغير وجه اليمن
        27 نوفمبر, 2025

      تقارير دولية

      • المعادلة الإسرائيلية الأميركية تضع لبنان على منزلق خطر وطريق مسدود
        المعادلة الإسرائيلية الأميركية تضع لبنان على منزلق خطر وطريق مسدود
        27 نوفمبر, 2025
      • حصار دولي متزايد يفاقم الضغوط على «الإخوان المسلمين»
        حصار دولي متزايد يفاقم الضغوط على «الإخوان المسلمين»
        24 نوفمبر, 2025
      • فلسطين... من وعد بلفور إلى خطّة ترامب
        فلسطين... من وعد بلفور إلى خطّة ترامب
        22 نوفمبر, 2025
      • عُمان… دولةٌ فهمت موقعها قبل أن تبحث عن دورها
        عُمان… دولةٌ فهمت موقعها قبل أن تبحث عن دورها
        20 نوفمبر, 2025
      • قوة الاستقرار الدولية.. مشروع دولي أم وصاية جديدة على غزة؟
        قوة الاستقرار الدولية.. مشروع دولي أم وصاية جديدة على غزة؟
        18 نوفمبر, 2025

      Facebook

      فيديو

      حوارات

      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      • الشرع: تجربتي في العراق علمتني ألا أخوض حرباً طائفيةً
        11 فبراير, 2025
      • آلان غريش: نتنياهو يخوض حرب الغرب الجماعي
        18 اكتوبر, 2024
      © 2017 alrai3.com