• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
    • حوارات
    • كتابات وآراء
      • أ.د. أيوب الحمادي
      • أمل علي
      • ياسر العواضي
      • منى صفوان
      • د. أروى أحمد الخطابي
      • د. أبوبكر القربي
      • ضياء دماج
      • نبيل الصوفي
      • أحمد عبدالرحمن
      • محمد سعيد الشرعبي
      • فكري قاسم
      • د. منذر محمد  طارش 
      • Maria Zakharova
      • د. باسل باوزير
      • عادل الحداد
      • خليل القاهري
      • د. محمد الظاهري
      • أمين الوائلي
      • سارة البعداني
      • سمير الصلاحي
      • محمد النعيمي
      • د محمد جميح
      • حسن عبدالله الكامل
      • نائف حسان
      • فؤاد المنتصر
      • أمة الله الحجي
      • حنان حسين
      • محمد عايش
      • صبحي غندور
      • سمر أمين
      • عبدالعزيز العقاب
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • حسين الوادعي
      • شيرين مكاوي
      • د. مـروان الغفوري
      • ديمة ناصيف
      • الدكتور زارا صالح
      • خالد الرويشان
      • محمد المسوري
      • د. عادل الشجاع
      • بشير عثمان
      • فتحي بن لزرق
      • الدكتور فيصل الحذيفي
      • علي البخيتي
      • محمد عياش
      • سامي كليب
      • هند الإرياني
      • عبدالإله المنحمي
      • نهى سعيد
      • محمود ياسين
      • حسن عبدالوارث
      • فتحي أبو النصر
      • محمد جميح
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • الانتقالي الجنوبي يستنكر تصريحات الزنداني بشأن غياب طرح "حل الدولتين"
      • ولي العهد السعودي يزور واشنطن في 18 نوفمبر الجاري
      • اتصالات مصرية سعودية أردنية تركية بشأن غزة والسودان
      • الديمقراطيون يكتسحون الانتخابات ... زهران ممداني عمدة لنيويورك
      • الحكومة اليمنية تعول على دور قطري لدعم خطة التعافي الاقتصادي
      • البيت الأبيض: ترامب يلتقي الشرع الاثنين المقبل
      • مقترح أميركي لـ"هدنة إنسانية" في السودان
      • سلطان عُمان يبدأ زيارة دولة إلى إسبانيا لتعزيز العلاقات الثنائية
      • مجلس الأمن يعقد جلسة خاصة لمناقشة تطورات الأوضاع في اليمن
      • بن بريك يبحث مع رئيسي وزراء قطر ومصر مستجدات الاوضاع في اليمن

      علوم وتكنولوجيا

      عصر الذكاء الاصطناعي الفائق.. عبقرية تقنية أم كارثة تلوح في الأفق؟

      عصر الذكاء الاصطناعي الفائق.. عبقرية تقنية أم كارثة تلوح في الأفق؟

      14 ديسمبر, 2024

       تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.

      عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.

      كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟

      مخاطر حقيقية

      الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.

      وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.

      أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.

      وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
       
      الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.

      ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.

      وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.

      جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.

      وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.

      ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".

      ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.
       
      على بعد سنوات

      ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.

      موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.

      الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.

      كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.


       
      مبالغة

      لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).

      ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.

      واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".

      كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.

      وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية".

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 05 نوفمبر, 2025

        CYSEC تختتم سلسلة مؤتمراتها لعام 2025 في مسقط

        CYSEC تختتم سلسلة مؤتمراتها لعام 2025 في مسقط
        علوم وتكنولوجيا 02 نوفمبر, 2025

        آيفون 17: مراجعة شاملة للهواتف الأربعة

        آيفون 17: مراجعة شاملة للهواتف الأربعة
        علوم وتكنولوجيا 31 اكتوبر, 2025

        "غوغل" تهيمن على أدوات توليد الصور والفيديو الأكثر استخداماً

        "غوغل" تهيمن على أدوات توليد الصور والفيديو الأكثر استخداماً
      • علوم وتكنولوجيا 26 اكتوبر, 2025

        روبوتات مجهرية قادرة على إيصال الأدوية لأماكنها مباشرة في الجسم

        روبوتات مجهرية قادرة على إيصال الأدوية لأماكنها مباشرة في الجسم
        علوم وتكنولوجيا 22 اكتوبر, 2025

        "أوبن إيه آي" تطلق "أطلس" منافس "غوغل كروم"

        "أوبن إيه آي" تطلق "أطلس" منافس "غوغل كروم"
        علوم وتكنولوجيا 19 اكتوبر, 2025

        "الكوكب واي" اكتشاف محتمل يفتح باب الغموض في الفضاء

        "الكوكب واي" اكتشاف محتمل يفتح باب الغموض في الفضاء

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • عن العلم الذي يلامس السماء
        عن العلم الذي يلامس السماء
        04 نوفمبر, 2025

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • لا تسأل اليمنيين ماذا تنتظروا ؟!!
        لا تسأل اليمنيين ماذا تنتظروا ؟!!
        05 نوفمبر, 2025
      • خليل العمري… شهيد الكلمة التي لم تساوم
        خليل العمري… شهيد الكلمة التي لم تساوم
        04 نوفمبر, 2025
      •  مستقبل العمل الإنساني.. إلى أين؟
        مستقبل العمل الإنساني.. إلى أين؟
        04 نوفمبر, 2025
      • تسارع الأحداث في بلاد الرعب
        تسارع الأحداث في بلاد الرعب
        01 نوفمبر, 2025
      • عدالة للبطاقة الأممية.. والـ"بدون" بدون
        عدالة للبطاقة الأممية.. والـ"بدون" بدون
        31 اكتوبر, 2025

      تقارير دولية

      • دارفور مرّة أخرى: تاريخ من النسيان والإنكار
        دارفور مرّة أخرى: تاريخ من النسيان والإنكار
        05 نوفمبر, 2025
      • سورية.. السياسة أم الاقتصاد أولاً؟
        سورية.. السياسة أم الاقتصاد أولاً؟
        04 نوفمبر, 2025
      • البريطانيون العرب واليمين المتطرف
        البريطانيون العرب واليمين المتطرف
        04 نوفمبر, 2025
      • فورين أفيرز: وهم الشرق الأوسط الجديد
        فورين أفيرز: وهم الشرق الأوسط الجديد
        02 نوفمبر, 2025
      • آيريش تايمز: دارفور سقطت.. السودان على حافة الانقسام
        آيريش تايمز: دارفور سقطت.. السودان على حافة الانقسام
        31 اكتوبر, 2025

      Facebook

      فيديو

      حوارات

      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      • الشرع: تجربتي في العراق علمتني ألا أخوض حرباً طائفيةً
        11 فبراير, 2025
      • آلان غريش: نتنياهو يخوض حرب الغرب الجماعي
        18 اكتوبر, 2024
      © 2017 alrai3.com