• الرئيسية
  • من نحن
  • الإفتتاحية
  • اتصل بنا
  • English
إذهب إلى...
    الرأي الثالث الرأي الثالث
    • أحدث الأخبار
    • أخبار خاصة
    • قضية ساخنة
      • أ.م.د.علي متولى أحمد
    • حوارات
    • كتابات وآراء
      • نهى سعيد
      • عبدالإله المنحمي
      • حسن عبدالوارث
      • محمود ياسين
      • محمد جميح
      • فتحي أبو النصر
      • أمل علي
      • أ.د. أيوب الحمادي
      • ياسر العواضي
      • منى صفوان
      • د. أبوبكر القربي
      • د. أروى أحمد الخطابي
      • نبيل الصوفي
      • ضياء دماج
      • محمد سعيد الشرعبي
      • الشيخ عبدالعزيز العقاب
      • أحمد عبدالرحمن
      • د. منذر محمد  طارش 
      • فكري قاسم
      • د. باسل باوزير
      • Maria Zakharova
      • خليل القاهري
      • عادل الحداد
      • أمين الوائلي
      • د. محمد الظاهري
      • سمير الصلاحي
      • سارة البعداني
      • د محمد جميح
      • محمد النعيمي
      • نائف حسان
      • حسن عبدالله الكامل
      • أمة الله الحجي
      • فؤاد المنتصر
      • محمد عايش
      • حنان حسين
      • صبحي غندور
      • سمر أمين
      • اسكندر شاهر
      • كمال عوض
      • عبدالوهاب طواف
      • سامية الأغبري
      • شيرين مكاوي
      • حسين الوادعي
      • ديمة ناصيف
      • د. مـروان الغفوري
      • خالد الرويشان
      • الدكتور زارا صالح
      • د. عادل الشجاع
      • محمد المسوري
      • فتحي بن لزرق
      • بشير عثمان
      • علي البخيتي
      • الدكتور فيصل الحذيفي
      • سامي كليب
      • محمد عياش
      • هند الإرياني
      • عبدالخالق النقيب
      • معن بشّور
      • جهاد البطاينة
      • د.عامر السبايلة
      • محمد محمد المقالح
      • الدكتور إبراهيم الكبسي
      • أحمد سيف حاشد
      • القاضي عبدالوهاب قطران
      • حسين العجي العواضي
      • نايف القانص
      • همدان العلي
      • مجاهد حيدر
      • حسن الوريث
      • د.علي أحمد الديلمي
      • علي بن مسعود المعشني
      • خميس بن عبيد القطيطي
      • د.سناء أبو شرار
      • بشرى المقطري
      • م.باسل قس نصرالله
      • صالح هبرة
      • عبدالرحمن العابد
      • د. عدنان منصور
      • د. خالد العبود
      • أ.عبدالله الشرعبي
      • أ.م.د.علي متولى أحمد
      • أحمد غراب
      • الدكتور علي الأشبط
    • صحف عربية وعالمية
    • تقارير عربية ودولية
      • تقارير عربية
      • تقارير دولية
      • أ.م.د.علي متولى أحمد
    • أدب وثقافة
    • إقتصاد
    • فن
    • رياضة
    • المزيد
      • وسائل التواصل الإجتماعي
      • إستطلاع الرأي
      • أخبار المجتمع
      • علوم وتكنولوجيا
      • تلفزيون
      • من هنا وهناك
      • فيديو
    إذهب إلى...

      شريط إخباري

      • إسرائيل تعتزم توسيع العدوان على لبنان وتدفع بألويتها المقاتلة للحدود
      • في 11 يوماً.. 24 قتيلاً بـ3 آلاف هجوم إيراني على دول الخليج
      • روسيا تعرض وساطة مركبة لوقف الحرب في الشرق الأوسط
      • الحوثيون يختطفون مصوراً وثق انهيار مبنى آثري في إب
      • مجلس الأمن يدين هجمات إيران على دول الخليج والأردن
      • غروندبرغ يشدد على تجنب أي إجراءات من شأنها جرّ اليمن إلى الحرب الإقليمية
      • إسرائيل تستهدف قلب بيروت وتواصل غاراتها على الضاحية الجنوبية
      • سلطان عُمان يعبّر للرئيس الإيراني عن استيائه من الهجمات
      • إيران تهدد باستهداف موانئ المنطقة رداً على تحذير أميركي بشأن موانئها
      • محمد بن زايد يبحث مع بوتين تداعيات التصعيد في المنطقة

      علوم وتكنولوجيا

      عصر الذكاء الاصطناعي الفائق.. عبقرية تقنية أم كارثة تلوح في الأفق؟

      عصر الذكاء الاصطناعي الفائق.. عبقرية تقنية أم كارثة تلوح في الأفق؟

      14 ديسمبر, 2024

       تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.

      عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.

      كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟

      مخاطر حقيقية

      الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.

      وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.

      أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.

      وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
       
      الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.

      ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.

      وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.

      جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.

      وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.

      ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".

      ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.
       
      على بعد سنوات

      ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.

      موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.

      الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.

      كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.


       
      مبالغة

      لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).

      ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.

      واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".

      كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.

      وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية".

        مشاركة :
      • طباعة

      مقالات متنوعة

      • علوم وتكنولوجيا 11 مارس, 2026

        «أبل» تطلق «آيفون 17 إي» وتحدّث «آيباد إير» بمعالج «إم 4»

        «أبل» تطلق «آيفون 17 إي» وتحدّث «آيباد إير» بمعالج «إم 4»
        علوم وتكنولوجيا 09 مارس, 2026

        الوظائف بمواجهة الخوارزمية... هل يعيد الذكاء الاصطناعي توزيع العمل لا تدميره؟

        الوظائف بمواجهة الخوارزمية... هل يعيد الذكاء الاصطناعي توزيع العمل لا تدميره؟
        علوم وتكنولوجيا 07 مارس, 2026

        "نتفليكس" تستحوذ على شركة ذكاء اصطناعي لدعم صناعة الأفلام

        "نتفليكس" تستحوذ على شركة ذكاء اصطناعي لدعم صناعة الأفلام
      • علوم وتكنولوجيا 05 مارس, 2026

        إكس تحظر الربح من فيديوهات الحرب المفبركة بالذكاء الاصطناعي

        إكس تحظر الربح من فيديوهات الحرب المفبركة بالذكاء الاصطناعي
        علوم وتكنولوجيا 03 مارس, 2026

        الهجوم على إيران... تذكير بهشاشة الإنترنت

        الهجوم على إيران... تذكير بهشاشة الإنترنت
        علوم وتكنولوجيا 27 فبراير, 2026

        فتح الهاتف بالوجه أو البصمة… راحة أم مخاطرة؟

        فتح الهاتف بالوجه أو البصمة… راحة أم مخاطرة؟

      أترك تعليق

      تبقى لديك ( ) حرف

      الإفتتاحية

      • الإمارات… ثلاثية القيادة والإدارة والريادة
        الإمارات… ثلاثية القيادة والإدارة والريادة
        12 مارس, 2026

      الأكثر قراءة

      • المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        المعارضة السورية تطوّق دمشق وتدخل مدينة حمص
        07 ديسمبر, 2024
      • المعارضة السورية تسطر الإنتصارات على أبواب حماة
        المعارضة السورية تسطر الإنتصارات على أبواب حماة
        04 ديسمبر, 2024
      • المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        المعارضة السورية تسيطر على رابع مطار عسكري وتتقدم بريف حماة
        03 ديسمبر, 2024
      • فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        فصائل المعارضة السورية تدخل دمشق وتبث «بيان النصر»
        08 ديسمبر, 2024
      • الوجه الجديد للمملكة العربية السعودية
        الوجه الجديد للمملكة العربية السعودية
        02 يونيو, 2023

      تقارير عربية

      • الدولة حين تُدار بعقلٍ وأحد !!
        الدولة حين تُدار بعقلٍ وأحد !!
        07 مارس, 2026
      • الخليج في قلب حرب ليست حربه
        الخليج في قلب حرب ليست حربه
        06 مارس, 2026
      • "اقتصاد الميليشيات" يبتلع "اقتصاد الدولة"
        "اقتصاد الميليشيات" يبتلع "اقتصاد الدولة"
        05 مارس, 2026
      • هل يتعظ "الحوثيون" مما يجرى في إيران ولبنان؟
        هل يتعظ "الحوثيون" مما يجرى في إيران ولبنان؟
        05 مارس, 2026
      • أذرع إيران في المنطقة... بين التدخل المرتقب والانكفاء المدروس
        أذرع إيران في المنطقة... بين التدخل المرتقب والانكفاء المدروس
        05 مارس, 2026

      تقارير دولية

      • أبرزها "هرمز" و"المندب".. المضايق قنابل موقوتة في مفاصل العالم
        أبرزها "هرمز" و"المندب".. المضايق قنابل موقوتة في مفاصل العالم
        12 مارس, 2026
      • فوضى الشرق الأوسط تفتح الطريق لإعادة تشكيل النظام الإقليمي
        فوضى الشرق الأوسط تفتح الطريق لإعادة تشكيل النظام الإقليمي
        11 مارس, 2026
      • تواطؤ القوى .. ما يجري في المنطقة ترتيب يدفع ثمنه العرب
        تواطؤ القوى .. ما يجري في المنطقة ترتيب يدفع ثمنه العرب
        06 مارس, 2026
      • استهداف الخليج... خطة أعدها خامنئي مسبقا
        استهداف الخليج... خطة أعدها خامنئي مسبقا
        05 مارس, 2026
      • كوابح وحوافز في التفاوض والحرب
        كوابح وحوافز في التفاوض والحرب
        05 مارس, 2026

      Facebook

      فيديو

      حوارات

      • نائب وزير الخارجية اليمني: الحكومة اليمنية ستعمل من عدن
        09 فبراير, 2026
      • الشيخ عبدالعزيز العقاب: واقع السلام في المنطقة يحتاج إلى قراءة معمقة للواقع
        06 يناير, 2026
      • غروندبرغ: اليمن مهدد بالتحول لساحة حرب إقليمية والحوار طريق النجاة
        20 اغسطس, 2025
      • وزير الخارجية اليمني الأسبق: وقعت هجمات سبتمبر فالتقى صالح بوش لنفي وصمة الإرهاب
        26 يوليو, 2025
      • الزنداني: هجمات البحر الأحمر أضرّت بخريطة الطريق والخيار العسكري ممكن
        12 مارس, 2025
      © 2017 alrai3.com