عصر الذكاء الاصطناعي الفائق.. عبقرية تقنية أم كارثة تلوح في الأفق؟
تتزايد التحذيرات والمخاوف الدولية مع الطفرة غير المسبوقة في مجال الذكاء الاصطناعي حتى أصبحت فرضية "فناء البشرية" مطروحة بقوة في الأوساط المرتبطة بمجال التقنيات والذكاء الاصطناعي والتكنولوجيا.
عديد من التقارير والبحوث والرسائل نُشرت، خلال العامين المنصرمين، وتحديداً منذ صدور برنامج "تشات جي بي تي"، تركز جميعها على مخاطر تحول هذا النمط من التطور على مستقبل ومسار البشرية.
كما ثمة من يطرح فكرة أن الذكاء الاصنطاعي قد يقود البشرية إلى حتفها، في حال لم توضع ضوابط للتحكم به، فهل من الممكن فعلاً أن تكون نهاية الحضارة الإنسانية على يد برنامج ابتكره الإنسان نفسه؟
مخاطر حقيقية
الطفرة الكبيرة في مجال الذكاء الاصطناعي والاتساع الأفقي لبرامج "شات جي بي تي" وانتعاش هذا السوق ليسجل قرابة 621 مليار دولار في عام 2024، وسط توقعات بأن يصل حجم سوقه في 2032 إلى 2.7 تريليون دولار، كل هذا قد يدفع القائمين على هذا التطور إلى عدم الاكتراث بالتأثيرات الكارثية لتفوق الذكاء الاصطناعي، واحتمال أن ينقلب على صانعه.
وفي هذا السياق تزايدت التساؤلات حول هذا الخطر، وما إذا كان حقيقياً وقريباً أم أن خطره على البشرية مجرد فوبيا غير مبررة، أو مبالغ فيها، على الرغم من أن العديد ممن ساهم في طوير برامج الذكاء الاصطناعي الفائق حذروا من تلك المخاطر، ومنهم سام آلتمان، رئيس شركة "OpenAI" نفسه.
أول من حذر من قدرات الذكاء الاصطناعي كان الفيلسوف البريطاني نيك بوستروم، الذي ألف كتاباً حمل عنوان "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، وفيه عزز فكرة أن أنظمة الذكاء الاصطناعي قد تسيطر على العالم يوماً ما، وتدمر البشرية.
وفي (مارس 2023)، وقع مئات الخبراء على رسالة تضمنت المطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل تطبيق الدردشة "تشات جي بي تي"، الذي أطلقته شركة "OpenAI" لمدة 6 أشهر؛ للتأكد من أن تلك البرامج موثوقة وآمنة وشفافة ووفية وموائمة للقيم البشرية.
الخبراء قالوا في رسالتهم المنشورة إن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على المجتمع والإنسانية، مستندين في ما ذهبوا إليه إلى العديد من البحوث، وكذا إلى اعتراف عدد من كبريات مختبرات الذكاء الاصطناعي.
ولفتوا إلى أن الذكاء الاصطناعي قد يحدث تغييراً عميقاً في تاريخ الحياة على الأرض، مشددين على ضرورة التخطيط له وإدارته بالعناية والموارد المناسبة، محذرين من أن هذا المستوى من التخطيط لم يتوفر بعد.
وفي (مايو 2024)، حذر باحثون من أن الذكاء الاصطناعي بات قادراً على خداع البشر، مؤكدين أن القادم قد يكون أعظم، وسط مخاوف من احتمال أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً.
جاء ذلك في دراسة أعدها معهد ماساتشوستس للتكنولوجيا ونشرتها مجلة "باترنز"، وفيها حذر الخبراء من أن الذكاء الاصطناعي قد يرتكب عمليات احتيال أو تزوير في الانتخابات على سبيل المثال، وكذا قدرته على خداع البشر.
وتعزيزاً لتلك المخاوف قال عالم الرياضيات والخبير المستقبلي بن جورتزل، في (مارس 2024)، إن الذكاء الاصطناعي على وشك تحقيق معدلات قياسية، مشيراً إلى أنه من المعقول أن يتم الوصول إلى الذكاء الاصطناعي بمستويات ذكاء بشرية في غضون 3 إلى 8 سنوات مقبلة.
ونقلت صحيفة "ديلي ميل" البريطانية عن جورتزل الذي يعرف بأنه "أبو الذكاء الاصطناعي العام" قوله: إنه "بمجرد الوصول إلى مستوى الذكاء الاصطناعي العام البشري، يمكنك الحصول على ذكاء صناعي خارق بشكل جذري".
ومؤخراً برزت تقنية "التعلم العميق" وهي تكنولوجيا قادرة على إيجاد أنماط ارتباطية في مجموعة هائلة من البيانات، ما يعزز قدرات الذكاء الاصطناعي الفائق، ويقربه من التفوق على التفكير البشري.
على بعد سنوات
ومع تزايد التحذيرات من مخاطر الذكاء الاصطناعي الفائق، وتهديده لمستقبل البشرية، يبرز سؤال جوهري، عن اللحظة أو الزمن الذي من الممكن أن تتحول فيه هذه الأنظمة إلى خطر حقيقي على البشرية.
موقع "ذا كونفيرزيشن" الأمريكي نقل عن رئيس شركة "OpenAI" سام ألتمان، قوله إن الذكاء الاصطناعي الفائق قد يكون على بعد بضعة آلاف من الأيام فقط، أي في أكثر تقدير خلال عقد من الزمان.
الموقع الأمريكي في تقريره أشار إلى أن هناك مخاوف تتزايد من "الذكاء الاصطناعي الفائق" والإمكانات التي سيتمتع بها، وما إذا كان من الممكن أو من المحتمل أن يؤدي إلى تدمير البشرية ويتفوق على العقل البشري.
كما يشير البعض إلى أن التقدم السريع للذكاء الاصطناعي، على مدى السنوات القليلة الماضية، سيستمر أو حتى يتسارع، حيث تستثمر شركات التكنولوجيا مئات المليارات من الدولارات في أجهزة وقدرات الذكاء الاصطناعي.
مبالغة
لكن ومع تزايد التحذيرات، ثمة من يقلل من مخاطر أن يقود الذكاء الاصطناعي الفائق البشرية إلى الفناء، ومنهم غاري ماركوس اختصاصي الذكاء الاصطناعي، والذي تحدث لوكالة "فرانس برس" في (يونيو 2023).
ماركوس قال إن مخاطر انقراض البشرية مبالغ فيه، مضيفاً: "وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن؛ لأن السيناريوهات ليست في غاية الواقعية"، لكنه أشار إلى ان المقلق هو بناء أنظمة ذكاء اصطناعي لا يُحكم البشر السيطرة عليها.
واستطرد قائلاً: "إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي"، لافتاً إلى أن انقراض الجنس البشري مسألة في غاية التعقيد، لكنه أشار إلى أن هناك "سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة".
كما يرى ماركوس أن هناك مخاوف من تأثير الذكاء الاصطناعي على الديمقراطية، مشيراً إلى أن برمجيات الذكاء التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة، وربما فيديوهات واقعية بكلفة زهيدة.
وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية".