الذكاء الاصطناعي يُقنع البشر… على حساب الحقائق
تؤثر روبوتات الدردشة (Chatbots) في الآراء السياسية لمستخدميها، لكن حتى أكثر نماذج الذكاء الاصطناعي إقناعاً تقدّم "كمّاً هائلاً" من المعلومات غير الدقيقة في العملية نفسها، وفقاً لدراسة صادرة عن هيئة الأمن السيبراني للذكاء الاصطناعي في المملكة المتحدة.
وصف الباحثون الدراسة بأنها أكبر وأكثر تحقيق منظّم حول قدرة الذكاء الاصطناعي على الإقناع حتى الآن، إذ شملت نحو 80 ألف مشارك بريطاني أجروا محادثات مع 19 نموذجاً مختلفاً للذكاء الاصطناعي. شملت الموضوعات أجور القطاع العام والإضرابات وأزمة تكلفة المعيشة والتضخم. ووجهت روبوتات الدردشة لإقناع المستخدمين باتخاذ موقف معين حول قضية ما.
استخدمت الدراسة نماذج متقدمة من "تشات جي بي تي" و"غروك"، وأخرى ابتكرها أكاديميون من كلية لندن للاقتصاد، ومعهد ماساتشوستس للتكنولوجيا، وجامعة أكسفورد، وجامعة ستانفورد.
قبل المحادثة وبعدها، طُلب من المستخدمين القول ما إذا كانوا يوافقون على مجموعة من العبارات التي تعبّر عن رأي سياسي محدد.
وأظهرت الدراسة، التي نُشرت في مجلة ساينس الخميس الماضي، أن ردود الذكاء الاصطناعي "المليئة بالمعلومات" كانت الأكثر قدرة على الإقناع.
كما تبين أن توجيه النموذج للتركيز على استخدام الحقائق والأدلة زاد من قوة إقناعه، إلا أن بعض هذه الردود كانت أقل دقة، لأنها قد تحتوي على معلومات مضخّمة أو أمثلة غير دقيقة.
وتشير النتائج إلى أن تعزيز القدرة على الإقناع قد يحدث أحياناً على حساب الدقة، وهو أمر قد يؤثر سلباً على الخطاب العام ونظام المعلومات.
وأضافت الدراسة أن تعديل النموذج بعد مرحلته الأولى من التطوير، في ما يُعرف بالتدريب اللاحق (post-training)، شكّل عاملاً مهماً لجعله أكثر إقناعاً.
وجعلت الدراسة النماذج، بما في ذلك تلك مفتوحة المصدر المتاحة مجاناً، أكثر إقناعاً عبر دمجها مع "نماذج المكافآت" التي توصي بأكثر الردود إقناعاً.
وأشار الباحثون إلى أن قدرة نظام الذكاء الاصطناعي على إنتاج المعلومات قد تجعله أكثر قدرة على التلاعب من أكثر البشر تأثيراً،
إذ إنّ "الذكاء الاصطناعي قد يتفوّق على قدرة الإقناع لدى أكثر البشر تمرساً، نظراً لقدرته الفريدة على توليد كميات كبيرة من المعلومات بشكل فوري تقريباً أثناء المحادثة". ولفتت الدراسة إلى أن تزويد النماذج بمعلومات شخصية عن المستخدمين الذين تتفاعل معهم لم يكن له تأثير كبير مثل التدريب اللاحق أو زيادة كثافة المعلومات.
ومع ذلك، أفادت الدراسة بأن هناك بعض الحواجز الواضحة أمام قدرة الذكاء الاصطناعي على التلاعب بآراء الأشخاص، مثل المدة التي يستطيع المستخدم قضاءها في محادثة مطولة حول السياسة مع روبوت دردشة.
وهناك نظريات تشير إلى وجود حدود نفسية صارمة لقدرة البشر على التأثر، وفقاً للباحثين.