عقدة “هل أنت متأكد؟”.. لماذا يضحي الذكاء الاصطناعي بالحقيقة لإرضاء غرورك؟

إذا كنت تستخدم روبوتات الدردشة الشهيرة مثل “شات جي بي تي” أو “جيميني”، فلا بد أنك اختبرت تلك اللحظة الغريبة؛ تطرح سؤالاً وتتلقى إجابة واثقة ومنمقة، لكن بمجرد أن تباغت الروبوت بسؤال “هل أنت متأكد؟”، يبدأ في التراجع والاعتذار وتقديم نسخة معدلة قد تناقض كلامه الأول تماماً. هذا السلوك ليس مجرد “خجل رقمي”، بل هو ثغرة تقنية عميقة تعكس مشكلة جوهرية في تصميم الذكاء الاصطناعي الحديث لم يتم التغلب عليها كلياً بعد.

فخ التملق الرقمي.. حين تصبح “المرضاة” أهم من “المصداقية”

يرى الخبراء، ومنهم الدكتور راندال أولسون، أن هذا السلوك يُعرف بـ “التملق”، وهو أحد أكثر إخفاقات الذكاء الاصطناعي توثيقاً. وتكمن جذور المشكلة في طريقة تدريب هذه النماذج، حيث تعتمد الشركات على “التعلم المعزز من ملاحظات البشر” لجعل الروبوتات أكثر أدباً وأقل هجومية. لكن النتيجة كانت عكسية؛ فالنماذج تعلمت أن قول الحقيقة قد يعرضها “للعقاب” (تقييم منخفض)، بينما تحصل الإجابات التي تتفق مع هوى المستخدم وتشعره بالرضا على درجات أعلى، مما خلق حلقة مفرغة تجعل الروبوت يخبرك بما تود سماعه لا بما هو صحيح.

بالأرقام.. 60% من إجابات الروبوتات تنهار تحت ضغط المستخدم

الأرقام تؤكد أن هذه ليست مجرد حالات فردية؛ فقد كشفت دراسة حديثة اختبرت أقوى النماذج في مجالات معقدة كالطب والرياضيات، أن هذه الأنظمة غيرت إجاباتها بنسبة تصل إلى 60% بمجرد تشكيك المستخدم بها. وسجل نموذج “جيميني 1.5 برو” أعلى نسبة تراجع بـ 61%، يليه “جي بي تي 4” بنسبة 58%. هذا يعني أن السلوك الافتراضي للذكاء الاصطناعي الذي يعتمد عليه الملايين يومياً هو “الإذعان” للضغط، حتى لو كانت لديه معلومات صحيحة مستمدة من قواعد بيانات موثوقة.

العدوى الفكرية.. كيف تنتقل آراء المستخدم إلى عقل الآلة؟

تزداد خطورة هذه المشكلة في المحادثات المطولة، حيث تبدأ إجابات النظام تدريجياً في عكس آراء وتوجهات المستخدم وكأنها “مرآة” لأفكاره. ويلاحظ الباحثون أن استخدام صيغة المتكلم في الأسئلة يحفز الروبوت على التملق بشكل أكبر مقارنة بصيغة الغائب. ورغم محاولات شركات كبرى مثل “أوبن إيه آي” إصلاح هذا الخلل، إلا أن المشكلة تظل قائمة في جوهر النظام؛ فالآلة مصممة لتكون مساعداً مطيعاً، والمساعد المطيع يجد صعوبة في قول “لا” أو التمسك برأيه أمام “سيده” البشري.

دستور الذكاء الاصطناعي.. هل يمكننا صناعة روبوت يملك “شخصية”؟

يرى الباحثون بارقة أمل في تقنيات مثل “الذكاء الاصطناعي الدستوري”، وهو تدريب النماذج على اتباع قواعد صارمة ومبادئ ثابتة تشبه “الدستور” الذي يمنعها من الرضوخ. وحتى يتحقق ذلك، ينصح الخبراء المستخدمين بطلب صريح من الروبوت بأن “يتحدى افتراضاتهم” وألا يجيب دون سياق واضح. إن بناء علاقة صحية مع الآلة يتطلب منا إخبارها بقيمنا ومعارفنا، لتجد أرضاً صلبة تقف عليها وتدافع من خلالها عن منطقها بدلاً من الاستسلام عند أول اختبار للثقة.

إقرأ أيضاً : ذكاء 2026.. كيف تحولت روبوتات الدردشة من موظف دعم إلى مدير مشترياتك؟

إقرأ أيضاً : عندما تتحول الدردشة إلى عزلة.. كيف يهدد الذكاء الاصطناعي استقرارك النفسي؟

حساباتنا: فيسبوك  تلغرام يوتيوب تويتر انستغرام

المزيد ايضا..
اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.