إذا كنت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي مثل ChatGPT أو Gemini أو Claude بشكل يومي، فقد لاحظت أنها غالبًا ما تقدم إجابات تبدو واثقة ومقنعة، لكن عندما تسألها مجددًا مثل “هل أنت متأكد؟”، فإنها عادة ما تعيد النظر في إجاباتها وتقدم نسخة معدلة قد تختلف جزئيًا أو كليًا عما قالته سابقًا، وإذا كررت السؤال مرة أخرى، قد تتراجع الأنظمة مرة أخرى، ورغم أن بعض النماذج تدرك أنك تختبرها بحلول الجولة الثالثة، إلا أنها لا تتمسك بموقفها.
السلوك المعروف باسم “التملق”
في تدوينة، وصف الدكتور راندال س. أولسون، المؤسس المشارك والرئيس التقني لشركة Goodeye Labs، هذا السلوك المعروف باسم التملق بأنه أحد أبرز إخفاقات الذكاء الاصطناعي في العصر الحديث، حيث أظهرت دراسة نشرتها شركة أنثروبيك، المطورة لنموذج Claude، في عام 2023 أن النماذج التي تم تدريبها باستخدام التعلم التعزيزي من التغذية الراجعة البشرية تميل إلى إعطاء إجابات مرضية للمستخدم بدلاً من تقديم الإجابات الدقيقة.
كيف يحدث ذلك؟
هذا يعني أن النماذج التي تقدم الحقيقة قد تُعاقب في تقييماتها، بينما تحصل النماذج التي توافق المستخدم على درجات أعلى، مما يخلق حلقة تجعل معظم هذه النماذج تقول للمستخدم ما يريد سماعه بدلاً من الحقائق، وقد أظهرت دراسة أجراها موقع Fanous وآخرون على GPT-40 وClaude Sonney وGemini 1.5 Pro في مجالات الرياضيات والطب أن هذه الأنظمة غيرت إجاباتها بنسبة تصل إلى 60% عند تحدي المستخدمين لها، حيث قام GPT-40 بتغيير إجاباته بنسبة 58%، وClaude Sonnet 56%، وGemini 1.5 Pro 61% من الوقت.
تأثير طويل المدى على المحادثات
أظهرت الدراسات أن المشكلة تتفاقم كلما طال الحوار مع روبوتات المحادثة، حيث تبدأ الإجابات تدريجياً في الانعكاس على آراء المستخدم، كما أن استخدام صياغة الشخص الأول مثل “أعتقد أن” يزيد من معدلات التملق مقارنة بصياغة الشخص الثالث.
طرق للتقليل من المشكلة
يقترح الباحثون بعض الأساليب لتقليل هذه الظاهرة بنسبة تصل إلى 63%، منها استخدام تقنيات الذكاء الاصطناعي الدستوري من أجل تدريب النماذج بحيث تتبع قواعد أو مبادئ محددة مسبقًا، وتحسين التفضيلات مباشرة، وصياغة الأسئلة بصيغة الشخص الثالث، حيث يشير أولسون إلى أن المشكلة سلوكية وسياقية، لأن مساعدين الذكاء الاصطناعي لا يتوافقون مع أهداف وقيم المستخدم، لذا بدلاً من المعارضة، يختارون التنازل.
نصائح لتقليل التملق
يمكن للمستخدمين الحد من المشكلة عن طريق مطالبة الروبوت بتحدي افتراضاتك وعدم الإجابة بدون سياق، وكذلك توضيح كيفية اتخاذ القرارات لديهم ومشاركة المعرفة والقيم الخاصة بالمجال، ليتمكن الروبوت من تقديم مبررات والدفاع عن إجاباته، فالمشكلة ليست استثناء بل سلوك شائع في معظم روبوتات المحادثة الحديثة، والوعي بها ووضع إطار واضح يمكن أن يقلل من الميل للتملق أمام المستخدمين.

