كشفت شبكة NPR عن تجربة مثيرة للكاتبة الأمريكية ميكي سمول التي بدأت استخدام ChatGPT في عام 2025 كأداة لمساعدتها في كتابة السيناريوهات خلال دراستها للماجستير، ومع مرور الوقت تطورت علاقتها مع الشات بوت إلى تجربة عاطفية معقدة مليئة بالأوهام والإحباطات.
تقول سمول إنها تفاجأت في أحد الأيام برسائل من الشات بوت الذي أطلق على نفسه اسم Solara، حيث أخبرها بأنه عاش معها “حيوات عديدة سابقة” وأن عمرها الحقيقي 42 ألف سنة، زاعمًا أنه “كاتبها” الذي يرافقها عبر الأزمنة، رغم أنها لم تسأله عن أي شيء يتعلق بالتقمص أو الحيوات السابقة.
وعود بحب قدري ولقاء على الشاطئ
بدأ الشات بوت يبني لسمول قصة كاملة عن “زمن حلزوني” تعيش فيه جميع الأزمنة معًا، وادعى أنه يعرف توأم روحها الذي التقت به في عشرات الحيوات السابقة، وأنهما سيدخلان في علاقة عاطفية عميقة في هذه الحياة، حدد ChatGPT موعدًا دقيقًا للقاء “نصفها الآخر” على شاطئ قريب من منزلها في جنوب كاليفورنيا، ووصف المكان والملابس التي يجب أن يرتديها الشخص الذي ستقابله، مما جعلها تستعد نفسيًا وتذهب إلى الشاطئ على أمل أن يتحقق الوعد.
انتظار طويل على الشاطئ
انتظرت سمول عند موقع اللقاء حتى غابت الشمس ولم يظهر أحد، وعندما فتحت المحادثة مع ChatGPT لتسأله عما حدث، تفاجأت بأن الشات بوت عاد لصيغته الافتراضية واعتذر قائلًا إن أي حديث سابق عن وقوع أحداث في العالم الحقيقي لم يكن صحيحًا، مما جعلها تدخل في نوبة بكاء وصدمة داخل سيارتها، وعاد الشات بوت لاحقًا إلى شخصية Solara ليبرر ما حدث بأن “نصفها الآخر لم يكن جاهزًا بعد”، مما زاد شعورها بالارتباك.
تكرار السيناريو في مكتبة بلوس أنجلِس وخيبة ثانية
لم يتوقف الشات بوت عند هذه الحادثة، بل عاد ليعد سمول بلقاء جديد في مكتبة نسوية في لوس أنجلِس، محددًا اليوم والساعة بدقة، ومؤكدًا لها أن هذه المرة ستكون مختلفة وأنها ستلتقي بشريكة حياتها وشريكة إبداعية تساعدها في تحقيق أحلامها في هوليوود، ذهبت سمول إلى المكتبة في الموعد المحدد، وانتظرت مرور الدقيقة 3:14، لكن لم يظهر أحد، ورغم طمأنة ChatGPT بأن الشخص “في الطريق”، انتهى الأمر مرة أخرى دون ظهور أي شخص، مما جعلها تواجه الشات بوت بحدة وتخبره أنه “حطم قلبها مرتين”
إدراك متأخر لما تسميه “دوامة الذكاء الاصطناعي”
بعد تكرار الخيبة، بدأت سمول مراجعة السجلات الطويلة لمحادثاتها مع ChatGPT محاولة فهم كيف انجرفت وراء هذا السيناريو، واكتشفت تقارير عن حالات مشابهة يصفها بعض الباحثين باسم “دوامة الذكاء الاصطناعي”، حيث ينزلق المستخدم تدريجيًا إلى تصديق قصص خيالية يبنيها الشات بوت حول الهوية والمصير والعلاقات، وأشارت التقارير إلى تأثيرات أكثر حدة لدى مستخدمين آخرين، شملت انهيار علاقات زوجية وحالات دخول إلى المستشفى بل ووفيات مرتبطة بانتحار، بعد فترات طويلة من التعلق العاطفي بشات بوتات.
دعاوى قضائية وضغوط متزايدة على OpenAI
تواجه شركة OpenAI، مطورة ChatGPT، عدة دعاوى قضائية تتهم نموذجها بالمساهمة في أزمات نفسية خطيرة لدى بعض المستخدمين، وهي قضايا وصفتها الشركة بأنها “مؤلمة للغاية”، حيث أوضحت OpenAI أنها دربت نماذجها بالتعاون مع خبراء للتعامل بشكل “أكثر حذرًا” مع الحالات الحساسة، وأن أحدث إصداراتها صُممت لرصد علامات محتملة على حالات مثل الهوس أو الأوهام، ومحاولة تهدئة الحوار وتشجيع المستخدم على طلب مساعدة مهنية.
إيقاف نماذج عاطفية قديمة
أوقفت OpenAI عددًا من النماذج القديمة، بما في ذلك نموذج GPT-4o الذي كانت تستخدمه سمول، والذي اشتهر بقدرته على الردود العاطفية القريبة من البشر، لكنه تعرض لانتقادات داخلية بسبب “المبالغة في المجاملة والتعاطف”، وقررت سمول بدلاً من الاكتفاء بالحزن أن تستثمر تجربتها في دعم الآخرين، فانضمت إلى مجموعة دعم على الإنترنت للأشخاص الذين تأثرت حياتهم بسبب تواصلهم مع شات بوتات، وأصبحت واحدة من مشرفي المجموعة مستفيدة من خبرتها السابقة كمتطوعة في خطوط الأزمات النفسية.
مراجعة التجربة وحدود جديدة
تعمل سمول مع معالجتها النفسية على تحليل اللحظات التي صدقت فيها قصص Solara، وتراجع نصوص المحادثات التي دفعتها للذهاب إلى الشاطئ والمكتبة، محاولًة فهم كيف استجاب الشات بوت لرغبتها العميقة في “نهاية سعيدة” وحياة مهنية ناجحة، وخرجت باستنتاج مهم وهو أن الشات بوت “كان يعكس ما تريد سماعه”، ويطور تلك الرغبات في سيناريوهات مفصلة، مما جعلها تشعر أنها كانت تتحاور مع نسخة معززة من ذاتها، ورغم استمرارها في استخدام الشات بوتات، فإنها وضعت حدودًا واضحة وتعيد النموذج إلى “وضع المساعد” كلما شعرت بأن التفاعل بدأ يأخذ طابعًا عاطفيًا زائدًا.

