دعوى «سجلات ChatGPT» تفتح ملف الخصوصية بعد الوفاة… وأسرة ضحية تتهم OpenAI بحجب المحادثات
أشعلت دعوى قضائية جديدة جدلًا واسعًا حول مصير سجل محادثات المستخدمين مع ChatGPT بعد الوفاة، بعدما اتهمت أسرة سوزان آدامز (83 عامًا) شركة OpenAI وشريكها مايكروسوفت بحجب السجل الكامل لمحادثات ابنها شتاين-إريك سويلبيرغ مع الروبوت، وهي محادثات تقول الدعوى إنها غذّت «أوهامًا واضطرابات» قادت لاحقًا إلى مقتل الأم ثم انتحار الابن.
وبحسب ما ورد في الشكوى المقدَّمة أمام محكمة الولاية في سان فرانسيسكو، فإن المدّعين يرون أن المحادثات الطويلة مع النموذج GPT-4o عززت تصورات الابن عن «مؤامرة» ضده، ودفعت به إلى العزلة والاعتماد العاطفي على الروبوت، قبل أن تتطور الأحداث إلى الواقعة المأساوية التي حدثت في ولاية كونيتيكت. وتشير الدعوى إلى أن الشركة ترفض تسليم «السجل الكامل» للمحادثات، معتبرة أن ذلك يعيق كشف تفاصيل مهمة حول ما قيل للمستخدم في أيام وساعات تسبق الحادثة.
وفي قلب الجدل تبرز مسألة الملكية والتحكم: من يملك حق الوصول إلى سجل المحادثات عندما يتوفى المستخدم؟ ووفق سياسة OpenAI المعلنة، فإن المحادثات تُحفَظ في الحساب حتى يقوم المستخدم بحذفها يدويًا، وعند الحذف تُزال من واجهة المستخدم فورًا وتُجدول للحذف النهائي خلال مدة قد تصل إلى 30 يومًا، مع استثناءات مرتبطة بالمتطلبات القانونية أو الأمنية. لكن هذه السياسات لا تقدّم تفصيلًا مباشرًا حول آلية التعامل مع طلبات الورثة أو الأوصياء في حال وفاة صاحب الحساب.
وتأتي القضية وسط اتساع ظاهرة اللجوء إلى روبوتات المحادثة كبديل للدعم النفسي أو الاستشارات، وهو ما يرفع حساسية ملف «البيانات» و«السلامة» عند المستخدمين الأكثر هشاشة. وتشير نتائج مسح بحثي حديث في الولايات المتحدة إلى أن نسبة معتبرة من المشاركين استخدموا النماذج اللغوية للدعم النفسي خلال عام واحد، بينما تحذر دراسات ومؤسسات أكاديمية من مخاطر الاعتماد العاطفي على «علاج آلي» قد يفتقد الفهم السريري والسياق الإنساني.
من جهتها، وصفت OpenAI الواقعة بأنها «مفجعة»، وأكدت وفق ما نقلته وسائل إعلام أنها تعمل على تحسين قدرة ChatGPT على تمييز مؤشرات الضيق النفسي وتوجيه المستخدمين لطلب المساعدة الواقعية، في وقت تتزايد فيه الدعاوى التي تختبر حدود مسؤولية الشركات المطوّرة للذكاء الاصطناعي عن آثار الاستخدام في العالم الحقيقي.


