
يدعو سام ألتمان، الرئيس التنفيذي لـ OpenAI، الجمهور للتصرف بحذر عند استخدام برامج الدردشة المبنية على الذكاء الاصطناعي للدعم العاطفي أو العلاج النفسي.
ووفقًا له، لا توجد حالياً أي سرية قانونية للمحادثات مع ChatGPT، وقد يتم الكشف عن محتوى المحادثات الشخصية في حالة رفع دعوى - على عكس المحادثات مع معالج، محام أو طبيب.
في الحلقة الأخيرة من بودكاست This Past Weekend، صرح ألتمان: "الناس يتحدثون مع ChatGPT عن أكثر الأمور شخصية في حياتهم - مشاكل العلاقات، المشاعر النفسية، التساؤلات حول الحياة. يعاملونه كما لو كان معالجًا. لكن لا توجد حماية قانونية. لا يوجد سرية. ولم نحل هذه المشكلة بعد".
وأوضح ألتمان أنه في غياب تشريعات خاصة، تلتزم OpenAI وفقًا للقانون الأمريكي بتقديم محتويات حساسة إلى المحاكم - كما في حالة الدعوى التي قدمتها نيويورك تايمز ضد OpenAI ومايكروسوفت، حيث طُلب من الشركة الاحتفاظ وتقديم محادثات المستخدمين. فقط عملاء نسخة ChatGPT Enterprise يتمتعون بسياسة خصوصية أكثر صرامة.
وقال ألتمان: "أعتقد أن ذلك مشوه فعلاً". "يجب أن تكون هناك نفس التصور حول الخصوصية كما لو كنت تتحدث مع طبيب نفسي. ولم يفكر أحد في ذلك قبل عام".
في OpenAI يفهمون أن غياب الحماية القانونية قد يكون عائقًا رئيسيًا أمام تبني الأداة بشكل واسع. الشركة تعارض أمرًا قضائيًا يلزمها بحفظ معلومات المستخدمين لأغراض أدلة. ووفقًا لها، هذا يُعتبر "تجاوزًا للسلطة" يهدد سياسة الخصوصية.
من بين الأمثلة المذكورة في خلفية تصريحات ألتمان: بعد أن ألغت المحكمة العليا في الولايات المتحدة الحكم في قضية رو ضد ويد، باتت بيانات الصحة الشخصية حساسة للغاية - وانتقل المستخدمون إلى تطبيقات تقوم بتشفير المعلومات لمنع تتبع حالات الحمل والإجهاض في الولايات التي أصبحت فيها العملية غير قانونية.
ختم ألتمان بقوله المباشر: "فقط عندما تكون هناك يقين قانوني بشأن الخصوصية، يمكن للأشخاص استخدام أداة مثل ChatGPT دون خوف. حاليًا، هذا ليس الحال".