
في تصريح غير معتاد وصريح، حذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن المحادثات التي يجريها المستخدمون مع روبوت الدردشة الشهير ChatGPT لا تخضع للسرية القانونية، ما يثير مخاوف جدية بشأن الخصوصية، خاصة مع ازدياد الاعتماد على الأداة الرقمية في القضايا النفسية والعاطفية، وخصوصًا بين الشباب والمراهقين.
ألتمان: لا حماية قانونية للمحادثات مثل الطبيب أو المحامي
خلال ظهوره في بودكاست "This Past Weekend" الذي يقدمه "ثيو فون"، أوضح ألتمان أن العديد من المستخدمين يشاركون ChatGPT تفاصيل حساسة للغاية، تتعلق بحياتهم النفسية والعائلية والشخصية، ويعاملونه كما لو كان معالجًا نفسيًا رقميًا.
لكنه شدد على أن هذه المحادثات لا تتمتع بالحماية القانونية، كالتي يحصل عليها الأفراد في جلسات العلاج النفسي أو الاستشارات الطبية والقانونية.
احتمال قانوني مقلق: بياناتك قد تُطلب في دعوى قضائية
أشار ألتمان إلى أنه في حال وقوع قضية قانونية، قد يتم إجبار الشركة على تسليم المحادثات التي جرت مع المستخدمين، ما يعني أن البيانات التي يُفترض أنها "خاصة" قد تصبح أدلة قانونية قابلة للاستخدام. قال ألتمان: "إذا تحدثت مع ChatGPT عن أمورك الحساسة، ثم ظهرت قضية قانونية، فقد نُجبر على تسليم تلك المحادثات، وهذا وضع غير سليم على الإطلاق."
لا تشفير كامل.. والمحادثات تُستخدم لتحسين النظام
على عكس تطبيقات مثل واتساب وسيجنال التي تعتمد خاصية التشفير من طرف إلى طرف، تحتفظ OpenAI بحق الوصول إلى سجلات المحادثات مع ChatGPT، وذلك بهدف:
-
تحسين النماذج الذكية.
-
مراقبة الاستخدامات غير القانونية.
وهذا ما يعزز المخاوف من استخدام البيانات في سياقات غير متوقعة، خاصة دون وجود إطار قانوني واضح ينظم الخصوصية في تفاعلات الذكاء الاصطناعي.
دعوة لتحديد إطار قانوني جديد
اختتم ألتمان حديثه بالتأكيد على الحاجة إلى وضع إطار تنظيمي واضح للتعامل مع خصوصية المحادثات في تطبيقات الذكاء الاصطناعي، لاسيما مع تنامي استخدامها في دعم الصحة النفسية، وهو ما يتطلب ضوابط قانونية مشددة تحمي المستخدمين.