Глава OpenAI Сэм Альтман предупредил, что переписка с ChatGPT не обладает юридическими привилегиями и может быть раскрыта в рамках судебных разбирательств. Об этом сообщает Business Insider.

Все больше пользователей, особенно среди молодежи, обращаются к ChatGPT за психологической, медицинской или финансовой помощью. Однако в подкасте Тео Вона основатель компании признал, что такие разговоры не обладают той же степенью конфиденциальности, как беседы с реальными специалистами.

«Если вы говорите с терапевтом, юристом или врачом, для таких разговоров действует юридическая привилегия… А в случае с ChatGPT мы этого пока не проработали», — заявил Альтман. Он подчеркнул: «Если вы обсуждаете с ChatGPT самые личные вещи, а потом начинается судебное дело, нас могут обязать предоставить эти данные».

Он подчеркнул необходимость создания правовой базы, которая обеспечит защиту подобных данных: «Политики, с которыми я говорил, согласны, что это нужно срочно решать».

chat gpt, openai, искусственный интелект, сэм альтман

Параллельно с проблемой приватности Альтман выразил обеспокоенность ростом глобальной слежки по мере внедрения ИИ.

«Чем больше в мире ИИ, тем больше государств захотят наблюдать за его использованием», — сказал он, добавив: «Я готов поступиться частью приватности ради общественной безопасности. Но история показывает, что государства в таких случаях заходят слишком далеко, и это меня действительно пугает».

Кроме того, в июле Федеральный суд в США постановил, что OpenAI должен сохранить все журналы чатов пользователей ChatGPT — даже если те были удалены или отмечены как «временные». Такое решение принято в рамках иска от The New York Times по поводу возможного нарушения авторских прав.

Это означает, что теперь даже чаты, которые пользователи удалили из своей истории, не будут действительно стерты — их обязаны хранить как потенциальные доказательства. Ранее OpenAI обещал, что такие данные удаляются через 30 дней и не используются для обучения модели.

Юристы называют это обычной практикой в судебных процессах, но правозащитники предупреждают: это подрывает доверие к цифровым платформам и показывает, что политики конфиденциальности не защищают пользователей в суде. Эксперты подчеркивают, что без четких законов и встроенной в дизайн защиты данные пользователей остаются уязвимыми — даже если компании обещают их не хранить.

Ранее Spot писал, что Узбекистан начал создание «национальной модели ИИ».