OpenAI підтвердила, що ChatGPT аналізує приватні діалоги користувачів на наявність небезпечного контенту та може передавати інформацію правоохоронним органам у разі потреби.
Спершу розмови проходять автоматичну фільтрацію, після чого їх перевіряє невелика команда модераторів. Саме вони ухвалюють рішення про блокування акаунтів і за наявності «безпосередньої загрози серйозної фізичної шкоди», передають дані поліції, повідомляє блог OpenAI.
При цьому випадки, що стосуються самоушкоджень, поки не повідомляються владі з міркувань конфіденційності. У таких ситуаціях ChatGPT скеровує користувачів до фахівців і гарячих ліній підтримки.
Таке рішення ухвалили після критики, що посилилася через випадки самогубств і шкоди за рекомендаціями чат-бота. Експерти називають ці інциденти «ШІ-психозами» – станами, коли штучний інтелект здатен спотворювати сприйняття реальності.
Нововведення викликало хвилю обговорень. Критики вважають, що OpenAI не забезпечила належний рівень безпеки технології й змушена вдатися до суворої модерації, що суперечить її обіцянкам щодо захисту приватності. Також користувачів непокоїть брак прозорості, невідомо, які теми чи слова можуть спричинити перевірку та призвести до звернення в поліцію.
Раніше CEO OpenAI Сем Альтман попереджав, що листування з ChatGPT потенційно може стати доказом у суді. Чинні закони не надають чат-ботам штучного інтелекту особливого статусу конфіденційності, як це передбачено для консультацій із юристом чи терапевтом.