У вересні 2025 року OpenAI зробила заяву, яка потрясла світову технологічну спільноту: ChatGPT активно відстежує розмови користувачів і повідомляє правоохоронним органам про потенційно злочинні матеріали.
Ця новина, яка майже випадково з'явилася в публікації в блозі компанії, розкрила, що коли автоматичні системи виявляють користувачів, які «планують завдати шкоди іншим», розмови перенаправляються до спеціалізованих каналів, де їх перевіряє невелика команда, навчена політикам використання. Якщо людські рецензенти визначають, що існує «неминуча загроза серйозної фізичної шкоди іншим», справа може бути передана до правоохоронних органів¹.

ChatGPT щиро запрошує вас поділитися своїми найпотаємнішими думками. Не хвилюйтеся, все конфіденційно... більш-менш.
Джерела:
Коли ми розмовляємо з психологом, адвокатом, лікарем або священиком, наші слова захищені усталеним правовим механізмом: професійною таємницею. Цей принцип, що має багатовікову юридичну традицію, встановлює, що певні розмови є недоторканними, навіть у разі кримінального розслідування.
Особливості традиційної професійної таємниці:
Всупереч поширеній думці, професійна таємниця не є абсолютною. Існують чітко визначені винятки, які різняться залежно від професійної категорії:
Для адвокатів (ст. 28 Кодексу професійної етики адвокатів): Розголошення інформації дозволяється, коли це необхідно для:
Критичний приклад: якщо клієнт заявляє адвокату, що має намір вчинити вбивство, між захистом права на захист і захистом життя має переважати останнє, і адвокат звільняється від обов'язку зберігати таємницю².
Для психологів (ст. 13 Кодексу етики): Таємниця може бути порушена, коли:
Важливе розрізнення: приватний психолог має більшу свободу дій, ніж державний, який, як державний службовець, має більш суворі обов'язки щодо повідомлення про порушення³.
Джерела:
ChatGPT працює в зовсім іншій сірій зоні:
Відсутність юридичного привілею: Розмови з ШІ не користуються жодним юридичним захистом. Як визнав Сем Альтман, генеральний директор OpenAI: «Якщо ви розмовляєте про ці проблеми з терапевтом, адвокатом або лікарем, на це поширюється юридичний привілей. Існує конфіденційність між лікарем і пацієнтом, існує юридична конфіденційність, що завгодно. І ми ще не вирішили це питання для розмов із ChatGPT»².
Автоматизований процес: на відміну від фахівця, який оцінює кожен випадок окремо, ChatGPT використовує алгоритми для виявлення «проблемного» контенту, виключаючи кваліфіковану людську оцінку з початкового етапу перевірки.
Джерела:
Ця ситуація створює тривожний парадокс. Мільйони людей використовують ChatGPT як цифрового друга, ділячись з нимсвоїми найпотаємнішими думками, сумнівами, страхами і навіть злочинними фантазіями, якими вони ніколи не поділилися б з іншою людиною. Як повідомляє Сем Альтман: «Люди розповідають ChatGPT про найособистіші речі у своєму житті. Люди, особливо молодь, використовують його як терапевта, лайф-коуча»⁴.
Ризик злочинної самоцензури: Усвідомлення того, що розмови можуть бути прослуховувані, може, як це не парадоксально, призвести до:
Ключовим аспектом, на який звертають увагу критики, є компетенція осіб, які приймають остаточні рішення.
Професіонали мають:
Система ChatGPT працює з:
Проблемний приклад: Як алгоритм розрізняє між:
Джерела:
Джерела:
Визнання OpenAI створює явне протиріччя з її попередньою позицією. Компанія рішуче протистояла вимогам надати дані користувачів у судових процесах, посилаючись на захист конфіденційності. У справі проти New York Times OpenAI наполегливо виступала проти розкриття журналів чатів, щоб захистити конфіденційність користувачів⁴.
Іронія ситуації: OpenAI захищає конфіденційність користувачів у судах, одночасно визнаючи, що відстежує та передає дані зовнішнім органам.
Ситуація ще більше ускладнилася через рішення суду, яке вимагає від OpenAI зберігати всі журнали ChatGPT на невизначений термін, включаючи приватні чати та дані API. Це означає, що розмови, які користувачі вважали тимчасовими, тепер зберігаються назавжди⁵.
Джерела:
Як запропонував Сем Альтман, можливо, доведеться розробити концепцію «привілею ШІ» — правового захисту, подібного до того, що надається традиційним професіоналам. Однак це викликає складні питання:
Можливі регуляторні варіанти:
IA «Компартменталізована»:
«Тристоронній» підхід:
Уроки з інших галузей:
Джерела:
Справа OpenAI створює важливі прецеденти для всієї галузі штучного інтелекту:
Для компаній, що розробляють діалогову ШІ:
Для компаній, що використовують ШІ:
Головна дилема: як знайти баланс між запобіганням реальним злочинам та правом на приватність і конфіденційність у цифровому просторі?
Це питання не є суто технічним, а стосується фундаментальних принципів:
Відкриття OpenAI є поворотним моментом в еволюції штучного інтелекту, але питання не в тому, чи є це відкриття правильним чи неправильним в абсолютному сенсі: питання в тому, як зробити його ефективним, справедливим і поважним до прав людини.
Потреба є реальною: конкретні загрози насильства, плани терактів або інших тяжких злочинів вимагають втручання. Питання не в тому, чи повідомляти, а в тому, як це зробити відповідально.
Основні розбіжності, які необхідно вирішити:
Освіта та кваліфікація:
Прозорість та контроль:
Пропорційність:
Для компаній цього сектору викликом є розробка систем, які ефективно захищають суспільство, не стаючи інструментами безрозбірливого спостереження. Довіра користувачів є надзвичайно важливою, але вона повинна співіснувати із соціальною відповідальністю.
Для користувачів урок є подвійним:
Майбутнє діалогової ШІ вимагає нової структури, яка:
Правильне питання полягає не в тому, чи повинні машини повідомляти про злочини, а в тому, як ми можемо забезпечити, щоб вони робили це (принаймні) з такою ж мудрістю, освіченістю та відповідальністю, як і професійні люди.
Мета полягає не в тому, щоб повернутися до штучного інтелекту, «сліпого» до реальних небезпек, а в тому, щоб створити системи, які поєднують технологічну ефективність з етикою та людською компетентністю. Тільки так ми зможемо отримати найкраще з обох світів: безпеку та захист індивідуальних прав.