У 2025 році регулювання штучного інтелекту зазнає значних змін, причому особлива увага приділяється застосункам, орієнтованим на споживача. Компанії, що використовують чат-боти зі штучним інтелектом, автоматизовані системи прийняття рішень і генеративні технології, повинні підготуватися до дедалі складнішого і жорсткішого регуляторного середовища.
2025 рік знаменує собою кінець епохи "Дикого Заходу" в розвитку штучного інтелекту. Європейський закон про ШІ набув чинності 1 серпня 2024 року, а його основні положення почали діяти протягом 2025 року: зобов'язання щодо грамотності в галузі ШІ набули чинності 2 лютого 2025 року, а правила управління та зобов'язання щодо моделей GPAI - 2 серпня 2025 року.
Нові регуляторні акти дотримуються трирівневого підходу до оцінки ризиків:
1. Системи штучного інтелекту для критичної інфраструктури: додатки в охороні здоров'я, транспорті, енергетиці та на фінансових ринках тепер вимагають сертифікації перед розгортанням, постійного моніторингу та значущого людського нагляду.
2. Застосування штучного інтелекту, орієнтоване на споживача: додатки, які безпосередньо взаємодіють зі споживачами, повинні надавати чіткі повідомлення про використання штучного інтелекту, зберігати вичерпні аудиторські сліди та впроваджувати протоколи виявлення упередженості.
3. ШІ загального призначення: загальні системи також вимагають реєстрації, базового тестування безпеки та розкриття методології навчання.
Законопроект 243 Сенату Каліфорнії, внесений сенатором Стівом Паділла, виник у відповідь на трагічне самогубство Сьюелла Сетцера, 14-річного хлопчика з Флориди, який наклав на себе руки після того, як зав'язав емоційні стосунки з чат-ботом.
SB 243 Основні вимоги:
Законодавство передбачає приватний позов з відшкодуванням фактичних або передбачених законом збитків у розмірі 1000 доларів США за кожне порушення, залежно від того, яка сума є більшою.
SB 420 має на меті створити нормативно-правову базу, яка гарантуватиме, що системи штучного інтелекту поважають права людини, сприяють справедливості, прозорості та підзвітності. Законодавство регулює розробку та впровадження "автоматизованих систем прийняття рішень з високим ступенем ризику", вимагаючи проведення оцінки впливу для визначення мети, використання даних і потенціалу упередженості.
Зобов'язання щодо інформування споживачів: Згідно з SB 420, особи, які підпадають під дію автоматизованих систем прийняття рішень, повинні знати, коли інструмент використовується для прийняття рішень щодо них, отримувати детальну інформацію про систему та, якщо це технічно можливо, мати можливість оскаржити ці рішення в судовому порядку.
Алабама, Гаваї, Іллінойс, Мен і Массачусетс у 2025 році запровадили законодавство, згідно з яким неповідомлення про взаємодію споживачів із чат-ботами зі штучним інтелектом вважатиметься порушенням Закону про недобросовісні або оманливі дії чи практики (UDAP), що призведе до розслідування з боку Генерального прокурора та можливих приватних судових позовів.
Гаваї (HB 639): Кваліфікує як недобросовісне або оманливе використання чат-ботів зі штучним інтелектом, здатних імітувати людську поведінку, без попереднього повідомлення про це споживачам у чіткий і наочний спосіб. Малі підприємства, які несвідомо використовують чат-боти зі штучним інтелектом, звільняються від цього закону, якщо вони не отримують чітких повідомлень.
Іллінойс (HB 3021): Внесе зміни до Закону про шахрайство щодо споживачів та оманливу ділову практику, щоб вимагати чіткого повідомлення, коли споживачі спілкуються з чат-ботами, агентами штучного інтелекту або аватарами, які можуть змусити споживачів повірити, що вони спілкуються з людьми.
Каліфорнія прийняла перший закон про розкриття інформації про ботів (Cal. Bus. & Prof. Code § 17940-17942), який вимагає розкриття інформації, коли боти використовуються для "свідомого обману" людини для бізнес-транзакцій або впливу на вибори.
Закон штату Юта про політику щодо штучного інтелекту, який набуде чинності 1 травня 2024 року, вимагає від ботів, що взаємодіють зі споживачами, "на вимогу" повідомляти, що споживачі взаємодіють з "генеративним штучним інтелектом, а не з людиною".
У 2022 році користувачі додатку для схуднення Noom подали до суду на компанію за нібито порушення каліфорнійського закону про розкриття інформації про ботів, стверджуючи, що Noom неправдиво стверджував, що користувачі отримуватимуть індивідуальні плани від тренерів-людей, тоді як насправді це були автоматизовані боти. Сторони досягли мирової угоди на суму 56 мільйонів доларів.
FTC видала рекомендації, які вимагають від компаній "бути прозорими щодо природи інструментів, з якими взаємодіють користувачі", і застерігає від використання автоматизованих інструментів для обману людей.
Відповідно до Закону ЄС про штучний інтелект, з серпня 2026 року провайдери ШІ повинні інформувати користувачів, коли вони взаємодіють зі штучним інтелектом, за винятком випадків, коли це очевидно. Контент, створений штучним інтелектом, повинен мати чітке маркування в машинозчитуваній формі, за винятком незначних модифікацій.
Навіть компанії, які не вважають себе компаніями, що займаються штучним інтелектом, можуть використовувати чат-ботів за умови регулювання. Чат-боти проникають у сферу обслуговування клієнтів, охорони здоров'я, банківської справи, освіти, маркетингу та розваг.
Компанії повинні орієнтуватися у фрагментованому регуляторному середовищі з різними вимогами в різних юрисдикціях. Відсутність федерального преференційного права означає, що компанії повинні відповідати різним вимогам у різних штатах.
Державні законодавці розглядають різноманітні законодавчі акти у сфері ШІ, і до 2025 року будуть прийняті сотні нормативно-правових актів, включаючи комплексні закони про захист прав споживачів, галузеві нормативні акти та правила щодо чат-ботів.
Організації, які надають пріоритет управлінню штучним інтелектом, отримають конкурентну перевагу, оскільки проактивний комплаєнс - це ключ до розкриття повного потенціалу штучного інтелекту та уникнення правових пасток.
Регуляторний ландшафт для додатків штучного інтелекту, орієнтованих на споживача, стрімко розвивається, і Каліфорнія лідирує в цьому напрямку, прийнявши комплексне законодавство, що стосується як безпеки чат-ботів (SB 243), так і прозорості більш широких рішень у сфері штучного інтелекту (SB 420).
Така розрізненість нормативних актів на рівні штатів створює проблеми з дотриманням вимог для компаній, що працюють у кількох юрисдикціях, а відсутність федеральних преференцій означає, що компаніям доводиться орієнтуватися на мінливі вимоги.
Акцент на прозорості, правах нагляду за дотриманням прав людини та захисті вразливих верств населення свідчить про перехід до більш директивного управління штучним інтелектом, яке ставить на перше місце захист прав споживачів, а не гнучкість в інноваціях.
Програми штучного інтелекту, орієнтовані на споживача, - це системи штучного інтелекту, які безпосередньо взаємодіють зі споживачами, зокрема чат-боти для обслуговування клієнтів, віртуальні асистенти, рекомендаційні системи та розмовний ШІ, що використовуються в таких галузях, як електронна комерція, охорона здоров'я, фінансові послуги та розваги.
Основні вимоги включають в себе:
Ні, SB 243 стосується саме "чат-ботів-компаньйонів" - систем штучного інтелекту з природним мовним інтерфейсом, які надають адаптивні, схожі на людські відповіді і здатні задовольняти соціальні потреби користувачів. Не всі чат-боти для обслуговування клієнтів обов'язково підпадають під це визначення.
Санкції різняться залежно від штату, але можуть включати в себе наступне:
Компанії повинні:
Так, Закон про штучний інтелект застосовується до будь-якої системи штучного інтелекту, що обслуговує користувачів у ЄС, незалежно від того, де базується компанія. З серпня 2026 року провайдери повинні будуть інформувати користувачів, коли вони взаємодіють зі штучним інтелектом, якщо це не є очевидним.
Компанії повинні дотримуватися законів кожного штату, в якому вони працюють. Наразі не існує федерального преференційного права, тому необхідно розробляти стратегії комплаєнсу на рівні декількох штатів, які б відповідали найсуворішим вимогам.
Деякі нормативно-правові акти передбачають винятки або знижені вимоги для малого бізнесу. Наприклад, закон Гаваїв HB 639 звільняє малі підприємства, які несвідомо використовують чат-боти зі штучним інтелектом, за умови, що вони дотримуються вимог після отримання відповідного повідомлення.
Джерела та довідкові посилання: