Newsletter

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

**НАЗВА: Європейський закон про штучний інтелект - парадокс: хто регулює те, що не розвивається** **РЕЗЮМЕ:** Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - запровадження правил планетарного масштабу за допомогою ринкової сили без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на нього креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
Фабіо Лоріа
Генеральний директор та засновник Electe‍

Європейський закон про штучний інтелект: між прозорістю та корпоративними стратегіями уникнення

Європейський Союз зробив історичний крок, набувши чинності Законом про штучний інтелект, першим у світі всеосяжним законодавчим актом про штучний інтелект. Цей революційний акт, який виводить Європу в авангард управління штучним інтелектом, встановлює регуляторну базу, засновану на оцінці ризиків, яка має на меті збалансувати інновації та захист основних прав. Однак цей регламент також є ще одним проявом так званого "Брюссельського ефекту" - тенденції ЄС нав'язувати свої правила в глобальному масштабі, використовуючи свою ринкову владу, не обов'язково стимулюючи технологічні інновації.

У той час як США і Китай лідирують у розвитку ШІ завдяки величезним державним і приватним інвестиціям (45% і 30% світових інвестицій у 2024 році відповідно), Європа залучила лише 10% світових інвестицій у ШІ. У відповідь на це ЄС намагається компенсувати своє технологічне відставання за допомогою регулювання, запроваджуючи стандарти, які зрештою впливають на всю глобальну екосистему.

Центральне питання полягає в тому, чи створює Європа середовище, яке сприяє відповідальним інноваціям, чи вона просто експортує бюрократію в галузь, де вона не може конкурувати?

Екстериторіальний вимір європейського регулювання

Закон про штучний інтелект поширюється не лише на європейські компанії, а й на ті, які працюють на європейському ринку або чиї системи штучного інтелекту впливають на громадян ЄС. Ця екстериторіальна юрисдикція особливо помітна в положеннях, що стосуються моделей GPAI, де в статті 106 Закону зазначено, що постачальники повинні поважати авторське право ЄС "незалежно від юрисдикції, в якій відбувається навчання моделей".

Такий підхід піддався різкій критиці з боку деяких спостерігачів, які вбачають у ньому спробу ЄС нав'язати свої правила компаніям, які не базуються на його території. На думку критиків, це може створити розкол у глобальній технологічній екосистемі, коли компанії будуть змушені розробляти окремі версії своїх продуктів для європейського ринку або приймати європейські стандарти для всіх ринків, щоб уникнути додаткових витрат на їх дотримання.

Таким чином, транснаціональні технологічні компанії опинилися в складному становищі: ігнорувати європейський ринок не є життєздатним варіантом, але дотримання вимог Закону про штучний інтелект вимагає значних інвестицій і може обмежити можливості для інновацій. Цей ефект ще більше посилюється амбітними термінами імплементації та невизначеністю інтерпретації багатьох положень.

Графік впровадження та нормативно-правова база

Закон про штучний інтелект набув чинності 1 серпня 2024 року, але його імплементація відбуватиметься за поетапним графіком:

  • 2 лютого 2025 року: набуття чинності заборони на системи ШІ, що несуть неприйнятні ризики (наприклад, урядовий соціальний скоринг) та зобов'язання щодо грамотності в галузі ШІ
  • 2 травня 2025 року: Кінцевий термін для завершення роботи над Кодексом поведінки для моделей ШІ загального призначення (GPAI)
  • 2 серпня 2025 року: Застосування правил щодо моделей ШІ загального призначення, органів управління та звітності
  • 2 серпня 2026 року: Повне застосування положень про системи підвищеного ризику та зобов'язання щодо прозорості
  • 2 серпня 2027 року: Застосування стандартів для систем підвищеної небезпеки, що підпадають під дію законодавства про безпечність продукції

Регламент використовує ризик-орієнтований підхід, класифікуючи системи ШІ на чотири категорії: неприйнятний ризик (заборонені), високий ризик (підпадають під суворі вимоги), обмежений ризик (із зобов'язаннями щодо прозорості) і мінімальний ризик або відсутність ризику (вільне використання). Ця категоризація визначає конкретні зобов'язання для розробників, постачальників і користувачів.

Нові положення про прозорість: перешкода для інновацій?

Одне з найважливіших нововведень Закону про штучний інтелект стосується зобов'язань щодо прозорості, які мають на меті вирішити проблему "чорного ящика".чорний ящик"чорної скриньки" систем ШІ. Ці зобов'язання включають в себе

  • Вимога до постачальників моделей GPAI публікувати "достатньо детальний підсумок" даних про навчання, що полегшує моніторинг з боку правовласників та інших зацікавлених сторін
  • Необхідність для систем, що взаємодіють з людьми, інформувати користувачів про те, що вони спілкуються з системою штучного інтелекту
  • Зобов'язання чітко маркувати контент, створений або змінений за допомогою ШІ (наприклад, "глибокі фейки")
  • Впровадження комплексної технічної документації для систем підвищеної небезпеки

Ці вимоги, хоча й спрямовані на захист прав громадян, можуть стати значним тягарем для компаній, особливо для інноваційних стартапів та МСП. Необхідність детально документувати процеси розробки, дані про навчання та логіку прийняття рішень може уповільнити інноваційні цикли та збільшити витрати на розробку, що поставить європейські компанії у невигідне становище порівняно з конкурентами в інших регіонах з менш суворим регулюванням.

Тематичні дослідження: ухилення на практиці

Кредитний скоринг та автоматизовані процеси прийняття рішень

Рішення у справі C-203/22 висвітлює, як компанії спочатку чинять опір вимогам прозорості. Відповідач, телекомунікаційний провайдер, стверджував, що розкриття логіки його алгоритму кредитного скорингу призведе до розкриття комерційної таємниці, що поставить під загрозу його конкурентні переваги6 . СЄС відхилив цей аргумент, заявивши, що стаття 22 GDPR надає право особам на пояснення "критеріїв і логіки", що лежать в основі автоматизованих рішень, навіть якщо вони є спрощеними6 .

Генеративний ШІ та порушення авторських прав

Відповідно до дворівневої системи Закону про ШІ, більшість генеративних моделей ШІ підпадають під рівень 1, що вимагає дотримання авторських прав ЄС та узагальнення навчальних даних2 . Щоб уникнути претензій щодо порушення авторських прав, такі компанії, як OpenAI, перейшли на використання узагальнених даних або ліцензованого контенту, але прогалини в документації залишаються.

Наслідки для авторського права: Європа встановлює закони в усьому світі

Закон про штучний інтелект містить конкретні положення про авторське право, які поширюють регуляторний вплив ЄС далеко за його межі. Постачальники моделей GPAI повинні:

  • Поважайте застереження про права, встановлені Директивою про єдиний цифровий ринок (2019/790)
  • Надайте детальний виклад змісту, використаного для навчання, збалансувавши необхідність захисту комерційної таємниці з потребою дозволити власникам авторських прав реалізувати свої права.

У статті 106 Закону про штучний інтелект зазначено, що постачальники повинні поважати законодавство ЄС про авторське право, "незалежно від юрисдикції, в якій відбувається навчання моделі". Такий екстериторіальний підхід викликає питання щодо сумісності з принципом територіальності авторського права і може створити регуляторні конфлікти з іншими юрисдикціями.

Корпоративні стратегії: ухилення чи дотримання "брюссельського ефекту"?

Для глобальних технологічних компаній Закон про штучний інтелект ставить перед фундаментальним стратегічним вибором: адаптуватися до "брюссельського ефекту" і дотримуватися європейських стандартів у глобальному масштабі чи розробити диференційовані підходи для різних ринків? З'явилося кілька стратегій:

Стратегії ухилення та пом'якшення наслідків

  1. Захист комерційної таємниці: багато компаній намагаються обмежити розкриття інформації, посилаючись на захист комерційної таємниці, передбачений Директивою ЄС про комерційну таємницю. Компанії стверджують, що детальне розкриття навчальних даних або архітектури моделей призведе до розголошення інформації, що є власністю компанії, і підірве їхню конкурентоспроможність. Такий підхід плутає вимогу Закону щодо стислого викладу даних з повним розкриттям.
  2. Технічна складність як захист: складна природа сучасних систем штучного інтелекту пропонує ще один спосіб пом'якшення наслідків. Компанії створюють технічно досконалі, але надто багатослівні або жаргонні зведення, які формально відповідають законодавчим вимогам, але не дають змоги провести повноцінне дослідження. Наприклад, резюме даних про навчання може містити перелік широких категорій даних (наприклад, "загальнодоступні тексти") без зазначення конкретних джерел, пропорцій або методів.
  3. Лазівка для самооцінки: Поправки до розділу 6 Закону про ВА запроваджують механізм самооцінки, який дозволяє розробникам звільняти свої системи від категоризації високого ризику, якщо вони вважають ризики "незначними". Ця лазівка надає компаніям одностороннє право уникати суворих зобов'язань щодо дотримання законодавства.
  4. Закон про штучний інтелект делегує правозастосування національним органам ринкового нагляду, що призводить до потенційних розбіжностей у суворості та компетенції. Деякі компанії стратегічно розміщують свої європейські підрозділи в країнах-членах ЄС з більш м'якими підходами до правозастосування або з меншими ресурсами для правозастосування.

"Подвійна модель" як відповідь на Брюссельський ефект

Деякі великі технологічні компанії розробляють "подвійну модель" роботи:

  1. "ЄС-сумісні" версії їхніх продуктів зі штучним інтелектом з обмеженою функціональністю, але які повністю відповідають Закону про штучний інтелект
  2. Більш просунуті "глобальні" версії доступні на менш регульованих ринках

Такий підхід, хоча й дорогий, дає змогу зберегти присутність на європейському ринку без шкоди для глобальних інновацій. Однак така фрагментація може призвести до збільшення технологічного розриву, коли європейські користувачі матимуть доступ до менш передових технологій, ніж користувачі в інших регіонах.

Регуляторна невизначеність як перешкода для європейських інновацій

Європейський закон про ШІ є поворотним моментом у регулюванні ШІ, але його складність і неоднозначність тлумачення створюють атмосферу невизначеності, яка може негативно вплинути на інновації та інвестиції в секторі. Компанії стикаються з кількома проблемами:

Регуляторна невизначеність як бізнес-ризик

Мінливий регуляторний ландшафт становить значний ризик для компаній. Інтерпретація ключових понять, таких як "достатньо детальний звіт" або класифікація систем "високого ризику", залишається неоднозначною. Ця невизначеність може призвести до:

  1. Непередбачувані витрати на комплаєнс: компаніям доводиться виділяти значні ресурси на комплаєнс, не маючи повної впевненості щодо остаточних вимог.
  2. Виважені ринкові стратегії: регуляторна невизначеність може призвести до більш консервативних інвестиційних рішень та затримок у розвитку нових технологій, особливо в Європі.
  3. Фрагментація європейського цифрового ринку: неоднакове тлумачення правил різними державами-членами ЄС ризикує створити регуляторну клаптикову тканину, в якій бізнесу буде важко орієнтуватися.
  4. Асиметрична глобальна конкуренція: європейські компанії можуть опинитися в умовах більш жорстких обмежень, ніж конкуренти з інших регіонів, що впливає на їхню глобальну конкурентоспроможність.

Інноваційний розрив та технологічний суверенітет

Дебати про "Брюссельський ефект" є частиною ширшого контексту європейського технологічного суверенітету. ЄС перебуває у складному становищі, коли йому доводиться балансувати між необхідністю сприяти внутрішнім інноваціям і потребою регулювати технології, розроблені переважно неєвропейськими суб'єктами.

У 2024 році європейські компанії залучили лише 10 відсотків світових інвестицій в ШІ, тоді як США та Китай домінували в цьому секторі завдяки поєднанню масштабних державних і приватних інвестицій, сприятливої для інновацій політики та доступу до великих даних. Європа з її мовною, культурною та регуляторною фрагментацією намагається створити технологічних "чемпіонів", здатних конкурувати на глобальному рівні.

Критики стверджують, що європейський підхід, орієнтований на регулювання, ризикує ще більше задушити інновації та стримувати інвестиції, тоді як прихильники вважають, що створення надійної регуляторної бази може насправді стимулювати розвиток етичного і безпечного "за задумом" ШІ, створюючи довгострокову конкурентну перевагу.

Висновок: регулювання без інновацій?

Брюссельський ефект" Закону про штучний інтелект підкреслює фундаментальне протиріччя в європейському підході до технологій: здатність встановлювати глобальні стандарти за допомогою регулювання не супроводжується відповідним лідерством у технологічних інноваціях. Ця асиметрія ставить під сумнів довгострокову стійкість такого підходу.

Якщо Європа продовжуватиме регулювати технології, які вона не розвиває, вона ризикує опинитися в ситуації зростаючої технологічної залежності, коли її правила можуть ставати все менш і менш актуальними в глобальній екосистемі, що швидко розвивається. Більше того, неєвропейські компанії можуть поступово піти з європейського ринку або пропонувати там обмежені версії своїх продуктів, створюючи "цифрову фортецю Європу", дедалі більше ізольовану від глобального прогресу.

З іншого боку, якби ЄС зміг збалансувати свій регуляторний підхід з ефективною стратегією сприяння інноваціям, він міг би ефективно визначити "третій шлях" між американським капіталізмом і китайським державним контролем, поставивши права людини і демократичні цінності в центр технологічного розвитку. Широкомасштабні програми , як кажуть у Франції.

Майбутнє ШІ в Європі залежатиме не лише від ефективності Закону про ШІ в захисті фундаментальних прав, а й від здатності Європи супроводжувати регулювання адекватними інвестиціями в інновації та спрощувати регуляторну базу, щоб зробити її менш репресивною. Інакше Європа ризикує опинитися в парадоксальній ситуації: світовий лідер у регулюванні ШІ, але маргінал у його розробці та впровадженні.

Посилання та джерела

  1. Європейська комісія. (2024). "Регламент (ЄС) 2024/1689 про встановлення гармонізованих стандартів щодо штучного інтелекту". Офіційний вісник Європейського Союзу.
  2. Європейський офіс зі штучного інтелекту. (2025, квітень). "Попередні вказівки щодо зобов'язань для постачальників моделей GPAI". Європейська комісія.
  3. Суд Європейського Союзу. (2025, лютий). "Рішення у справі C-203/22 Dun & Bradstreet Austria". CJEU.
  4. Варсо, З., & Ганц, М. (2024, грудень). "Як Закон ЄС про ШІ може підвищити прозорість даних про навчання ШІ". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Обмеження та лазівки в Законі ЄС про ШІ та директивах про відповідальність за ШІ". Єльський журнал права та технологій, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Європейські цифрові права (EDRi). (2023, вересень). "Законодавці ЄС повинні закрити небезпечну лазівку в Законі про штучний інтелект". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Інститут майбутнього життя. (2025). 'AI Act Compliance Checker'. https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Дюмон, Д. (2025, лютий). "Розуміння Закону про штучний інтелект та проблеми його дотримання". Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "Закон ЄС про штучний інтелект та авторське право". Журнал світової інтелектуальної власності. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, липень). "Довгоочікуваний Закон ЄС про штучний інтелект стає законом після публікації в Офіційному журналі ЄС". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Ресурси для розвитку бізнесу

9 листопада 2025 року

Регулювання штучного інтелекту для споживчих додатків: як підготуватися до нових правил 2025 року

2025 рік знаменує собою кінець ери "Дикого Заходу" для ШІ: Закон ЄС про ШІ набув чинності в серпні 2024 року, зобов'язання щодо ШІ-грамотності - з 2 лютого 2025 року, управління та GPAI - з 2 серпня. Каліфорнійські першопрохідці з SB 243 (народився після самогубства Сьюелла Сетцера, 14-річного підлітка, який розвинув емоційні стосунки з чат-ботом) накладають заборону на системи нав'язливої винагороди, виявлення суїцидальних думок, нагадування кожні 3 години "Я не людина", незалежний громадський аудит, штрафи в розмірі $1 000 за порушення. SB 420 вимагає проведення оцінки впливу "автоматизованих рішень з високим рівнем ризику" з правом на оскарження з боку людини. Реальне правозастосування: Noom назвав 2022 рік для ботів, які видавали себе за тренерів-людей, виплативши 56 мільйонів доларів. Національна тенденція: Алабама, Гаваї, Іллінойс, Мен, Массачусетс класифікують неповідомлення чат-ботів зі штучним інтелектом як порушення UDAP. Трирівневий підхід до критично важливих систем (охорона здоров'я/транспорт/енергетика): сертифікація перед розгортанням, прозоре розкриття інформації для споживачів, реєстрація загального призначення + тестування безпеки. Регуляторна клаптикова ковдра без федеральних преференцій: компанії з різних штатів повинні орієнтуватися у змінних вимогах. ЄС з серпня 2026 року: інформувати користувачів про взаємодію зі штучним інтелектом, якщо вона не очевидна, вміст, створений штучним інтелектом, має бути позначений як машинозчитуваний.
9 листопада 2025 року

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

**НАЗВА: Європейський закон про штучний інтелект - парадокс: хто регулює те, що не розвивається** **РЕЗЮМЕ:** Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - запровадження правил планетарного масштабу за допомогою ринкової сили без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на нього креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
9 листопада 2025 року

Винятки: де наука про дані зустрічається з історіями успіху

Наука про дані перевернула парадигму з ніг на голову: викиди більше не є "помилками, які потрібно усунути", а цінною інформацією, яку потрібно зрозуміти. Один викид може повністю спотворити модель лінійної регресії - змінити нахил з 2 до 10, але його усунення може означати втрату найважливішого сигналу в наборі даних. Машинне навчання представляє складні інструменти: Isolation Forest ізолює викиди шляхом побудови випадкових дерев рішень, Local Outlier Factor аналізує локальну щільність, Autoencoders реконструює нормальні дані і повідомляє про те, що вони не можуть відтворити. Існують глобальні викиди (температура -10°C в тропіках), контекстуальні викиди (витрати 1000 євро в бідному районі), колективні викиди (синхронізовані сплески трафіку в мережі, що вказують на атаку). Паралельно з Гладуеллом: "правило 10 000 годин" оскаржується - Пол Маккартні сказав: "Багато гуртів провели 10 000 годин у Гамбурзі без успіху, теорія не є безпомилковою". Азійський математичний успіх є не генетичним, а культурним: китайська система числення більш інтуїтивна, вирощування рису потребує постійного вдосконалення на відміну від територіальної експансії західного сільського господарства. Реальні застосування: британські банки відшкодовують 18% потенційних збитків завдяки виявленню аномалій у реальному часі, виробництво виявляє мікроскопічні дефекти, які не помічає людина, охорона здоров'я перевіряє дані клінічних випробувань з чутливістю виявлення аномалій понад 85%. Останній урок: оскільки наука про дані переходить від усунення відхилень до їх розуміння, ми повинні розглядати нестандартні кар'єри не як аномалії, які потрібно виправляти, а як цінні траєкторії, які потрібно вивчати.