Newsletter

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

**НАЗВА: Європейський закон про штучний інтелект - парадокс: хто регулює те, що не розвивається** **РЕЗЮМЕ:** Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - запровадження правил планетарного масштабу за допомогою ринкової сили без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на нього креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
Фабіо Лоріа
Генеральний директор та засновник Electe‍

Європейський закон про штучний інтелект: між прозорістю та корпоративними стратегіями уникнення

Європейський Союз зробив історичний крок, набувши чинності Законом про штучний інтелект, першим у світі всеосяжним законодавчим актом про штучний інтелект. Цей революційний акт, який виводить Європу в авангард управління штучним інтелектом, встановлює регуляторну базу, засновану на оцінці ризиків, яка має на меті збалансувати інновації та захист основних прав. Однак цей регламент також є ще одним проявом так званого "Брюссельського ефекту" - тенденції ЄС нав'язувати свої правила в глобальному масштабі, використовуючи свою ринкову владу, не обов'язково стимулюючи технологічні інновації.

У той час як США і Китай лідирують у розвитку ШІ завдяки величезним державним і приватним інвестиціям (45% і 30% світових інвестицій у 2024 році відповідно), Європа залучила лише 10% світових інвестицій у ШІ. У відповідь на це ЄС намагається компенсувати своє технологічне відставання за допомогою регулювання, запроваджуючи стандарти, які зрештою впливають на всю глобальну екосистему.

Центральне питання полягає в тому, чи створює Європа середовище, яке сприяє відповідальним інноваціям, чи вона просто експортує бюрократію в галузь, де вона не може конкурувати?

Екстериторіальний вимір європейського регулювання

Закон про штучний інтелект поширюється не лише на європейські компанії, а й на ті, які працюють на європейському ринку або чиї системи штучного інтелекту впливають на громадян ЄС. Ця екстериторіальна юрисдикція особливо помітна в положеннях, що стосуються моделей GPAI, де в статті 106 Закону зазначено, що постачальники повинні поважати авторське право ЄС "незалежно від юрисдикції, в якій відбувається навчання моделей".

Такий підхід піддався різкій критиці з боку деяких спостерігачів, які вбачають у ньому спробу ЄС нав'язати свої правила компаніям, які не базуються на його території. На думку критиків, це може створити розкол у глобальній технологічній екосистемі, коли компанії будуть змушені розробляти окремі версії своїх продуктів для європейського ринку або приймати європейські стандарти для всіх ринків, щоб уникнути додаткових витрат на їх дотримання.

Таким чином, транснаціональні технологічні компанії опинилися в складному становищі: ігнорувати європейський ринок не є життєздатним варіантом, але дотримання вимог Закону про штучний інтелект вимагає значних інвестицій і може обмежити можливості для інновацій. Цей ефект ще більше посилюється амбітними термінами імплементації та невизначеністю інтерпретації багатьох положень.

Графік впровадження та нормативно-правова база

Закон про штучний інтелект набув чинності 1 серпня 2024 року, але його імплементація відбуватиметься за поетапним графіком:

  • 2 лютого 2025 року: набуття чинності заборони на системи ШІ, що несуть неприйнятні ризики (наприклад, урядовий соціальний скоринг) та зобов'язання щодо грамотності в галузі ШІ
  • 2 травня 2025 року: Кінцевий термін для завершення роботи над Кодексом поведінки для моделей ШІ загального призначення (GPAI)
  • 2 серпня 2025 року: Застосування правил щодо моделей ШІ загального призначення, органів управління та звітності
  • 2 серпня 2026 року: Повне застосування положень про системи підвищеного ризику та зобов'язання щодо прозорості
  • 2 серпня 2027 року: Застосування стандартів для систем підвищеної небезпеки, що підпадають під дію законодавства про безпечність продукції

Регламент використовує ризик-орієнтований підхід, класифікуючи системи ШІ на чотири категорії: неприйнятний ризик (заборонені), високий ризик (підпадають під суворі вимоги), обмежений ризик (із зобов'язаннями щодо прозорості) і мінімальний ризик або відсутність ризику (вільне використання). Ця категоризація визначає конкретні зобов'язання для розробників, постачальників і користувачів.

Нові положення про прозорість: перешкода для інновацій?

Одне з найважливіших нововведень Закону про штучний інтелект стосується зобов'язань щодо прозорості, які мають на меті вирішити проблему "чорного ящика".чорний ящик"чорної скриньки" систем ШІ. Ці зобов'язання включають в себе

  • Вимога до постачальників моделей GPAI публікувати "достатньо детальний підсумок" даних про навчання, що полегшує моніторинг з боку правовласників та інших зацікавлених сторін
  • Необхідність для систем, що взаємодіють з людьми, інформувати користувачів про те, що вони спілкуються з системою штучного інтелекту
  • Зобов'язання чітко маркувати контент, створений або змінений за допомогою ШІ (наприклад, "глибокі фейки")
  • Впровадження комплексної технічної документації для систем підвищеної небезпеки

Ці вимоги, хоча й спрямовані на захист прав громадян, можуть стати значним тягарем для компаній, особливо для інноваційних стартапів та МСП. Необхідність детально документувати процеси розробки, дані про навчання та логіку прийняття рішень може уповільнити інноваційні цикли та збільшити витрати на розробку, що поставить європейські компанії у невигідне становище порівняно з конкурентами в інших регіонах з менш суворим регулюванням.

Тематичні дослідження: ухилення на практиці

Кредитний скоринг та автоматизовані процеси прийняття рішень

Рішення у справі C-203/22 висвітлює, як компанії спочатку чинять опір вимогам прозорості. Відповідач, телекомунікаційний провайдер, стверджував, що розкриття логіки його алгоритму кредитного скорингу призведе до розкриття комерційної таємниці, що поставить під загрозу його конкурентні переваги6 . СЄС відхилив цей аргумент, заявивши, що стаття 22 GDPR надає право особам на пояснення "критеріїв і логіки", що лежать в основі автоматизованих рішень, навіть якщо вони є спрощеними6 .

Генеративний ШІ та порушення авторських прав

Відповідно до дворівневої системи Закону про ШІ, більшість генеративних моделей ШІ підпадають під рівень 1, що вимагає дотримання авторських прав ЄС та узагальнення навчальних даних2 . Щоб уникнути претензій щодо порушення авторських прав, такі компанії, як OpenAI, перейшли на використання узагальнених даних або ліцензованого контенту, але прогалини в документації залишаються.

Наслідки для авторського права: Європа встановлює закони в усьому світі

Закон про штучний інтелект містить конкретні положення про авторське право, які поширюють регуляторний вплив ЄС далеко за його межі. Постачальники моделей GPAI повинні:

  • Поважайте застереження про права, встановлені Директивою про єдиний цифровий ринок (2019/790)
  • Надайте детальний виклад змісту, використаного для навчання, збалансувавши необхідність захисту комерційної таємниці з потребою дозволити власникам авторських прав реалізувати свої права.

У статті 106 Закону про штучний інтелект зазначено, що постачальники повинні поважати законодавство ЄС про авторське право, "незалежно від юрисдикції, в якій відбувається навчання моделі". Такий екстериторіальний підхід викликає питання щодо сумісності з принципом територіальності авторського права і може створити регуляторні конфлікти з іншими юрисдикціями.

Корпоративні стратегії: ухилення чи дотримання "брюссельського ефекту"?

Для глобальних технологічних компаній Закон про штучний інтелект ставить перед фундаментальним стратегічним вибором: адаптуватися до "брюссельського ефекту" і дотримуватися європейських стандартів у глобальному масштабі чи розробити диференційовані підходи для різних ринків? З'явилося кілька стратегій:

Стратегії ухилення та пом'якшення наслідків

  1. Захист комерційної таємниці: багато компаній намагаються обмежити розкриття інформації, посилаючись на захист комерційної таємниці, передбачений Директивою ЄС про комерційну таємницю. Компанії стверджують, що детальне розкриття навчальних даних або архітектури моделей призведе до розголошення інформації, що є власністю компанії, і підірве їхню конкурентоспроможність. Такий підхід плутає вимогу Закону щодо стислого викладу даних з повним розкриттям.
  2. Технічна складність як захист: складна природа сучасних систем штучного інтелекту пропонує ще один спосіб пом'якшення наслідків. Компанії створюють технічно досконалі, але надто багатослівні або жаргонні зведення, які формально відповідають законодавчим вимогам, але не дають змоги провести повноцінне дослідження. Наприклад, резюме даних про навчання може містити перелік широких категорій даних (наприклад, "загальнодоступні тексти") без зазначення конкретних джерел, пропорцій або методів.
  3. Лазівка для самооцінки: Поправки до розділу 6 Закону про ВА запроваджують механізм самооцінки, який дозволяє розробникам звільняти свої системи від категоризації високого ризику, якщо вони вважають ризики "незначними". Ця лазівка надає компаніям одностороннє право уникати суворих зобов'язань щодо дотримання законодавства.
  4. Закон про штучний інтелект делегує правозастосування національним органам ринкового нагляду, що призводить до потенційних розбіжностей у суворості та компетенції. Деякі компанії стратегічно розміщують свої європейські підрозділи в країнах-членах ЄС з більш м'якими підходами до правозастосування або з меншими ресурсами для правозастосування.

"Подвійна модель" як відповідь на Брюссельський ефект

Деякі великі технологічні компанії розробляють "подвійну модель" роботи:

  1. "ЄС-сумісні" версії їхніх продуктів зі штучним інтелектом з обмеженою функціональністю, але які повністю відповідають Закону про штучний інтелект
  2. Більш просунуті "глобальні" версії доступні на менш регульованих ринках

Такий підхід, хоча й дорогий, дає змогу зберегти присутність на європейському ринку без шкоди для глобальних інновацій. Однак така фрагментація може призвести до збільшення технологічного розриву, коли європейські користувачі матимуть доступ до менш передових технологій, ніж користувачі в інших регіонах.

Регуляторна невизначеність як перешкода для європейських інновацій

Європейський закон про ШІ є поворотним моментом у регулюванні ШІ, але його складність і неоднозначність тлумачення створюють атмосферу невизначеності, яка може негативно вплинути на інновації та інвестиції в секторі. Компанії стикаються з кількома проблемами:

Регуляторна невизначеність як бізнес-ризик

Мінливий регуляторний ландшафт становить значний ризик для компаній. Інтерпретація ключових понять, таких як "достатньо детальний звіт" або класифікація систем "високого ризику", залишається неоднозначною. Ця невизначеність може призвести до:

  1. Непередбачувані витрати на комплаєнс: компаніям доводиться виділяти значні ресурси на комплаєнс, не маючи повної впевненості щодо остаточних вимог.
  2. Виважені ринкові стратегії: регуляторна невизначеність може призвести до більш консервативних інвестиційних рішень та затримок у розвитку нових технологій, особливо в Європі.
  3. Фрагментація європейського цифрового ринку: неоднакове тлумачення правил різними державами-членами ЄС ризикує створити регуляторну клаптикову тканину, в якій бізнесу буде важко орієнтуватися.
  4. Асиметрична глобальна конкуренція: європейські компанії можуть опинитися в умовах більш жорстких обмежень, ніж конкуренти з інших регіонів, що впливає на їхню глобальну конкурентоспроможність.

Інноваційний розрив та технологічний суверенітет

Дебати про "Брюссельський ефект" є частиною ширшого контексту європейського технологічного суверенітету. ЄС перебуває у складному становищі, коли йому доводиться балансувати між необхідністю сприяти внутрішнім інноваціям і потребою регулювати технології, розроблені переважно неєвропейськими суб'єктами.

У 2024 році європейські компанії залучили лише 10 відсотків світових інвестицій в ШІ, тоді як США та Китай домінували в цьому секторі завдяки поєднанню масштабних державних і приватних інвестицій, сприятливої для інновацій політики та доступу до великих даних. Європа з її мовною, культурною та регуляторною фрагментацією намагається створити технологічних "чемпіонів", здатних конкурувати на глобальному рівні.

Критики стверджують, що європейський підхід, орієнтований на регулювання, ризикує ще більше задушити інновації та стримувати інвестиції, тоді як прихильники вважають, що створення надійної регуляторної бази може насправді стимулювати розвиток етичного і безпечного "за задумом" ШІ, створюючи довгострокову конкурентну перевагу.

Висновок: регулювання без інновацій?

Брюссельський ефект" Закону про штучний інтелект підкреслює фундаментальне протиріччя в європейському підході до технологій: здатність встановлювати глобальні стандарти за допомогою регулювання не супроводжується відповідним лідерством у технологічних інноваціях. Ця асиметрія ставить під сумнів довгострокову стійкість такого підходу.

Якщо Європа продовжуватиме регулювати технології, які вона не розвиває, вона ризикує опинитися в ситуації зростаючої технологічної залежності, коли її правила можуть ставати все менш і менш актуальними в глобальній екосистемі, що швидко розвивається. Більше того, неєвропейські компанії можуть поступово піти з європейського ринку або пропонувати там обмежені версії своїх продуктів, створюючи "цифрову фортецю Європу", дедалі більше ізольовану від глобального прогресу.

З іншого боку, якби ЄС зміг збалансувати свій регуляторний підхід з ефективною стратегією сприяння інноваціям, він міг би ефективно визначити "третій шлях" між американським капіталізмом і китайським державним контролем, поставивши права людини і демократичні цінності в центр технологічного розвитку. Широкомасштабні програми , як кажуть у Франції.

Майбутнє ШІ в Європі залежатиме не лише від ефективності Закону про ШІ в захисті фундаментальних прав, а й від здатності Європи супроводжувати регулювання адекватними інвестиціями в інновації та спрощувати регуляторну базу, щоб зробити її менш репресивною. Інакше Європа ризикує опинитися в парадоксальній ситуації: світовий лідер у регулюванні ШІ, але маргінал у його розробці та впровадженні.

Посилання та джерела

  1. Європейська комісія. (2024). "Регламент (ЄС) 2024/1689 про встановлення гармонізованих стандартів щодо штучного інтелекту". Офіційний вісник Європейського Союзу.
  2. Європейський офіс зі штучного інтелекту. (2025, квітень). "Попередні вказівки щодо зобов'язань для постачальників моделей GPAI". Європейська комісія.
  3. Суд Європейського Союзу. (2025, лютий). "Рішення у справі C-203/22 Dun & Bradstreet Austria". CJEU.
  4. Варсо, З., & Ганц, М. (2024, грудень). "Як Закон ЄС про ШІ може підвищити прозорість даних про навчання ШІ". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Обмеження та лазівки в Законі ЄС про ШІ та директивах про відповідальність за ШІ". Єльський журнал права та технологій, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Європейські цифрові права (EDRi). (2023, вересень). "Законодавці ЄС повинні закрити небезпечну лазівку в Законі про штучний інтелект". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Інститут майбутнього життя. (2025). 'AI Act Compliance Checker'. https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Дюмон, Д. (2025, лютий). "Розуміння Закону про штучний інтелект та проблеми його дотримання". Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "Закон ЄС про штучний інтелект та авторське право". Журнал світової інтелектуальної власності. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, липень). "Довгоочікуваний Закон ЄС про штучний інтелект стає законом після публікації в Офіційному журналі ЄС". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Ресурси для розвитку бізнесу

9 листопада 2025 року

AI Trends 2025: 6 стратегічних рішень для безперешкодного впровадження штучного інтелекту

87% компаній визнають ШІ конкурентною необхідністю, але багато хто зазнає невдачі в інтеграції - проблема не в технології, а в підході. 73% керівників називають прозорість (Explainable AI) вирішальним фактором для залучення зацікавлених сторін, тоді як успішні впровадження слідують стратегії "починай з малого, думай про велике": цільові високоцінні пілотні проекти, а не тотальна трансформація бізнесу. Реальний кейс: виробнича компанія впроваджує предиктивне технічне обслуговування на основі штучного інтелекту на одній виробничій лінії, досягає зниження простоїв на 67% за 60 днів і каталізує впровадження в масштабах усього підприємства. Перевірені кращі практики: інтеграція через API/проміжне програмне забезпечення замість повної заміни для скорочення часу навчання; виділення 30% ресурсів на управління змінами з рольовим навчанням забезпечує +40% рівня впровадження та +65% задоволеності користувачів; паралельне впровадження для перевірки результатів ШІ в порівнянні з існуючими методами; поступова деградація з резервними системами; щотижневі оглядові цикли протягом перших 90 днів для моніторингу технічної продуктивності, впливу на бізнес, рівня впровадження, рентабельності інвестицій. Успіх вимагає балансу між технічними та людськими факторами: внутрішні чемпіони з ШІ, фокус на практичних вигодах, еволюційна гнучкість.
9 листопада 2025 року

Розробники та штучний інтелект на веб-сайтах: виклики, інструменти та найкращі практики: міжнародна перспектива

Італія застрягла на позначці 8,2% впровадження ШІ (проти 13,5% в середньому по ЄС), тоді як у всьому світі 40% компаній вже використовують ШІ на практиці - і цифри показують, чому цей розрив є фатальним: чат-бот Amtrak генерує 800% рентабельності інвестицій, GrandStay економить $2,1 млн на рік, обробляючи 72% запитів автономно, Telenor збільшує доходи на 15%. У цьому звіті досліджується впровадження ШІ на веб-сайтах на практичних кейсах (Lutech Brain для тендерів, Netflix для рекомендацій, L'Oréal Beauty Gifter з 27-кратним залученням порівняно з електронною поштою) і розглядаються реальні технічні проблеми: якість даних, алгоритмічна упередженість, інтеграція з застарілими системами, обробка в режимі реального часу. Від рішень - передових обчислень для зменшення затримок, модульних архітектур, стратегій боротьби з упередженістю - до етичних питань (конфіденційність, бульбашки фільтрів, доступність для користувачів з обмеженими можливостями) та урядових кейсів (Гельсінкі з багатомовним перекладом за допомогою штучного інтелекту) - дізнайтеся, як веб-розробники перетворюються з кодерів на стратегів користувацького досвіду і чому ті, хто орієнтується в цій еволюції сьогодні, домінуватимуть в інтернеті завтра.
9 листопада 2025 року

Системи підтримки прийняття рішень зі штучним інтелектом: зростання ролі радників у корпоративному управлінні

77% компаній використовують ШІ, але лише 1% мають "зрілі" впровадження - проблема не в технології, а в підході: тотальна автоматизація vs інтелектуальна співпраця. Goldman Sachs з АІ-консультантом на 10 000 співробітників генерує +30% ефективності охоплення та +12% перехресних продажів, зберігаючи людські рішення; Kaiser Permanente запобігає 500 смертям на рік, аналізуючи 100 предметів на годину за 12 годин до початку, але залишає діагноз лікарям. Модель Advisor вирішує проблему дефіциту довіри (лише 44% довіряють корпоративному ШІ) завдяки трьом стовпам: зрозумілий ШІ з прозорою логікою, відкалібровані показники довіри, постійний зворотній зв'язок для вдосконалення. Цифри: $22,3 трлн до 2030 року, стратегічні співробітники, які використовують ШІ, побачать 4-кратну рентабельність інвестицій до 2026 року. Практична 3-етапна дорожня карта - навички оцінки та управління, пілотний проект з показниками довіри, поступове масштабування з безперервним навчанням - застосовується у фінансовій сфері (контрольована оцінка ризиків), охороні здоров'я (діагностична підтримка), виробництві (прогнозоване технічне обслуговування). Майбутнє - це не заміна людини штучним інтелектом, а ефективна організація людино-машинної співпраці.