Newsletter

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

**НАЗВА: Європейський закон про штучний інтелект - парадокс: хто регулює те, що не розвивається** **РЕЗЮМЕ:** Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - запровадження правил планетарного масштабу за допомогою ринкової сили без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на нього креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
Фабіо Лоріа
Генеральний директор та засновник Electe‍

Європейський закон про штучний інтелект: між прозорістю та корпоративними стратегіями уникнення

Європейський Союз зробив історичний крок, набувши чинності Законом про штучний інтелект, першим у світі всеосяжним законодавчим актом про штучний інтелект. Цей революційний акт, який виводить Європу в авангард управління штучним інтелектом, встановлює регуляторну базу, засновану на оцінці ризиків, яка має на меті збалансувати інновації та захист основних прав. Однак цей регламент також є ще одним проявом так званого "Брюссельського ефекту" - тенденції ЄС нав'язувати свої правила в глобальному масштабі, використовуючи свою ринкову владу, не обов'язково стимулюючи технологічні інновації.

У той час як США і Китай лідирують у розвитку ШІ завдяки величезним державним і приватним інвестиціям (45% і 30% світових інвестицій у 2024 році відповідно), Європа залучила лише 10% світових інвестицій у ШІ. У відповідь на це ЄС намагається компенсувати своє технологічне відставання за допомогою регулювання, запроваджуючи стандарти, які зрештою впливають на всю глобальну екосистему.

Центральне питання полягає в тому, чи створює Європа середовище, яке сприяє відповідальним інноваціям, чи вона просто експортує бюрократію в галузь, де вона не може конкурувати?

Екстериторіальний вимір європейського регулювання

Закон про штучний інтелект поширюється не лише на європейські компанії, а й на ті, які працюють на європейському ринку або чиї системи штучного інтелекту впливають на громадян ЄС. Ця екстериторіальна юрисдикція особливо помітна в положеннях, що стосуються моделей GPAI, де в статті 106 Закону зазначено, що постачальники повинні поважати авторське право ЄС "незалежно від юрисдикції, в якій відбувається навчання моделей".

Такий підхід піддався різкій критиці з боку деяких спостерігачів, які вбачають у ньому спробу ЄС нав'язати свої правила компаніям, які не базуються на його території. На думку критиків, це може створити розкол у глобальній технологічній екосистемі, коли компанії будуть змушені розробляти окремі версії своїх продуктів для європейського ринку або приймати європейські стандарти для всіх ринків, щоб уникнути додаткових витрат на їх дотримання.

Таким чином, транснаціональні технологічні компанії опинилися в складному становищі: ігнорувати європейський ринок не є життєздатним варіантом, але дотримання вимог Закону про штучний інтелект вимагає значних інвестицій і може обмежити можливості для інновацій. Цей ефект ще більше посилюється амбітними термінами імплементації та невизначеністю інтерпретації багатьох положень.

Графік впровадження та нормативно-правова база

Закон про штучний інтелект набув чинності 1 серпня 2024 року, але його імплементація відбуватиметься за поетапним графіком:

  • 2 лютого 2025 року: набуття чинності заборони на системи ШІ, що несуть неприйнятні ризики (наприклад, урядовий соціальний скоринг) та зобов'язання щодо грамотності в галузі ШІ
  • 2 травня 2025 року: Кінцевий термін для завершення роботи над Кодексом поведінки для моделей ШІ загального призначення (GPAI)
  • 2 серпня 2025 року: Застосування правил щодо моделей ШІ загального призначення, органів управління та звітності
  • 2 серпня 2026 року: Повне застосування положень про системи підвищеного ризику та зобов'язання щодо прозорості
  • 2 серпня 2027 року: Застосування стандартів для систем підвищеної небезпеки, що підпадають під дію законодавства про безпечність продукції

Регламент використовує ризик-орієнтований підхід, класифікуючи системи ШІ на чотири категорії: неприйнятний ризик (заборонені), високий ризик (підпадають під суворі вимоги), обмежений ризик (із зобов'язаннями щодо прозорості) і мінімальний ризик або відсутність ризику (вільне використання). Ця категоризація визначає конкретні зобов'язання для розробників, постачальників і користувачів.

Нові положення про прозорість: перешкода для інновацій?

Одне з найважливіших нововведень Закону про штучний інтелект стосується зобов'язань щодо прозорості, які мають на меті вирішити проблему "чорного ящика".чорний ящик"чорної скриньки" систем ШІ. Ці зобов'язання включають в себе

  • Вимога до постачальників моделей GPAI публікувати "достатньо детальний підсумок" даних про навчання, що полегшує моніторинг з боку правовласників та інших зацікавлених сторін
  • Необхідність для систем, що взаємодіють з людьми, інформувати користувачів про те, що вони спілкуються з системою штучного інтелекту
  • Зобов'язання чітко маркувати контент, створений або змінений за допомогою ШІ (наприклад, "глибокі фейки")
  • Впровадження комплексної технічної документації для систем підвищеної небезпеки

Ці вимоги, хоча й спрямовані на захист прав громадян, можуть стати значним тягарем для компаній, особливо для інноваційних стартапів та МСП. Необхідність детально документувати процеси розробки, дані про навчання та логіку прийняття рішень може уповільнити інноваційні цикли та збільшити витрати на розробку, що поставить європейські компанії у невигідне становище порівняно з конкурентами в інших регіонах з менш суворим регулюванням.

Тематичні дослідження: ухилення на практиці

Кредитний скоринг та автоматизовані процеси прийняття рішень

Рішення у справі C-203/22 висвітлює, як компанії спочатку чинять опір вимогам прозорості. Відповідач, телекомунікаційний провайдер, стверджував, що розкриття логіки його алгоритму кредитного скорингу призведе до розкриття комерційної таємниці, що поставить під загрозу його конкурентні переваги6 . СЄС відхилив цей аргумент, заявивши, що стаття 22 GDPR надає право особам на пояснення "критеріїв і логіки", що лежать в основі автоматизованих рішень, навіть якщо вони є спрощеними6 .

Генеративний ШІ та порушення авторських прав

Відповідно до дворівневої системи Закону про ШІ, більшість генеративних моделей ШІ підпадають під рівень 1, що вимагає дотримання авторських прав ЄС та узагальнення навчальних даних2 . Щоб уникнути претензій щодо порушення авторських прав, такі компанії, як OpenAI, перейшли на використання узагальнених даних або ліцензованого контенту, але прогалини в документації залишаються.

Наслідки для авторського права: Європа встановлює закони в усьому світі

Закон про штучний інтелект містить конкретні положення про авторське право, які поширюють регуляторний вплив ЄС далеко за його межі. Постачальники моделей GPAI повинні:

  • Поважайте застереження про права, встановлені Директивою про єдиний цифровий ринок (2019/790)
  • Надайте детальний виклад змісту, використаного для навчання, збалансувавши необхідність захисту комерційної таємниці з потребою дозволити власникам авторських прав реалізувати свої права.

У статті 106 Закону про штучний інтелект зазначено, що постачальники повинні поважати законодавство ЄС про авторське право, "незалежно від юрисдикції, в якій відбувається навчання моделі". Такий екстериторіальний підхід викликає питання щодо сумісності з принципом територіальності авторського права і може створити регуляторні конфлікти з іншими юрисдикціями.

Корпоративні стратегії: ухилення чи дотримання "брюссельського ефекту"?

Для глобальних технологічних компаній Закон про штучний інтелект ставить перед фундаментальним стратегічним вибором: адаптуватися до "брюссельського ефекту" і дотримуватися європейських стандартів у глобальному масштабі чи розробити диференційовані підходи для різних ринків? З'явилося кілька стратегій:

Стратегії ухилення та пом'якшення наслідків

  1. Захист комерційної таємниці: багато компаній намагаються обмежити розкриття інформації, посилаючись на захист комерційної таємниці, передбачений Директивою ЄС про комерційну таємницю. Компанії стверджують, що детальне розкриття навчальних даних або архітектури моделей призведе до розголошення інформації, що є власністю компанії, і підірве їхню конкурентоспроможність. Такий підхід плутає вимогу Закону щодо стислого викладу даних з повним розкриттям.
  2. Технічна складність як захист: складна природа сучасних систем штучного інтелекту пропонує ще один спосіб пом'якшення наслідків. Компанії створюють технічно досконалі, але надто багатослівні або жаргонні зведення, які формально відповідають законодавчим вимогам, але не дають змоги провести повноцінне дослідження. Наприклад, резюме даних про навчання може містити перелік широких категорій даних (наприклад, "загальнодоступні тексти") без зазначення конкретних джерел, пропорцій або методів.
  3. Лазівка для самооцінки: Поправки до розділу 6 Закону про ВА запроваджують механізм самооцінки, який дозволяє розробникам звільняти свої системи від категоризації високого ризику, якщо вони вважають ризики "незначними". Ця лазівка надає компаніям одностороннє право уникати суворих зобов'язань щодо дотримання законодавства.
  4. Закон про штучний інтелект делегує правозастосування національним органам ринкового нагляду, що призводить до потенційних розбіжностей у суворості та компетенції. Деякі компанії стратегічно розміщують свої європейські підрозділи в країнах-членах ЄС з більш м'якими підходами до правозастосування або з меншими ресурсами для правозастосування.

"Подвійна модель" як відповідь на Брюссельський ефект

Деякі великі технологічні компанії розробляють "подвійну модель" роботи:

  1. "ЄС-сумісні" версії їхніх продуктів зі штучним інтелектом з обмеженою функціональністю, але які повністю відповідають Закону про штучний інтелект
  2. Більш просунуті "глобальні" версії доступні на менш регульованих ринках

Такий підхід, хоча й дорогий, дає змогу зберегти присутність на європейському ринку без шкоди для глобальних інновацій. Однак така фрагментація може призвести до збільшення технологічного розриву, коли європейські користувачі матимуть доступ до менш передових технологій, ніж користувачі в інших регіонах.

Регуляторна невизначеність як перешкода для європейських інновацій

Європейський закон про ШІ є поворотним моментом у регулюванні ШІ, але його складність і неоднозначність тлумачення створюють атмосферу невизначеності, яка може негативно вплинути на інновації та інвестиції в секторі. Компанії стикаються з кількома проблемами:

Регуляторна невизначеність як бізнес-ризик

Мінливий регуляторний ландшафт становить значний ризик для компаній. Інтерпретація ключових понять, таких як "достатньо детальний звіт" або класифікація систем "високого ризику", залишається неоднозначною. Ця невизначеність може призвести до:

  1. Непередбачувані витрати на комплаєнс: компаніям доводиться виділяти значні ресурси на комплаєнс, не маючи повної впевненості щодо остаточних вимог.
  2. Виважені ринкові стратегії: регуляторна невизначеність може призвести до більш консервативних інвестиційних рішень та затримок у розвитку нових технологій, особливо в Європі.
  3. Фрагментація європейського цифрового ринку: неоднакове тлумачення правил різними державами-членами ЄС ризикує створити регуляторну клаптикову тканину, в якій бізнесу буде важко орієнтуватися.
  4. Асиметрична глобальна конкуренція: європейські компанії можуть опинитися в умовах більш жорстких обмежень, ніж конкуренти з інших регіонів, що впливає на їхню глобальну конкурентоспроможність.

Інноваційний розрив та технологічний суверенітет

Дебати про "Брюссельський ефект" є частиною ширшого контексту європейського технологічного суверенітету. ЄС перебуває у складному становищі, коли йому доводиться балансувати між необхідністю сприяти внутрішнім інноваціям і потребою регулювати технології, розроблені переважно неєвропейськими суб'єктами.

У 2024 році європейські компанії залучили лише 10 відсотків світових інвестицій в ШІ, тоді як США та Китай домінували в цьому секторі завдяки поєднанню масштабних державних і приватних інвестицій, сприятливої для інновацій політики та доступу до великих даних. Європа з її мовною, культурною та регуляторною фрагментацією намагається створити технологічних "чемпіонів", здатних конкурувати на глобальному рівні.

Критики стверджують, що європейський підхід, орієнтований на регулювання, ризикує ще більше задушити інновації та стримувати інвестиції, тоді як прихильники вважають, що створення надійної регуляторної бази може насправді стимулювати розвиток етичного і безпечного "за задумом" ШІ, створюючи довгострокову конкурентну перевагу.

Висновок: регулювання без інновацій?

Брюссельський ефект" Закону про штучний інтелект підкреслює фундаментальне протиріччя в європейському підході до технологій: здатність встановлювати глобальні стандарти за допомогою регулювання не супроводжується відповідним лідерством у технологічних інноваціях. Ця асиметрія ставить під сумнів довгострокову стійкість такого підходу.

Якщо Європа продовжуватиме регулювати технології, які вона не розвиває, вона ризикує опинитися в ситуації зростаючої технологічної залежності, коли її правила можуть ставати все менш і менш актуальними в глобальній екосистемі, що швидко розвивається. Більше того, неєвропейські компанії можуть поступово піти з європейського ринку або пропонувати там обмежені версії своїх продуктів, створюючи "цифрову фортецю Європу", дедалі більше ізольовану від глобального прогресу.

З іншого боку, якби ЄС зміг збалансувати свій регуляторний підхід з ефективною стратегією сприяння інноваціям, він міг би ефективно визначити "третій шлях" між американським капіталізмом і китайським державним контролем, поставивши права людини і демократичні цінності в центр технологічного розвитку. Широкомасштабні програми , як кажуть у Франції.

Майбутнє ШІ в Європі залежатиме не лише від ефективності Закону про ШІ в захисті фундаментальних прав, а й від здатності Європи супроводжувати регулювання адекватними інвестиціями в інновації та спрощувати регуляторну базу, щоб зробити її менш репресивною. Інакше Європа ризикує опинитися в парадоксальній ситуації: світовий лідер у регулюванні ШІ, але маргінал у його розробці та впровадженні.

Посилання та джерела

  1. Європейська комісія. (2024). "Регламент (ЄС) 2024/1689 про встановлення гармонізованих стандартів щодо штучного інтелекту". Офіційний вісник Європейського Союзу.
  2. Європейський офіс зі штучного інтелекту. (2025, квітень). "Попередні вказівки щодо зобов'язань для постачальників моделей GPAI". Європейська комісія.
  3. Суд Європейського Союзу. (2025, лютий). "Рішення у справі C-203/22 Dun & Bradstreet Austria". CJEU.
  4. Варсо, З., & Ганц, М. (2024, грудень). "Як Закон ЄС про ШІ може підвищити прозорість даних про навчання ШІ". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Обмеження та лазівки в Законі ЄС про ШІ та директивах про відповідальність за ШІ". Єльський журнал права та технологій, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Європейські цифрові права (EDRi). (2023, вересень). "Законодавці ЄС повинні закрити небезпечну лазівку в Законі про штучний інтелект". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Інститут майбутнього життя. (2025). 'AI Act Compliance Checker'. https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Дюмон, Д. (2025, лютий). "Розуміння Закону про штучний інтелект та проблеми його дотримання". Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "Закон ЄС про штучний інтелект та авторське право". Журнал світової інтелектуальної власності. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, липень). "Довгоочікуваний Закон ЄС про штучний інтелект стає законом після публікації в Офіційному журналі ЄС". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Ресурси для розвитку бізнесу

9 листопада 2025 року

Повний посібник з програмного забезпечення для бізнес-аналітики для МСП

60% італійських МСП визнають, що мають критичні прогалини в підготовці даних, 29% навіть не мають спеціальної цифри - в той час як італійський ринок бізнес-аналітики зросте з $36,79 млрд до $69,45 млрд до 2034 року (CAGR 8,56%). Проблема не в технології, а в підході: малі та середні підприємства тонуть у даних, розкиданих між таблицями CRM, ERP, Excel, не перетворюючи їх на рішення. Це стосується як тих, хто починає з нуля, так і тих, хто хоче оптимізувати. Критерії вибору, які мають значення: зручність використання без місяців навчання, масштабованість, яка зростає разом з вами, інтеграція з існуючими системами, повна сукупна вартість володіння (впровадження + навчання + обслуговування) порівняно з вартістю самої лише ліцензії. 4-крокова дорожня карта - вимірювані SMART-цілі (зменшити відтік на 15% за 6 місяців), чисте мапування джерел даних (сміття на вході = сміття на виході), навчання команди культурі даних, пілотний проект з безперервним циклом зворотного зв'язку. ШІ змінює все: від описової BI (що сталося) до доповненої аналітики, яка виявляє приховані закономірності, предиктивної, яка оцінює майбутній попит, прескриптивної, яка пропонує конкретні дії. Electe демократизує цю силу для МСП.
9 листопада 2025 року

Система охолодження Google DeepMind AI: як штучний інтелект революціонізує енергоефективність центрів обробки даних

Google DeepMind досягає -40% енергії на охолодження центру обробки даних (але лише -4% загального споживання, оскільки охолодження становить 10% від загального) - точність 99,6% з похибкою 0,4% на PUE 1.1 завдяки 5-рівневому глибокому навчанню, 50 вузлам, 19 вхідним змінним на 184 435 навчальних вибірках (дані за 2 роки). Підтверджено на 3 об'єктах: Сінгапур (перше розгортання у 2016 році), Емшавен, Рада Блаффс (інвестиції у розмірі $5 млрд). PUE флоту Google 1,09 проти середнього по галузі 1,56-1,58. Модель Predictive Control прогнозує температуру/тиск на наступну годину, одночасно керуючи ІТ-навантаженням, погодою, станом обладнання. Гарантована безпека: дворівнева верифікація, оператори завжди можуть відключити ШІ. Критичні обмеження: нульова незалежна перевірка з боку аудиторських фірм/національних лабораторій, для кожного дата-центру потрібна індивідуальна модель (8 років не комерціалізована). Впровадження займає 6-18 місяців і потребує мультидисциплінарної команди (наука про дані, ОВіК, управління об'єктами). Застосовується не лише в дата-центрах: промислові підприємства, лікарні, торгові центри, корпоративні офіси. 2024-2025: Перехід Google на пряме рідинне охолодження для TPU v5p, що вказує на практичні межі оптимізації ШІ.
9 листопада 2025 року

Чому математика - це складно (навіть якщо ви штучний інтелект)

Мовні моделі не вміють множити і запам'ятовувати результати так, як ми запам'ятовуємо число пі, але це не робить їх математиками. Проблема структурна: вони навчаються за статистичною схожістю, а не за алгоритмічним розумінням. Навіть нові "моделі мислення", такі як o1, не справляються з тривіальними завданнями: вони правильно рахують "r" у слові "полуниця" після декількох секунд обробки, але не можуть написати абзац, де друга буква кожного речення складає слово. Преміум-версія за 200 доларів на місяць витрачає чотири хвилини на те, що дитина робить миттєво. DeepSeek і Mistral у 2025 році все ще неправильно рахують літери. Яке рішення з'являється? Гібридний підхід - найрозумніші моделі з'ясували, коли потрібно викликати справжній калькулятор, а не намагатися обчислити самостійно. Зміна парадигми: ШІ не повинен знати, як робити все, а лише організувати правильні інструменти. Останній парадокс: GPT-4 може блискуче пояснити вам теорію меж, але неправильно виконує множення, які кишеньковий калькулятор завжди виконує правильно. Для навчання математики вони чудові - пояснюють з безмежним терпінням, адаптують приклади, розбивають складні міркування. Для точних розрахунків? Точно на калькулятор, а не на штучний інтелект.