Newsletter

Парадокс творчості: штучний інтелект, авторське право та майбутнє людства

"Я не відчуваю себе задоволеним. Мені здається, що в мене вкрали те, що я створював роками", - Грег Рутковскі, чиє ім'я з'являється в 1,2 мільйонах підказок Stable Diffusion. "Стиль Гіблі" розкриває справжню різницю: Ван Гог розумів японські естетичні принципи, ШІ витягує статистичні кореляції між пікселями. Стенфорд демонструє, що моделі регенерують майже ідентичні зображення у 3 відсотках випадків. Це не натхнення - це запам'ятовування. Понад 250 000 художників взяли на озброєння Glaze і Nightshade, щоб захистити себе.

Підсумуйте цю статтю за допомогою ШІ

Людська та штучна творчість: у чому насправді полягає різниця (і чому стиль гіблі нас чогось вчить)

У 2024-2025 роках дебати про штучний інтелект і авторське право різко посилилися. Це вже не теоретичні дискусії: The New York Times подала до суду на OpenAI за порушення авторських прав (грудень 2023 року), Getty Images - на Stability AI, а тисячі художників подали колективні позови. ШІ-компанії відповідають, що їхні системи "навчаються" так само, як і люди - але чи так це насправді?

Людська творчість завжди розвивалася через зв'язки: Шекспір надихався історичними хроніками та народними казками, Ван Гог вивчав японські гравюри, Бітлз починали з американського року. Митці завжди переосмислюють попередні роботи. Штучний інтелект, скажімо, технологічні компанії, робить те саме. Але випадок зі "стилем Гіблі" показує, наскільки спрощеним є цей наратив.

Справа Ghibli: коли стиль стає суперечкою

Введіть "Ghibli style" в Midjourney або DALL-E, і ви отримаєте зображення, разюче схожі на шедеври Хаяо Міядзакі: пастельні кольори, пухнасті хмаринки, мрійливі пейзажі, персонажі з великими очима. Це технічно вражає. Але й глибоко проблематично.

Студії Ghibli знадобилися десятиліття, щоб розробити цю особливу естетику: точний вибір кольорової палітри, традиційні техніки анімації та художню філософію, вкорінену в японській культурі та особистому баченні Міядзакі. Коли ШІ-модель відтворює цей "стиль" за лічені секунди, чи справді вона "навчається", як Міядзакі вчився на диснеївській анімації та японській манзі? Чи це просто рекомбінація візуальних патернів, витягнутих з тисяч кадрів Ghibli без дозволу?

Різниця не філософська - вона юридична та економічна. Згідно зі Стенфордським аналізом, опублікованим в arXiv (Carlini et al., 2023), дифузійні моделі, такі як Stable Diffusion, можуть регенерувати майже ідентичні зображення з навчального набору приблизно у 3 відсотках випадків, коли їм дають конкретні підказки. Це не "натхнення", це зберігання і відтворення.

Польський цифровий художник Грег Рутковський виявив, що його ім'я з'явилося в 1,2 мільйонах підказок на Stable Diffusion - ненавмисно ставши одним з найбільш затребуваних "стилів", не даючи на це згоди і не отримуючи компенсації. Як він сказав в інтерв'ю MIT Technology Review: "Я не відчуваю себе задоволеним. Я відчуваю, що в мене вкрали те, що я створював роками.

Суперечка про освіту: цифри 2024-2025 років

Масштаби навчання ШІ досягли безпрецедентних масштабів. LAION-5B, один з найпоширеніших наборів даних для моделей зображень, містить 5,85 мільярда пар зображення-текст, зібраних з інтернету, включно з творами, захищеними авторським правом. GPT-4 навчався на величезних масивах інтернету, включаючи платні статті, книги і запатентовані програмні коди.

Поточні великі судові справи:

  • New York Times проти OpenAI/Microsoft (грудень 2023): Вимога мільярдних збитків, звинувачення у підготовці GPT на десятиліттях захищених статей
  • Getty Images vs Stability AI (лютий 2023): Звинувачення у використанні 12+ мільйонів зображень Getty без ліцензії
  • Колективний позов художників проти Stability AI/Midjourney/DeviantArt (січень 2023 року): тисячі художників подали до суду за систематичне порушення авторських прав
  • Universal Music проти Suno та Udio (червень 2024): Платформи для створення музики звинувачують у навчанні на захищених каталогах

ШІ-компанії захищають цю практику, посилаючись на "добросовісне використання" згідно із законодавством США: вони стверджують, що навчання є "трансформаційним" і не замінює оригінальний ринок. Але кілька судів оскаржують таку інтерпретацію.

Суддя Кетрін Форрест у справі Getty v. Stability AI у січні 2024 року відхилила клопотання про припинення справи, дозволивши їй продовжити розгляд: "Питання про те, чи є навчання АІ-моделей добросовісним використанням, є складним і вимагає ретельного вивчення фактів. Переклад: ШІ-компанії не можуть просто посилатися на добросовісне використання і покінчити з цим.

Торговельні угоди: з'являється ринкове рішення

Зіткнувшись з юридичним тиском, АІ-компанії почали домовлятися про ліцензії. OpenAI уклав угоди з деякими з них:

  • Associated Press (липень 2023): Доступ до архіву новин в обмін на ліцензію
  • Аксель Шпрінгер (грудень 2023): Угода про використання контенту з Politico, Business Insider
  • Financial Times (квітень 2024): Ліцензія на контент для навчання
  • News Corp (травень 2024): Угода на $250 млн на 5 років, доступ до Wall Street Journal, Barron's, New York Post

Google підписав подібні угоди з Reddit, Stack Overflow та різними видавництвами. Anthropic домовився з видавцями про використання книг.

Але ці угоди стосуються лише великих видавництв, які мають можливість вести переговори. Мільйони індивідуальних творців - художників, фотографів, письменників-фрілансерів - залишаються без винагороди за роботи, використані у вже завершеному навчанні.

Людське та машинне навчання: реальна різниця (за межами статистики)

Наратив "ШІ навчається, як людина" технічно оманливий. Давайте подивимося на фундаментальні відмінності:

Масштаб і швидкість: Людина-художник вивчає, можливо, сотні або тисячі творів за все життя. GPT-4 був навчений на трильйонах слів. Стабільна дифузія над мільярдами зображень. Масштаб незрівнянний і перевищує будь-яке розумне визначення поняття "натхнення".

Семантичне розуміння: Коли Ван Гог вивчав японські гравюри, він не механічно копіював візуальні патерни - він розумів основні естетичні принципи (використання негативного простору, асиметрична композиція, акцент на природі) і переосмислював їх через своє європейське постімпресіоністичне бачення. Його роботи є свідомими культурними синтезами.

Моделі штучного інтелекту не "розуміють" у людському розумінні. Як пояснює Мелані Мітчелл, професор Інституту Санта-Фе, у своїй книзі "Штучний інтелект: посібник для мислячих людей": "Системи глибокого навчання досягають успіху в розпізнаванні образів, але їм бракує розуміння причинно-наслідкових зв'язків, абстрактних міркувань або ментальних моделей світу. Stable Diffusion не "розуміє", що робить Ghibli особливим - вона витягує статистичні кореляції між мільйонами пікселів, позначених як "стиль Ghibli".

Творча навмисність: Люди-митці роблять навмисний творчий вибір, заснований на особистому баченні, посланні, яке вони хочуть передати, емоціях, які вони хочуть викликати. Міядзакі включає екологічні теми, пацифізм, фемінізм у свої фільми - свідомий моральний та мистецький вибір.

ШІ генерує на основі статистичних ймовірностей: "Дано підказку X і навчальний набір Y, яка конфігурація пікселів найбільш вірогідна?". Тут немає ні наміру, ні повідомлення, ні бачення. Як писав Тед Чанг у The New Yorker: "ChatGPT - це розмитий jpeg Інтернету" - стиснення з втратами, яке втрачає саме ті якості, які роблять оригінальний контент цінним.

Трансформація проти рекомбінації: Пабло Пікассо вивчав африканські маски, але створив кубізм - абсолютно нову художню течію, яка переосмислила просторову репрезентацію в живописі. Трансформація була радикальною та оригінальною.

Генеративні моделі ШІ працюють шляхом інтерполяції в латентному просторі: вони рекомбінують елементи навчального набору в нові конфігурації, але залишаються прив'язаними до статистичного розподілу даних, на яких вони були навчені. Вони не можуть винайти справді нову естетику, яка порушує вивчені статистичні закономірності. Як показало дослідження Массачусетського технологічного інституту (Shumailov et al., 2023), моделі, багаторазово навчені на попередніх результатах ШІ, поступово вироджуються - це явище називається "колапс моделі".

Парадокс "оригінальності" ШІ

Ось головний парадокс: ШІ може генерувати результати, які виглядають оригінально (жодна людина ніколи раніше не бачила цього конкретного зображення в стилі Ghibli), але є статистично похідними (вони є інтерполяцією існуючих шаблонів). Це поверхнева форма оригінальності без фундаментальних інновацій.

Це має глибокі наслідки. Як стверджував філософ Джон Серль у своєму знаменитому "аргументі китайської кімнати": симулювати когнітивний процес - не те саме, що володіти ним. ШІ може симулювати творчість, не будучи творчим у людському розумінні цього терміну.

Нові технічні та регуляторні рішення

Зіткнувшись з протиріччями, розробляються різні рішення:

Інструменти захисту для художників:

  • Glaze (Чиказький університет): програмне забезпечення, яке застосовує непомітні збурення до зображень, "обманюючи" ШІ-моделі, що намагаються вивчити стиль
  • Nightshade (та ж команда): шкідлива версія, яка "отруює" навчальні дані, пошкоджуючи моделі, які використовують їх без дозволу
  • Понад 250 000 митців скористалися цими інструментами протягом першого року

Реєстри відмови:

  • Have I Been Trained (Spawning AI): база даних, що дозволяє художникам перевірити, чи є їхні роботи в LAION та інших наборах даних, з механізмом відмови від участі
  • Деякі новіші моделі враховують ці відмови (Stability AI оголосив про часткову відповідність)

Система компенсацій:

  • Ліцензія Spawning AI: система мікро-ліцензій для компенсації авторам за використання їхніх творів у навчанні
  • Все ще в експериментальній стадії, не набула широкого розповсюдження

Урядові постанови:

Закон ЄС про штучний інтелект (набув чинності в серпні 2024 року) вимагає від постачальників генеративних моделей штучного інтелекту публікувати докладні зведення про використані навчальні дані, захищені авторським правом. Це перша спроба запровадити прозорість на законодавчому рівні.

Закон штату Теннессі ELVIS (березень 2024 року) спеціально захищає виконавців голосу та зовнішності від несанкціонованого використання в перших штатах США, які впровадили ШІ, спеціальним законодавством щодо глибоких голосових та візуальних підробок.

Пропозиції до Конгресу США включають запити на явну згоду на використання творів, захищених авторським правом (замість відмови), та створення публічних реєстрів навчальних наборів даних.

Майбутнє креативності: Гібридність чи заміна?

Два бачення майбутнього протистоять одне одному:

Оптимістичний погляд (AI-компанії): ШІ - це інструмент, який підсилює людську творчість, як Photoshop або музичні синтезатори. Митці використовуватимуть ШІ, щоб пришвидшити робочі процеси, дослідити варіації, подолати творчі блоки. З'являться гібридні форми мистецтва, де людина керує баченням, а ШІ виконує технічну частину.

Конкретні приклади вже існують: у фільмі "Іній" (2023) штучний інтелект створив фони та текстури, а художники-люди керували режисурою. Музиканти використовують Suno та Udio для створення фонограм для імпровізації. Письменники використовують GPT як "гумову качку" для обговорення сюжетних ідей.

Песимістичний погляд (багато творчих людей): ШІ перетворить творчість на товар, підриваючи економічну цінність творчої праці, доки не виживе лише еліта з винятковими навичками. Середньостатистичну творчість замінять дешеві генератори, знищуючи творчий середній клас - так само, як промислова автоматизація знищила ремісників у 19 столітті.

Попередні дані підтверджують це занепокоєння: на фріланс-платформах, таких як Fiverr, кількість запитів на послуги ілюстраторів та копірайтерів у 2023 році впала на 21% (дані Fiverr за 4-й квартал 2023 року), тоді як кількість пропозицій щодо "генерації мистецтва штучним інтелектом" просто вибухнула. У Грега Рутковського прямі комісійні впали на 40% відтоді, як його стиль став популярним на Stable Diffusion.

Істина, ймовірно, лежить десь посередині: деякі форми творчої роботи будуть автоматизовані (типові стокові ілюстрації, базовий копірайтинг), тоді як високооригінальна, концептуальна, культурно вкорінена творчість залишатиметься сферою людської діяльності.

Останні роздуми: автентичність в епоху досконалої імітації

Розрізнити вміст, створений людиною та ШІ, буде дедалі складніше. Вже сьогодні без водяних знаків або розкриття інформації часто неможливо відрізнити текст GPT-4 від людського тексту або зображення Midjourney від фотографій. Коли Sora (відеогенератор OpenAI) стане загальнодоступним, ця відмінність пошириться і на відео.

Це викликає глибокі питання щодо автентичності. Якщо згенероване штучним інтелектом зображення у стилі Ghibli викликає ті самі емоції, що й оригінал, чи має воно таку саму цінність? Філософ Вальтер Беньямін у своїй праці "Твір мистецтва в епоху його технічної відтворюваності" (1935) стверджував, що механічна відтворюваність руйнує "ауру" оригінального твору - його просторово-часову унікальність та автентичність.

Генеративний ШІ доводить цей аргумент до крайнощів: він не відтворює існуючі твори, а генерує нескінченні варіації, які імітують оригінал, не будучи ним. Це бодріярівський симулякр - копія без оригіналу.

Однак у свідомому творчому акті є щось незмінно людське: художник, який обирає кожен мазок пензля, знаючи, що він хоче донести, письменник, який вибудовує кожну фразу так, щоб викликати певні емоції, композитор, який навмисно створює напругу і розв'язку. ШІ може симулювати результат, але не процес - і, можливо, саме в процесі полягає справжня цінність творчості.

Як написала Studio Ghibli у своїй заяві (листопад 2023 року): "Душа наших фільмів полягає не у візуальному стилі, який можна скопіювати, а у творчих рішеннях, які ми приймаємо кадр за кадром, щоб розповісти історію, яку ми хочемо розповісти. Це неможливо автоматизувати".

Цінність мистецтва, зрештою, випливає з його здатності глибоко зв'язуватися з людським досвідом - змушувати нас відчувати, що нас розуміють, кидають виклик, трансформують. Чи може цього досягти штучний інтелект, залишається відкритим питанням. Але доки мистецтво створюється людьми для людей, говорячи про людський стан, воно зберігатиме те, що не може відтворити жоден алгоритм: автентичність пережитого досвіду, втіленого в естетичну форму.

Джерела:

  • Карліні, Ніколас та ін. - "Вилучення навчальних даних з моделей дифузії", arXiv:2301.13188 (2023)
  • Мітчелл, Мелані - "Штучний інтелект: посібник для мислячих людей" (2019)
  • Чанг, Тед - "ChatGPT - це розмитий JPEG Інтернету", The New Yorker (лютий 2023)
  • Шумайлов, Ілля та ін. - "Прокляття рекурсії: навчання на згенерованих даних змушує моделі забути", arXiv:2305.17493 (2023)
  • MIT Technology Review - "Цей художник домінує в мистецтві, створеному штучним інтелектом, і йому це не подобається" (вересень 2022)
  • Закон ЄС про штучний інтелект - Регламент (ЄС) 2024/1689
  • Беньямін, Вальтер - "Твір мистецтва в епоху його технічної відтворюваності" (1935)
  • Судові позови щодо публічних даних: NYT проти OpenAI, Getty проти Stability AI
  • Звіт про прибутки Fiverr за 4 квартал 2023 року

Ресурси для розвитку бізнесу

9 листопада 2025 року

Регулювання штучного інтелекту для споживчих додатків: як підготуватися до нових правил 2025 року

2025 рік знаменує собою кінець ери "Дикого Заходу" для ШІ: Закон ЄС про ШІ набув чинності в серпні 2024 року, зобов'язання щодо ШІ-грамотності - з 2 лютого 2025 року, управління та GPAI - з 2 серпня. Каліфорнійські першопрохідці з SB 243 (народився після самогубства Сьюелла Сетцера, 14-річного підлітка, який розвинув емоційні стосунки з чат-ботом) накладають заборону на системи нав'язливої винагороди, виявлення суїцидальних думок, нагадування кожні 3 години "Я не людина", незалежний громадський аудит, штрафи в розмірі $1 000 за порушення. SB 420 вимагає проведення оцінки впливу "автоматизованих рішень з високим рівнем ризику" з правом на оскарження з боку людини. Реальне правозастосування: Noom назвав 2022 рік для ботів, які видавали себе за тренерів-людей, виплативши 56 мільйонів доларів. Національна тенденція: Алабама, Гаваї, Іллінойс, Мен, Массачусетс класифікують неповідомлення чат-ботів зі штучним інтелектом як порушення UDAP. Трирівневий підхід до критично важливих систем (охорона здоров'я/транспорт/енергетика): сертифікація перед розгортанням, прозоре розкриття інформації для споживачів, реєстрація загального призначення + тестування безпеки. Регуляторна клаптикова ковдра без федеральних преференцій: компанії з різних штатів повинні орієнтуватися у змінних вимогах. ЄС з серпня 2026 року: інформувати користувачів про взаємодію зі штучним інтелектом, якщо вона не очевидна, вміст, створений штучним інтелектом, має бути позначений як машинозчитуваний.
9 листопада 2025 року

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - встановлення правил у планетарному масштабі за допомогою ринкової влади без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на це креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
9 листопада 2025 року

Винятки: де наука про дані зустрічається з історіями успіху

Наука про дані перевернула парадигму з ніг на голову: викиди більше не є "помилками, які потрібно усунути", а цінною інформацією, яку потрібно зрозуміти. Один викид може повністю спотворити модель лінійної регресії - змінити нахил з 2 до 10, але його усунення може означати втрату найважливішого сигналу в наборі даних. Машинне навчання представляє складні інструменти: Isolation Forest ізолює викиди шляхом побудови випадкових дерев рішень, Local Outlier Factor аналізує локальну щільність, Autoencoders реконструює нормальні дані і повідомляє про те, що вони не можуть відтворити. Існують глобальні викиди (температура -10°C в тропіках), контекстуальні викиди (витрати 1000 євро в бідному районі), колективні викиди (синхронізовані сплески трафіку в мережі, що вказують на атаку). Паралельно з Гладуеллом: "правило 10 000 годин" оскаржується - Пол Маккартні сказав: "Багато гуртів провели 10 000 годин у Гамбурзі без успіху, теорія не є безпомилковою". Азійський математичний успіх є не генетичним, а культурним: китайська система числення більш інтуїтивна, вирощування рису потребує постійного вдосконалення на відміну від територіальної експансії західного сільського господарства. Реальні застосування: британські банки відшкодовують 18% потенційних збитків завдяки виявленню аномалій у реальному часі, виробництво виявляє мікроскопічні дефекти, які не помічає людина, охорона здоров'я перевіряє дані клінічних випробувань з чутливістю виявлення аномалій понад 85%. Останній урок: оскільки наука про дані переходить від усунення відхилень до їх розуміння, ми повинні розглядати нестандартні кар'єри не як аномалії, які потрібно виправляти, а як цінні траєкторії, які потрібно вивчати.