Newsletter

Чому математика - це складно (навіть якщо ви штучний інтелект)

Мовні моделі не вміють множити і запам'ятовувати результати так, як ми запам'ятовуємо число пі, але це не робить їх математиками. Проблема структурна: вони навчаються за статистичною схожістю, а не за алгоритмічним розумінням. Навіть нові "моделі мислення", такі як o1, не справляються з тривіальними завданнями: вони правильно рахують "r" у слові "полуниця" після декількох секунд обробки, але не можуть написати абзац, де друга буква кожного речення складає слово. Преміум-версія за 200 доларів на місяць витрачає чотири хвилини на те, що дитина робить миттєво. DeepSeek і Mistral у 2025 році все ще неправильно рахують літери. Яке рішення з'являється? Гібридний підхід - найрозумніші моделі з'ясували, коли потрібно викликати справжній калькулятор, а не намагатися обчислити самостійно. Зміна парадигми: ШІ не повинен знати, як робити все, а лише організувати правильні інструменти. Останній парадокс: GPT-4 може блискуче пояснити вам теорію меж, але неправильно виконує множення, які кишеньковий калькулятор завжди виконує правильно. Для навчання математики вони чудові - пояснюють з безмежним терпінням, адаптують приклади, розбивають складні міркування. Для точних розрахунків? Точно на калькулятор, а не на штучний інтелект.

Підсумуйте цю статтю за допомогою ШІ

Багато хто покладається на LLM також для виконання математичних операцій. Такий підхід не працює .

Проблема насправді проста: великі мовні моделі (ВММ) насправді не вміють множити. Іноді вони можуть отримати правильний результат, так само, як я можу знати значення числа пі напам'ять. Але це не означає, що я математик, так само як і те, що БММ дійсно знають математику.

Практичний приклад

Приклад: 49858 *59949 = 298896167242 Цей результат завжди однаковий, тут немає середини. Він або правильний, або неправильний.

Навіть з масивною математичною підготовкою найкращим моделям вдається правильно розв'язувати лише частину операцій. З іншого боку, простий кишеньковий калькулятор завжди отримує 100% правильних результатів. І чим більшими стають цифри, тим гірші результати роботи LLM.

Чи можливо вирішити цю проблему?

Основна проблема полягає в тому, що ці моделі навчаються за подібністю, а не за розумінням. Вони найкраще працюють з проблемами, схожими на ті, на яких їх навчали, але ніколи не розвивають справжнього розуміння того, що вони говорять.

Для тих, хто хоче дізнатися більше, я пропоную цю статтю про "як працює LLM".

З іншого боку, калькулятор використовує точний алгоритм, запрограмований для виконання математичних операцій.

Ось чому ми ніколи не повинні повністю покладатися на LLM для математичних розрахунків: навіть за найкращих умов, з величезними обсягами конкретних навчальних даних, вони не можуть гарантувати надійність навіть у найпростіших операціях. Гібридний підхід може спрацювати, але одних лише LLM недостатньо. Можливо, цей підхід буде використаний для вирішення так званої"полуничної проблеми".

Застосування магістерських програм з математики у вивченні математики

В освітньому контексті LLM можуть виступати в ролі персоналізованих тьюторів, здатних адаптувати пояснення до рівня розуміння студента. Наприклад, коли студент стикається із задачею з диференціального числення, LLM може розбити міркування на простіші кроки, надаючи детальні пояснення для кожного етапу процесу розв'язання. Такий підхід допомагає сформувати міцне розуміння фундаментальних понять.

Особливо цікавим аспектом є здатність магістрів наводити релевантні та різноманітні приклади. Якщо студент намагається зрозуміти концепцію межі, LLM може представити різні математичні сценарії, починаючи з простих випадків і переходячи до більш складних ситуацій, таким чином забезпечуючи поступове розуміння концепції.

Одним із перспективних застосувань є використання LLM для перекладу складних математичних понять на більш доступну природну мову. Це полегшує донесення математики до ширшої аудиторії і може допомогти подолати традиційний бар'єр доступу до цієї дисципліни.

Магістри також можуть допомагати у підготовці навчальних матеріалів, створюючи вправи різної складності та надаючи детальний зворотній зв'язок щодо запропонованих студентами рішень. Це дозволяє викладачам краще адаптувати навчальний процес для своїх студентів.

Реальна перевага

У більш загальному плані слід також розглянути надзвичайну "терплячість" у допомозі навіть найменш "здібним" учням у навчанні: у цьому випадку допомагає відсутність емоцій. Незважаючи на це, навіть ай іноді "втрачає терпіння". Дивіться цей "кумедний приклад.

Оновлення 2025: Моделі міркувань та гібридний підхід

2024-2025 роки принесли значні зміни з появою так званих "моделей міркувань", таких як OpenAI o1 та deepseek R1. Ці моделі досягли вражаючих результатів у математичних тестах: o1 правильно розв'язує 83% завдань на Міжнародній математичній олімпіаді, порівняно з 13% для GPT-4o. Але будьте обережні: вони не вирішили фундаментальну проблему, описану вище.

Проблема з полуницею - підрахунок букв "р" у слові "полуниця" - чудово ілюструє стійке обмеження. o1 вирішує її правильно після кількох секунд "міркувань", але якщо ви попросите його написати абзац, де друга буква кожного речення складає слово "КОД", він зазнає невдачі. o1-pro, версія за 200 доларів на місяць, вирішує її... після 4 хвилин обробки. DeepSeek R1 та інші останні моделі все ще помиляються в базовому підрахунку. У лютому 2025 року Mistral продовжував відповідати, що в слові "полуниця" лише дві "р".

Трюк, який з'являється, - це гібридний підхід: коли їм потрібно помножити 49858 на 5994949, більш просунуті моделі більше не намагаються "вгадати" результат на основі схожості з обчисленнями, які вони бачили під час тренувань. Натомість вони викликають калькулятор або виконують код на Python - саме так, як це зробила б розумна людина, яка знає свої межі.

Таке "використання інструментів" являє собою зміну парадигми: штучний інтелект не повинен вміти робити все сам, але повинен вміти організовувати правильні інструменти. Моделі міркувань поєднують лінгвістичні здібності для розуміння проблеми, покрокові міркування для планування рішення і делегування спеціалізованим інструментам (калькуляторам, інтерпретаторам Python, базам даних) для точного виконання.

Який урок? Магістри 2025 року є більш корисними в математиці не тому, щовони "навчилися" множити - вони цього ще не зробили - а тому, що деякі з них почали розуміти, коли варто делегувати множення тим, хто дійсно може це зробити. Основна проблема залишається: вони оперують статистичною схожістю, а не алгоритмічним розумінням. Калькулятор вартістю 5 євро залишається незрівнянно надійнішим для точних обчислень.

Ресурси для розвитку бізнесу

9 листопада 2025 року

Регулювання штучного інтелекту для споживчих додатків: як підготуватися до нових правил 2025 року

2025 рік знаменує собою кінець ери "Дикого Заходу" для ШІ: Закон ЄС про ШІ набув чинності в серпні 2024 року, зобов'язання щодо ШІ-грамотності - з 2 лютого 2025 року, управління та GPAI - з 2 серпня. Каліфорнійські першопрохідці з SB 243 (народився після самогубства Сьюелла Сетцера, 14-річного підлітка, який розвинув емоційні стосунки з чат-ботом) накладають заборону на системи нав'язливої винагороди, виявлення суїцидальних думок, нагадування кожні 3 години "Я не людина", незалежний громадський аудит, штрафи в розмірі $1 000 за порушення. SB 420 вимагає проведення оцінки впливу "автоматизованих рішень з високим рівнем ризику" з правом на оскарження з боку людини. Реальне правозастосування: Noom назвав 2022 рік для ботів, які видавали себе за тренерів-людей, виплативши 56 мільйонів доларів. Національна тенденція: Алабама, Гаваї, Іллінойс, Мен, Массачусетс класифікують неповідомлення чат-ботів зі штучним інтелектом як порушення UDAP. Трирівневий підхід до критично важливих систем (охорона здоров'я/транспорт/енергетика): сертифікація перед розгортанням, прозоре розкриття інформації для споживачів, реєстрація загального призначення + тестування безпеки. Регуляторна клаптикова ковдра без федеральних преференцій: компанії з різних штатів повинні орієнтуватися у змінних вимогах. ЄС з серпня 2026 року: інформувати користувачів про взаємодію зі штучним інтелектом, якщо вона не очевидна, вміст, створений штучним інтелектом, має бути позначений як машинозчитуваний.
9 листопада 2025 року

Регулювання того, що не створюється: чи ризикує Європа залишитися технологічно неактуальною?

Європа залучає лише десяту частину світових інвестицій у штучний інтелект, але претендує на те, щоб диктувати глобальні правила. Це "Брюссельський ефект" - встановлення правил у планетарному масштабі за допомогою ринкової влади без стимулювання інновацій. Закон про штучний інтелект набуває чинності за поетапним графіком до 2027 року, але транснаціональні технологічні компанії реагують на це креативними стратегіями ухилення: посилаючись на комерційну таємницю, щоб уникнути розкриття даних про навчання, створюючи технічно сумісні, але незрозумілі резюме, використовуючи самооцінку, щоб знизити клас систем з "високого ризику" до "мінімального ризику", шукаючи країни-члени з менш суворим контролем. Парадокс екстериторіального авторського права: ЄС вимагає від OpenAI дотримуватися європейських законів навіть для навчання за межами Європи - принцип, який ніколи раніше не зустрічався в міжнародному праві. Виникає "подвійна модель": обмежені європейські версії проти просунутих глобальних версій тих самих продуктів ШІ. Реальний ризик: Європа стає "цифровою фортецею", ізольованою від глобальних інновацій, а європейські громадяни отримують доступ до гірших технологій. Суд ЄС у справі про кредитний скоринг вже відхилив захист "комерційної таємниці", але інтерпретаційна невизначеність залишається величезною - що саме означає "достатньо детальне резюме"? Ніхто не знає. Останнє питання без відповіді: чи створює ЄС етичний третій шлях між американським капіталізмом і китайським державним контролем, чи просто експортує бюрократію в сферу, де вона не конкурує? Наразі: світовий лідер у регулюванні ШІ, маргінал у його розвитку. Величезна програма.
9 листопада 2025 року

Винятки: де наука про дані зустрічається з історіями успіху

Наука про дані перевернула парадигму з ніг на голову: викиди більше не є "помилками, які потрібно усунути", а цінною інформацією, яку потрібно зрозуміти. Один викид може повністю спотворити модель лінійної регресії - змінити нахил з 2 до 10, але його усунення може означати втрату найважливішого сигналу в наборі даних. Машинне навчання представляє складні інструменти: Isolation Forest ізолює викиди шляхом побудови випадкових дерев рішень, Local Outlier Factor аналізує локальну щільність, Autoencoders реконструює нормальні дані і повідомляє про те, що вони не можуть відтворити. Існують глобальні викиди (температура -10°C в тропіках), контекстуальні викиди (витрати 1000 євро в бідному районі), колективні викиди (синхронізовані сплески трафіку в мережі, що вказують на атаку). Паралельно з Гладуеллом: "правило 10 000 годин" оскаржується - Пол Маккартні сказав: "Багато гуртів провели 10 000 годин у Гамбурзі без успіху, теорія не є безпомилковою". Азійський математичний успіх є не генетичним, а культурним: китайська система числення більш інтуїтивна, вирощування рису потребує постійного вдосконалення на відміну від територіальної експансії західного сільського господарства. Реальні застосування: британські банки відшкодовують 18% потенційних збитків завдяки виявленню аномалій у реальному часі, виробництво виявляє мікроскопічні дефекти, які не помічає людина, охорона здоров'я перевіряє дані клінічних випробувань з чутливістю виявлення аномалій понад 85%. Останній урок: оскільки наука про дані переходить від усунення відхилень до їх розуміння, ми повинні розглядати нестандартні кар'єри не як аномалії, які потрібно виправляти, а як цінні траєкторії, які потрібно вивчати.