Штучний інтелект в праві: Чому згенерований договір може коштувати вам судового програшу
Аналіз ризиків використання ШІ в юриспруденції від керуючого партнера юридичної фірми. Чому договір ChatGPT може бути визнаний нікчемним, проблеми авторського права AI та реальні кейси 2026 року.
Бізнес любить швидкість. Коли з'явилася можливість за 30 секунд згенерувати "ідеальний" контракт замість того, щоб платити юристу за три години роботи, багато хто подумав, що спіймав удачу за хвіст. Ми в Law Business Association (LBA) спостерігаємо нову хвилю клієнтів. Вони приходять не на етапі створення бізнесу, а коли їхні рахунки вже заблоковані, а договори, написані "розумним ботом", визнаються судами нікчемними.
У 2026 році штучний інтелект в праві — це вже не футурологія, а мінне поле. Сьогодні ми розберемо, де саме вибухає економія на юридичній безпеці, чому договір ChatGPT часто є юридичним сміттям та як захистити свої активи від "галюцинацій" нейромереж.
Ілюзія компетентності: як ШІ фабрикує реальність
Почнемо з бази. Штучний інтелект, яким би просунутим він не був, не розуміє права. Він розуміє вірогідність наступного слова в реченні. Коли ви просите написати зовнішньоекономічний контракт, бот видає текст, який виглядає як юридичний документ. Там є розділи, є терміни, є навіть посилання на закони.
Проблема в тому, що ці закони часто не існують.
В моїй практиці був випадок, коли клієнт приніс договір поставки, згенерований ШІ. У розділі про форс-мажор бот послався на "Статтю 14-Б Закону України про надзвичайні стани". Такої статті немає. Більше того, формулювання відповідальності були взяті з права штату Каліфорнія, перекладені українською.
Для українського судді такий документ — це подарунок. Відповідно до статті 203 Цивільного кодексу України (ЦКУ), зміст правочину не може суперечити цьому Кодексу та іншим актам цивільного законодавства. Якщо ваш договір посилається на неіснуючі норми або суперечить імперативним вимогам українського законодавства (які ШІ часто ігнорує, бо навчався на англомовних даних), такий правочин може бути визнаний недійсним.

Галюцинації ШІ та судова практика 2025-2026
Термін "галюцинація" в контексті ШІ означає впевнену генерацію неправдивої інформації. У юридичній площині це катастрофа. Вже є рішення українських судів, де посилання на неіснуючі прецеденти Верховного Суду, згенеровані помічником-адвокатом через ChatGPT, призводили до окремих ухвал щодо зловживання процесуальними правами.
Суддя не буде розбиратися, хто писав ваш позов чи договір — ви чи алгоритм. Підпис стоїть ваш. Відповідальність — ваша. Це підпадає під поняття "введення суду в оману", що межує з неповагою до суду.
Юридичні ризики AI в документообігу: погляд опонента
Давайте подивимося на ситуацію очима вашого опонента або слідчого БЕБ. Їхнє завдання — знайти слабке місце, щоб визнати угоду фіктивною, донарахувати податки або забрати актив.
Коли ми в LBA проводимо Legal Due Diligence для захисту від рейдерства, ми першим ділом шукаємо формальні ознаки дефектності документів. Текст, написаний ШІ, має специфічні маркери:
- Вживання нехарактерних для українського ділового обороту зворотів (кальки з англійської).
- Розмиті формулювання обов'язків ("докласти найкращих зусиль" замість чітких KPI).
- Відсутність прив'язки до актуальних реєстрів.
Для податкової це червона ганчірка. Якщо акт виконаних робіт складено з розмитими формулюваннями (що любить робити ШІ), інспектор заявить про нереальність господарської операції. Результат: невизнання витрат, донарахування ПДВ та штрафи. Тут виникають реальні юридичні ризики AI, які конвертуються у фінансові збитки.
Авторське право AI: кому належить результат?
Ось питання, яке ставить у глухий кут багатьох IT-бізнесменів та креаторів. Ви згенерували код, логотип або текст договору за допомогою Midjourney чи GPT-5. Хто власник?
В Україні, згідно з Законом "Про авторське право і суміжні права" та роз'ясненнями, що формуються у практиці 2025-2026 років, суб'єктом авторського права може бути лише фізична особа. Твір має бути результатом творчої діяльності людини.
Якщо ви використовуєте згенерований контент без суттєвої переробки (Human-in-the-loop), він фактично потрапляє у суспільне надбання (Public Domain). Це означає:
- Конкурент може скопіювати ваш "унікальний" дизайн, і ви нічого не зробите.
- Ви не зможете поставити цей актив на баланс як нематеріальний актив (НМА) без ризику податкової перевірки.
Тут в гру вступає авторське право AI та Prompt Engineering. Ми в LBA зараз розробляємо стратегії захисту, де сам промт (запит) та лог редагування результату виступають доказами творчого внеску людини. Це тонка матерія, де ліцензійний договір з платформою (Terms of Use OpenAI, наприклад) має критичне значення. Більшість користувачів навіть не читають пункт про те, що платформа може використовувати ваші дані для навчання моделей. А це вже ризик витоку конфіденційної інформації.
Обман та кібершахрайство: новий рівень загроз
Ще одна грань, з якою ми працюємо у сфері кримінально-правового захисту (White-collar crime), — це використання ШІ шахраями. Обман та зловживання довірою (ст. 190 ККУ) набули нових форм.
Голосові діпфейки директорів, які наказують бухгалтеру переказати кошти, — це вже буденність. Але є і більш витончені схеми: генерація фейкових судових рішень або витягів з реєстрів, які виглядають ідеально. Рейдери використовують ці інструменти для створення видимості законності своїх дій перед державними реєстраторами.
Тут працює тільки жорстка верифікація. Ми завжди рекомендуємо перевіряти будь-який "документ" через офіційні першоджерела:
- Єдиний державний реєстр судових рішень
- Сервіси моніторингу на кшталт YouControl
- Офіційний портал Верховної Ради України для перевірки чинності норм.
Цивільно-правові відносини та відповідальність розробника
Якщо ШІ помилився і ви через це втратили гроші, на кого подавати в суд? На OpenAI? На Microsoft?
Умови використання (Terms of Use) більшості платформ містять пункт "AS IS" (як є). Вони прямо відмовляються від відповідальності за точність інформації. Ви погоджуєтеся з цим, натискаючи "Accept". Тому в суді цивільно-правові відносини будуть розглядатися виключно між вами та вашим контрагентом. Аргумент "мене ввів в оману чат-бот" суд не прийме. Ви діяли на свій страх і ризик.
Це підводить нас до концепції "професійної недбалості". Якщо юрист використовує ШІ і не перевіряє результат, він несе повну дисциплінарну та майнову відповідальність перед клієнтом. Саме тому в LBA ми використовуємо технології лише для аналізу масивів даних, але фінальний документ — це завжди ручна робота та особистий підпис партнера.
Legal Hacks: як безпечно інтегрувати технології
Ми не луддити. Ми використовуємо інструменти для пришвидшення рутини. Але є правила "гігієни", які ми впровадили у себе і радимо клієнтам:
- Ізоляція даних. Ніколи не завантажуйте в публічні чат-боти конфіденційні договори з іменами, сумами та комерційною таємницею. Це пряме порушення NDA.
- Верифікація "рентгеном". Кожне посилання на статтю закону має бути перевірене в базі Rada.gov.ua. Кожне судове рішення — в Реєстрі.
- Гібридний підхід. Використовуйте ШІ для брейнштормінгу ідей або структурування, але написання тіла правочину залиште профільному спеціалісту.
- Юридичний висновок (Legal Opinion). Якщо ви впроваджуєте ШІ-продукт у свій бізнес, замовте аналіз ризиків. Це дешевше, ніж потім відбиватися від позовів про порушення прав інтелектуальної власності.
FAQ: Питання, які нам ставлять найчастіше
1. Чи можна використовувати ChatGPT для написання позовної заяви?
Технічно — так, юридично — це самогубство. Бот не знає процесуальних тонкощів ГПК чи ЦПК України, строків давності та актуальної позиції Великої Палати Верховного Суду. Ви ризикуєте отримати відмову у відкритті провадження через формальні помилки.
2. Як довести авторство на зображення, створене нейромережею?
На даний момент — майже ніяк, якщо ви не доведете суттєвий творчий внесок людини (складний промт, постобробка в Photoshop, колажування). Просто генерація за кнопкою "Create" не створює об'єкта авторського права.
3. Чи є згенерований договір дійсним?
Він дійсний, якщо ви його підписали і він не суперечить закону. Але ризик того, що в ньому закладені "бомби уповільненої дії" (суперечності, нечинні норми), наближається до 90%.
4. Чи можемо ми звільнити юриста і замінити його підпискою на AI?
Можете, якщо готові взяти на себе функції головного юрисконсульта. ШІ — це інструмент, як скальпель. У руках хірурга він рятує життя, у руках дитини — це небезпечна іграшка.
Висновки
Штучний інтелект в праві — це потужний підсилювач, але він підсилює як компетентність, так і дурість. Покладання на алгоритми без фахового контролю призводить до створення юридичних фікцій, які розсипаються при першому ж судовому засіданні.
За 20 років практики ми в LBA бачили багато спроб "хакнути систему". Спроба замінити досвідченого адвоката мовною моделлю — це одна з найдорожчих помилок, яку може зробити бізнес у 2026 році.
Не ризикуйте своєю репутацією та активами заради економії, яка є ілюзорною. Якщо ви впроваджуєте ШІ або маєте сумніви щодо документів, створених за допомогою новітніх технологій — звертайтеся до професіоналів.
Ми знаємо, як перетворити технології з джерела ризику на інструмент захисту.
Автор: Денис Федоркін, керуючий партнер Law Business Association

