«Комп’ютери — це надомні працівники, а не господарі, чиїм операціям сторони, як можна вважати, беззастережно підкорилися за таких незвичайних обставин»
Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час! |
Шановний лорд Джонатан Г’ю Манс, міжнародний суддя (IJ) Сингапурського міжнародного комерційного суду (SICC)
Швидкий розвиток штучного інтелекту (ШІ) має вагомий вплив на різні аспекти життя суспільства. І система правосуддя не є винятком.
В останні десятиліття правова система зазнала значних змін завдяки впровадженню технологій: розвиток інформаційно-правових систем для роботи із законодавством, створення офіційного реєстру судових рішень та інформаційно-правових систем для роботи із судовою практикою. З появою штучного інтелекту процеси, які тривали десятиліттями, прискорилися в рази. Таке прискорення зумовлює питання про образ судді наступного десятиліття. Очевидно, що такий суддя буде розумно-технологічним.
В Україні ситуація з регулюванням використання штучного інтелекту в судочинстві на нормативному рівні має формальний характер. По суті, наше професійне правниче середовище тільки оцінює перспективи застосування ШІ. Наприклад, у вересні-грудні 2023 року дослідницькою агенцією Fama на замовлення та у партнерстві з Центром Дністрянського за підтримки Європейського Союзу та Міжнародного фонду «Відродження» у межах спільної ініціативи «Європейське Відродження України» реалізовано проєкт дослідження перспектив і меж використання штучного інтелекту в кримінальному процесі [1].
Отже, в Україні застосування штучного інтелекту в контексті здійснення судочинства потребує більш активних і конкретних дій щодо визначення способів його використання. Актуальність застосування ШІ в контексті здійснення судочинства виражається у двох аспектах:
1) спори, пов’язані зі штучним інтелектом;
2) використання ШІ в судочинстві.
Спори, пов’язані зі штучним інтелектом
Велика Британія. Розробник і дослідник штучного інтелекту Стівен Талер вже кілька років у різних юрисдикціях намагається довести, що його DABUS (абревіатура від Device for the Autonomous Bootstrapping of Unified Sentience — пристрій автономного завантаження уніфікованої свідомості) розумний. Талер переконаний, що створювані DABUS об’єкти інтелектуальної власності мають бути захищені.
Апеляційний суд Англії та Уельсу розглянув справу «Талер проти Генерального контролера патентів, торговельних марок і зразків» [2].
Стівен Талер подав заявки на отримання патентів на винаходи та зазначив, що винахідником є його машина під назвою DABUS, а права на винахід повинні належати йому, адже ця машина його. Реєстраційний орган зазначив, що DABUS не є особою, як це передбачено законом, і тому не може вважатися винахідником. Оскільки DABUS не є особою, вона не може передати права на патент особі. Власник DABUS не має права на винахід, зроблений його машиною. З урахуванням того, що заявник не усунув недоліки заявки (не вказав винахідника і відповідні причини, чому права на винахід повинні належати заявнику), вона вважається відкликаною.
Суд першої інстанції вказав, що DABUS не є і не може бути винахідником у розумінні закону просто тому, що DABUS не є особою. Для отримання патенту необхідно подати заявку, і це має зробити особа. Тому абсолютно неможливо сказати, що просто тому, що DABUS щось винайшла і доктор Талер володіє DABUS, то доктор Талер має право на видачу патенту. Повинна бути або заявка винахідника (яка не може бути подана, оскільки DABUS не є ні винахідником, ні особою), або винахідник має передати право на подачу заявки, що дозволило б доктору Талеру подавати заявку. Питання про те, чи можна власника/контролера машини зі штучним інтелектом, яка щось «винаходить», назвати винахідником, не обговорювалося. Доктор Талер категорично відмовився висунути цю заяву не лише тому, що вважав її поганою з юридичного погляду, але, що важливіше, тому що (з погляду моралі) він вважав, що незаконно приписує винахід, який не належить йому. Зрозуміло, що заявник вирішує, які аргументи наводити щодо патентних заявок.
На думку більшості суддів апеляційного суду, у цій справі доктор Талер не вказав «особу або осіб, яких він вважає винахідником або винахідниками», як того вимагає закон. З огляду на форму, яку він подав, д-р Талер не виконав жодної з вимог закону, і неминучим наслідком цього є те, що заявки вважаються відкликаними. Це не для того, щоб запровадити якусь нову, не передбачену законом підставу для відмови у видачі патентних заявок. Навпаки, він надає чинності законодавчим вимогам, згідно з якими винахідник має бути фізичною особою, а заявник, який не є винахідником, повинен мати можливість, принаймні в принципі, подати заявку на патент щодо винаходу. Якби д-р Талер міг встановити, що закон не вимагав, щоб винахідник був особою, і що відповідно до закону він міг отримати своє право подати заявку на отримання патентів щодо винаходів виключно з його права власності на DABUS, тоді позиція була б іншою. Але з урахуванням того, що заявки не відповідають двом важливим законодавчим вимогам, було б неправильно дозволити їх продовжити, особливо тому, що закон не передбачає іншого механізму розв’язання проблеми невідповідності.
США. У 2023 році федеральний суд США ухвалив рішення щодо можливості зареєструвати авторські права на твір образотворчого мистецтва, створений штучним інтелектом DABUS (STEPHEN THALER, Plaintiff, v. SHIRA PERLMUTTER, Register of Copyrights and Director of the United States Copyright Office, Case 1:22-cv-01564-BAH) [3].
Позивач розробляє і йому належать комп’ютерні програми, які він описує як такі, що мають штучний інтелект і здатні генерувати оригінальні твори образотворчого мистецтва, подібні до результатів діяльності людського художника. Одна з таких систем ШІ, так звана машина творчості, створила роботу під назвою «Недавній вхід до раю». Стівен Талер намагався зареєструвати цей твір для отримання авторського права, зазначивши комп’ютерну систему як автора і пояснивши, що авторське право повинно передаватися йому як власнику машини. Управління авторських прав відхилило заяву на підставі того, що твір не має людської авторської складової.
Суд у позові відмовив, оскільки людська авторська складова є суттєвою частиною дійсної претензії на авторське право.
При цьому суд, зокрема, вказав, що:
• На початку існування як авторського, так і патентного права розумілося, що це форми власності, які уряд мав за завдання захищати, і приймалося, що визнання виключних прав на цю власність сприятиме загальному добру, заохочуючи осіб до творчості і винаходів. Дія людського створення і найкращий спосіб стимулювати людей до такої творчості та сприяти розвитку науки і корисних мистецтв були центральними в американському авторському праві. Нелюдські суб’єкти не потребують стимулювання обіцянкою виключних прав за законами Сполучених Штатів, отже, авторське право не було спрямовано на них.
• Розуміння того, що «авторство» є синонімом людського створення, залишається актуальним, навіть з урахуванням того, як законодавство про авторське право в тих чи інших аспектах змінювалося. Вимога до людського авторства також постійно визнавалася Верховним Судом, коли йому доводилося тлумачити авторське право.
• Безсумнівно, ми наближаємося до нових горизонтів у галузі авторського права, оскільки художники включають штучний інтелект до свого інструментарію для використання у створенні нових образотворчих та інших художніх творів. Збільшена віддаленість творчості людини від фактичного створення кінцевого твору породить складні питання щодо того, яка кількість людського внеску необхідна для визнання користувача системи ШІ «автором» створеного твору, обсягу захисту, отриманого над відповідним зображенням, як оцінити оригінальність творів, створених штучним інтелектом, де системи можуть бути навчені на невідомих раніше наявних творах, як авторське право може найкраще заохочувати творчість, що містить штучний інтелект, та інші питання.
У грудні 2023 року американська газета The New York Times подала позов про відшкодування шкоди до розробника штучного інтелекту Open AI (чат-бота ChatGPT) [4].
The New York Times вважає, що Open AI порушила авторські права при навчанні чат-бота ChatGPT, оскільки для цього використовувалися мільйони унікальних статей газети.
Сингапур. Цікавий кейс розглядався Апеляційним судом Сингапуру (Quoine Pte Ltd v. B2C2 Ltd [2020] [5]) між криптовалютною біржею і трейдером щодо можливості оспорювання на підставі помилки смарт-контракту, який укладений комп’ютерними алгоритмами [6].
Апеляційний суд Сингапуру вважав, що у випадках, коли договори укладаються за допомогою детермінованих алгоритмів, будь-який аналіз, що стосується знання про помилку, має проводитися з посиланням на стан розуму програмістів алгоритмів під час програмування (п. 97).
Лорд Манс не погодився з позицією більшості та виклав окрему думку. Зокрема, вказав, що «чи застосовуються звичайні правові принципи, чи, можливо, їм потрібно адаптуватися, коли трейдери передають свої справи комп’ютерам, що працюють за алгоритмом? Комп’ютери, про які йдеться, були «детермінованими», тобто працювали згідно із заздалегідь визначеними алгоритмічними програмами, встановленими людьми. Отже, це стосується норм, які застосовуються, коли машини механістично стискаються, посилаючись на введені ними дані, і помилково введення даних переривається, тому результат стає фундаментально спотвореним» (п. 152). «Ключове питання полягає в тому, чи слід застосовувати помилку так, щоб не враховувати обставини, які зазвичай є важливими для її застосування, просто тому, що сторони довірили свої операції комп’ютерам, які не можуть мати свідомості. Закон має бути адаптований до нового світу алгоритмічних програм і штучного інтелекту так, щоб отримати результати, яких розум і справедливість могли б очікувати. Впровадження комп’ютерів, безсумнівно, несе в собі ризики, але я не вважаю, що вони включають ризик бути зв’язаним алгоритмічним контрактом, який будь-хто, дізнавшись про нього, одразу побачить, що це може бути лише результатом якоїсь фундаментальної помилки. Комп’ютери — це надомні працівники, а не господарі, чиїм операціям сторони, як можна вважати, беззастережно підкорилися за таких незвичайних обставин» (п. 197).
Австралія. В IP Australia провели дослідження щодо того, як генеративний штучний інтелект позначиться на сфері інтелектуальної власності [7].
Зокрема зауважується, що генеративний ШІ — це революційна зміна для системи інтелектуальної власності. Генеративний штучний інтелект внесе цілу низку нових і глибоких питань або порушить наявні до нового рівня. Генеративний ШІ призведе до зміни учасників системи інтелектуальної власності.
Використання штучного інтелекту в судочинстві
ЄС. Першим у світі комплексним законом про ШІ є Закон ЄС про штучний інтелект [8]. Він спрямований на усунення ризиків для здоров’я, безпеки та основних прав, а також захищає демократію, верховенство права та навколишнє середовище. Тому використання технологій ШІ в судочинстві повинно здійснюватися саме крізь призму цих основних гарантій.
Велика Британія. В Англії та Уельсі 12 грудня 2023 року оприлюднено посібник Artificial Intelligence (AI) Guidance for Judicial Office Holders [9], який розроблено з метою надання допомоги працівникам судових органів у питаннях використання штучного інтелекту. У ньому викладено основні ризики та проблеми, пов’язані з використанням ШІ, деякі пропозиції щодо їх мінімізації, а також наведено приклади потенційного використання. Будь-яке використання штучного інтелекту судовою владою або від її імені має відповідати головному обов’язку судової влади — захищати доброчесність при здійсненні правосуддя.
У посібнику до потенційно корисних завдань віднесено:
• інструменти ШІ здатні узагальнювати великі масиви тексту (як і з будь-яким іншим резюме, необхідно подбати про те, щоб воно було точним);
• інструменти ШІ можна використовувати для написання презентацій, наприклад, щоб запропонувати теми для висвітлення;
• адміністративні завдання, такі як створення електронних листів і меморандумів, можуть виконуватися за допомогою ШІ.
До завдань, які не рекомендується виконувати за допомогою ШІ, належать:
• юридичні дослідження: інструменти штучного інтелекту — поганий спосіб проведення досліджень для пошуку нової інформації, яку ви не можете перевірити самостійно; вони можуть бути корисними як спосіб нагадування про матеріал, який ви вважаєте правильним;
• юридичний аналіз: сучасні загальнодоступні чат-боти зі штучним інтелектом не дають переконливого аналізу чи аргументації.
The Telegraph пише про те, що суддя Апеляційного суду назвав ChatGPT «дуже корисним» після того, як він використав чат-бот зі штучним інтелектом для написання частини рішення [10].
Лорд-суддя Бірс, який спеціалізується на праві інтелектуальної власності, сказав, що він використовував інструмент для генерації тексту, щоб підсумувати знайому йому галузь права, перш ніж скопіювати і вставити її слова в судове рішення.
Виступаючи на конференції, лорд-суддя Бірс зазначив, що ChatGPT і подібні програми зі штучним інтелектом мають «великий потенціал». Він додав: «Я думаю, що найбільший інтерес представляє те, що ви можете попросити ці великі мовні моделі узагальнити інформацію. Це корисно, і це буде використовуватися, і я можу сказати вам, що я використовував це. Я запитав ChatGPT, чи можете видати мені короткий виклад цієї галузі права, і він видав мені параграф. Я знаю, яка відповідь, тому що збирався написати абзац, в якому говорилося про це, але він зробив це за мене, і я включив його у своє рішення. Він дуже корисний. Я беру на себе повну особисту відповідальність за те, що я вкладаю у своє рішення, я не намагаюся перекласти відповідальність на когось іншого. Усе, що він зробив — це завдання, яке я збирався виконати, на яке я знав відповідь і яке міг визнати прийнятним».
США. Stanford University повідомляє про публікацію нового препринт дослідження Stanford RegLab and Institute for Human-Centered AI про «Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models» [11].
Юридична галузь перебуває на порозі серйозної трансформації, зумовленої появою таких LLM-систем, як ChatGPT, PaLM, Claude та Llama. Ці вдосконалені моделі, оснащені мільярдами параметрів, здатні не лише обробляти, а й генерувати об’ємні, авторитетні тексти на широке коло тем. Їхній вплив стає все більш очевидним у різних аспектах повсякденного життя, зокрема щодо їхнього зростаючого використання в юридичній практиці. Великі мовні моделі (ВММ) мають потенціал трансформувати юридичну практику, але цей потенціал загрожує наявністю правових галюцинацій — відповідей цих моделей, які не узгоджуються з юридичними фактами.
У дослідженні, зокрема, вказується, що:
• Правові галюцинації є поширеними і тривожними: рівень галюцинацій коливається від 69% до 88% у відповідь на конкретні юридичні запити до найсучасніших мовних моделей.
• LLMs часто не виправляють неправильні правові припущення користувача у суперечливих запитаннях. LLMs не завжди можуть передбачити або не завжди знають, коли вони створюють правові галюцинації. Взяті разом, ці висновки застерігають від швидкої та неконтрольованої інтеграції популярних LLMs у юридичні завдання. Навіть досвідчені юристи повинні остерігатися юридичних галюцинацій, а ризики є найвищими для тих, хто отримує найбільшу вигоду від LLMs — учасників судових процесів або тих, хто не має доступу до традиційних юридичних ресурсів.
• Цим моделям часто бракує самоусвідомлення своїх помилок, і вони мають тенденцію зміцнювати неправильні правові припущення і переконання. Ці висновки викликають значне занепокоєння щодо надійності LLM в юридичному контексті, підкреслюючи важливість ретельної, контрольованої інтеграції цих технологій ШІ в юридичну практику.
Канада. 20 грудня 2023 року Federal Court in Ottawa опублікував Тимчасові принципи та настанови щодо використання судом штучного інтелекту [12].
Федеральний суд вказав, що дотримуватиметься принципів і настанов, викладених у цій політиці, при використанні штучного інтелекту. Суд не використовуватиме ШІ, а точніше автоматизовані інструменти прийняття рішень, при винесенні своїх рішень і наказів без попереднього проведення консультацій із громадськістю. Для більшої визначеності це передбачає окреслення судом питань, порушених сторонами, як це відображено в мотивувальній частині рішення та в мотивувальній частині наказу або в будь-якому іншому рішенні, прийнятому судом у провадженні. Для отримання інформації про використання штучного інтелекту сторонами, особами, які представляють себе самостійно, та іншими особами слід звернутися до Повідомлення про використання ШІ в судовому провадженні.
У Повідомленні про використання штучного інтелекту в судовому провадженні, зокрема, зазначено, що:
• Cуд очікує, що сторони, які беруть участь у провадженні в суді, інформуватимуть суд та одна одну, якщо вони використовували ШІ для створення або генерування нового контенту при підготовці документа, поданого до суду. Якщо будь-який такий контент був включений до документа, поданого до суду стороною або третьою стороною чи від її імені, перший абзац тексту такого документа повинен містити інформацію про те, що для створення або генерування такого контенту було використано ШІ. Це Повідомлення вимагає від адвокатів, сторін та інших учасників судових процесів у Федеральному суді зробити декларацію щодо контенту, створеного за допомогою штучного інтелекту («Декларація»), а також враховувати певні принципи («Принципи») при використанні ШІ для підготовки документації, що подається до суду.
• Це Повідомлення застосовується до всіх документів, які (i) подаються до суду та (ii) готуються для цілей судового розгляду. Для більшої визначеності це Повідомлення не поширюється на засвідчені судові документи, подані судами або іншими третіми сторонами, які приймають рішення. Суд визнає, що штучний інтелект може запропонувати значні переваги при підготовці документів. Однак суд також має зобов’язання підтримувати цілісність судових проваджень, захищати довіру громадськості до системи правосуддя та підтримувати верховенство права. Щоб забезпечити розуміння судом того, як використовувався ШІ, будь-який документ, підготовлений для цілей судового розгляду і поданий до суду стороною або від її імені, який містить контент, створений або згенерований за допомогою ШІ, повинен містити Декларацію.
• Суд визнає, що нові технології часто несуть як можливості, так і виклики. Нещодавно було висловлено значне занепокоєння щодо використання штучного інтелекту в судочинстві суду, зокрема щодо «глибоких фейків», потенційної фабрикації юридичних повноважень за допомогою штучного інтелекту та використання генеративних інструментів прийняття рішень державними службовцями. Суд та його основні зацікавлені сторони зобов’язані вжити заходів для розв’язання цих проблем. Крім того, суд розуміє, що є як етичні питання, так і питання доступу до правосуддя, пов’язані з використанням ШІ адвокатом, коли його клієнт може бути не знайомий зі штучним інтелектом і його різним застосуваннями. Перш ніж використовувати ШІ в процесі, суд закликає адвокатів розглянути можливість надання традиційних людських послуг клієнтам, якщо є підстави вважати, що клієнт може бути не знайомий зі штучним інтелектом або не бажає його використовувати.
Україна. В ухвалі Касаційного господарського суду в складі Верховного Суду від 8 лютого 2024 року у справі №925/200/22 зазначено, що заявник цитує норми ст.ст. 509, 510, 526 ЦК України, положення підручника «Цивільне право» (том 2. За ред. професорів В.І. Борисової, І.В. Спасибо-Фатєєвої, В.Л. Яроцького), а також зміст поняття «добровільне зобов’язання», що надав штучний інтелект ChatGPT. Скаржник звертає увагу, що штучний інтелект ChatGPT ідентифікував цю правову конструкцію як зобов’язання (у теоретичному розумінні), до якого сторони дійшли добровільно (за власним волевиявленням), без втручання в зміст поняття. Тому, на думку заявника, враховуючи теоретичне визначення поняття «зобов’язання», підлягає роз’ясненню поняття «добровільне зобов’язання», яке вжите судом — визначення суб’єктів, об’єкта і змісту такого поняття та визначення його відмінності від теоретичного визначення «зобов’язання» (суб’єкта, об’єкта, змісту цього поняття). Тобто заявник фактично просить Верховний Суд спростувати чи підтвердити те, що з окресленого питання згенерував штучний інтелект ChatGPT, який не визнається як джерело достовірної, науково доведеної інформації, на противагу висновкам, що були зроблені судом у судовому рішенні. У такий спосіб заявник поставив під сумнів суддівський розсуд і судове тлумачення цього питання у рішенні, що набуло статусу остаточного, чим знехтував авторитет судової влади [13].
В окремій думці судді Касаційного господарського суду в складі Верховного Суду в цій справі зазначено, що чинне господарське процесуальне законодавство не містить заборони використання технологій штучного інтелекту під час здійснення господарського судочинства. Крім того, у судовій практиці відсутній усталений підхід та чіткі критерії, за якими використання ШІ учасниками судового процесу може визнаватися зловживанням процесуальними правами [14].
Замість висновків
1. В Україні правниче середовище тільки задумується над оцінкою перспектив застосування штучного інтелекту при здійсненні судочинства.
2. Очевидно, що напрями запровадження унормування використання штучного інтелекту при здійсненні судочинства мають виражатися у двох аспектах: створення законодавства та напрацювання судової практики в спорах, пов’язаних із ШІ; запровадження унормування використання штучного інтелекту при здійсненні судочинства.
3. За обома напрямами за останні роки у правових системах країн-партнерів відбуваються суттєві зміни на рівні законодавства у контексті відповідних судових спорів і реакції судової влади на відповідні потреби.
4. Регулювання використання штучного інтелекту в судочинстві на початкових етапах як захід оперативного регулювання за прикладом вже запроваджених підходів у країнах-партнерах може здійснюватися Вищою радою правосуддя або Верховним Судом через надання роз’яснень рекомендаційного характеру про використання ШІ в судочинстві.
[1] Застосування ШІ в кримінальному правосудді України: Fama та Центр Дністрянського проводять дослідження. Юридична Газета. 2023. 4 груд. URL: https://yur-gazeta.com/golovna/zastosuvannya-shi-v-kriminalnomu-pravosuddi-ukrayini-fama-ta-centr-dnistryanskogo-provodyat-doslidzh.html.
[2] Цікавий кейс розглядався Апеляційним судом Англії та Уельсу (Thaler v Comptroller General of Patents Trade Marks And Designs [2021] EWCA Civ 1374, 21 September 2021) між Стівеном Талером та реєстраційним органом щодо можливості зазначити винахідником патенту машину DABUS (Device for Autonomous Bootstraping of Unified Sentience). British and Irish Legal Information Institute. URL: https://www.bailii.org/ew/cases/EWCA/Civ/2021/1374.html.
[3] Цікавий кейс розглядався судом у США (STEPHEN THALER, Plaintiff, v. SHIRA PERLMUTTER, Register of Copyrights and Director of the United States Copyright Office, Case 1:22-cv-01564-BAH) щодо можливості зареєструвати авторські права на твір образотворчого мистецтва, створений штучним інтелектом. URL: https://cdn.patentlyo.com/media/2023/08/THALER-v.-PERLMUTTER-et-al-Docket-No.-1_22-cv-01564-D.D.C.-Jun-02-2022-Court-Docket-1.pdf.
[4] У грудні 2023 року американська газета The New York Times подала позов про відшкодування шкоди до розробника штучного інтелекту Open AI (чат-бота ChatGPT). Трохи про приватне право. URL: https://t.me/glossema/1520
[5] Quoine Pte Ltd v. B2C2 Ltd [2020]. Singapore International Commercial Court (SICC). URL: https://www.sicc.gov.sg/docs/default-source/modules-document/judgments/quoine-pte-ltd-v-b2c2-ltd.pdf.
[6] Цікавий кейс розглядався Апеляційним судом Сингапуру (Quoine Pte Ltd v. B2C2 Ltd [2020]) між криптовалютною біржею та трейдером щодо можливості оспорювання на підставі помилки смарт-контракту, який вчинений комп’ютерними алгоритмами. Трохи про приватне право. URL: https://t.me/glossema/549.
[7] У IP Australia провели дослідження щодо того, як генеративний штучний інтелект позначиться на сфері інтелектуальної власності. IP Australia. URL: https://www.ipaustralia.gov.au/news-and-community/news/2023/07/07/04/48/generative-ai-and-the-ip-system-what-does-it-all-mean.
[8] Why do we need to regulate the use of Artificial Intelligence? European Commission. URL: https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683.
[9] Artificial Intelligence (AI) Guidance for Judicial Office Holders // Courts and Tribunals Judiciary. URL: https://www.judiciary.uk/wp-content/uploads/2023/12/AI-Judicial-Guidance.pdf.
[10] The Telegraph пише про те, що суддя Апеляційного суду назвав ChatGPT «дуже корисним» після того, як він використав чат-бот зі штучним інтелектом для написання частини рішення// The Telegraph. URL: https://www.telegraph.co.uk/business/2023/09/14/british-judge-uses-jolly-useful-chatgpt-to-write-ruling/.
[11] Stanford University повідомляє про публікацію нового препринт дослідження Stanford RegLab and Institute for Human-Centered AI про «Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models» (Matthew Dahl, Varun Magesh, Mirac Suzgun, Daniel E. Ho) // Stanford University. URL: https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.
[12] Federal Court in Ottawa опублікував Тимчасові принципи та настанови щодо використання судом штучного інтелекту // The Federal Court of Canada. URL: https://www.fct-cf.gc.ca/en/pages/law-and-practice/artificial-intelligence.
[13] Ухвала Касаційного господарського суду в складі Верховного Суду від 8 лютого 2024 року у справі №925/200/22 // Єдиний державний реєстр судових рішень. URL: https://reyestr.court.gov.ua/Review/116984639.
[14] Окрема думка у справі №925/200/22 // Єдиний державний реєстр судових рішень. URL: https://reyestr.court.gov.ua/Review/117074064.