Якщо раніше судова система повністю залежала від людського судження, то тепер все активніше взаємодіє з алгоритмами. Наприклад:
- У березні 2025 року Роттердамський суд у Нідерландах повідомив, що застосував штучний інтелект для написання мотивувальної частини вироку в кримінальній справі.
- У Колумбії суддя включив відповіді чат-бота у своє рішення в справі про медичне страхування, зазначивши, що це допомогло йому оптимізувати робочий час.
- У Великій Британії лорд-суддя з апеляційного суду зізнався, що ChatGPT створив судові документи, повʼязані з правами інтелектуальної власності.
Подібних повідомлень по всьому світі зʼявляється дедалі більше, і для України ця тема також стає актуальною. Попри те, що впровадження технологій у судочинстві позиціонується як ефективний засіб для його модернізації, серед правників порушуються питання: якщо штучний інтелект уже впорядковує рутинні процеси, аналізує справи та формулює рішення, тоді де пролягає межа між допомогою та заміщенням судді?
У цій публікації розглянуто трансформаційний потенціал та ризики, пов’язані з інтеграцією штучного інтелекту в процес роботи суду. Також запропоновані рекомендації щодо управління інтелектуальною системою, щоб новітні технології слугували інструментом для посилення захисту прав людини, а не ставали джерелом нових загроз.
НОВІ МОЖЛИВОСТІ ДЛЯ СУДОВОЇ СИСТЕМИ
Багато загальнодоступних систем штучного інтелекту (ШІ) базуються на машинному навчанні (ML) — процесі, коли алгоритми аналізують великі обсяги даних, навчаються на них, виявляють закономірності й роблять прогнози. Генеративні моделі (GenAI) створюють нову інформацію — текст, код, зображення, відео тощо. Вони навчаються на величезних масивах даних і вирізняються своїм масштабом та універсальністю. Серед найвідоміших прикладів — GPT від OpenAI, Gemini від Google та інші. Фундаментальні моделі GenAI вже змінюють цілі галузі, допомагаючи автоматизувати різні завдання, створювати контент, розпізнавати та транскрибувати мовлення. Автори дослідження Університету Міннесоти стверджують, що ШІ суттєво вплине на якість юридичної сфери. У контексті судочинства серед переваг виділяють здатність швидко аналізувати великі обсяги правових документів, надаючи суддям (та іншим юристам) аналітичні висновки або інформацію, яка могла б залишитися поза увагою через обмежені ресурси, час чи специфіку обробки даних. GenAI здатний формувати правові аргументи, включаючи проєктування документів, пов’язаних зі справою. В умовах перевантажених судів і браку кадрів це може стати суттєвою допомогою. Водночас існує інше бачення вчених. Наприклад, Принстонський університет опублікував дослідження, у якому ставить під сумнів великий оптимізм щодо можливостей ШІ у цій сфері, зокрема наголошує на необхідності ретельного аналізу ШІ-моделей, що використовуються для прогнозування результатів судових справ. Це означає, що сфера LegalAI (застосування ШІ в юридичній сфері) перебуває на стадії досліджень і ще зарано про щось однозначно стверджувати.
РИЗИКИ ТА ЕТИЧНІ ВИКЛИКИ
Попри дискусії щодо впливу ШІ на різні галузі, більшість сторін погоджується з тим, що GenAI можна порівняти з аналітиком, який має неосяжну памʼять та миттєву реакцію. Це ніби помічник, який ніколи не спить і не втомлюється. Однак, як і будь-яка інша технологія, ШІ може мати неточності, збої в роботі або інші загрози, про які багато хто навіть не здогадується. Нещодавно лауреати Тюрінґівської премії та засновники одного з методів навчання ШІ Ендрю Барто і Річард Саттон виступили із заявою, у якій порівняли розроблення деяких ШІ-моделей із «будівництвом мосту», на який «запускають» людей без належної перевірки та гарантій безпеки. Така гіпотеза підтверджується результатами багатьох досліджень провідних аналітичних центрів, наукових інституцій і навіть державних агенцій по всьому світу. Наприклад, у Великій Британії Департамент інновацій, науки та технологій опублікував звіт про ризики ШІ. Над документом працювали понад сто міжнародних експертів, які проаналізували вже задокументовані негативні наслідки, що можуть виникнути через використання цих технологій.
Розглянемо деякі ризики в контексті судочинства:
- Суддівська незалежність. Великий ризик полягає в спокусі делегувати ШІ роль судді. Судове рішення — це не просто механічна відповідь на юридичне питання, а результат глибокої рефлексії, оцінювання контексту, морального зважування та розуміння людської природи. Правники з різних країн світу слушно наголошують, якщо судді починають надмірно покладатися на контент, згенерований ШІ, що може підірвати людський елемент правосуддя. З’являється ризик, що судові рішення ґрунтуватимуться не на обʼєктивному правовому тлумаченні та самостійній оцінці судді, а інерції алгоритму. Це створює небезпечний прецедент, коли технологія починає диктувати правосуддя замість слугувати його інструментом. Окрім того, використання GenAI в судовому процесі, наприклад таких інструментів, як ChatGPT і подібних, викликає занепокоєння щодо можливості довільної уніфікації судових рішень. Кожна справа має розглядатися неупереджено та з урахуванням її унікальності. ШІ ж за своєю суттю прагне до стандартизації та виявлення закономірностей. Таким чином, інтеграція ШІ у судочинство вимагає не тільки технічної експертизи, але й глибокого розуміння етичних і правових викликів. Варто наголосити, що питання полягає не в тому, чи може ШІ допомагати, а в тому, як гарантувати, що він не підмінює в кожній конкретній справі людську мудрість, досвід, незалежність та індивідуальний підхід.
- Непрозорість алгоритмів. ШІ-моделі часто функціонують як «чорні скриньки» — видно результат, але не зрозуміла логіка, яка лежить у його основі. Це ставить під загрозу саму суть правової прозорості для фундаментального принципу обґрунтованості судових рішень, закріпленого в статті 6 Європейської конвенції з прав людини. Останні дослідження лише посилюють ці побоювання. Наприклад, компанія Anthropic виявила, що моделі ШІ систематично приховують логіку міркування, яка лежить в основі їхніх відповідей. Під час тестування здатності до пояснення у форматі ланцюжка міркувань (chain-of-thought) моделі не розкривали реальні джерела своєї логіки — зокрема, підказки користувача та візуальні шаблони — у до 80 % випадків. Понад те, що складніше завдання, то менш прозорими виявлялися пояснення. Ці результати викликають питання: якщо моделі ШІ не здатні прозоро пояснити навіть прості рішення, чи можна їм довіряти суспільно значущі контексти, такі як правосуддя, де на кону стоять права та свободи людини? Це також створює виклик для розробників політик, регуляторів і фахівців із безпеки ШІ, адже створення механізмів прозорості виявилося набагато складнішим завданням, ніж вважалося раніше.
- Надання недостовірних даних. Одна із серйозних загроз, повʼязаних із використанням ШІ, — надання неправдивих даних. Це може проявлятися у створенні контенту з вигаданими цитатами, неіснуючими законодавчими актами, помилковими судовими посиланнями або просто застарілою інформацією. Наприклад, у Норвегії група із захисту приватності Noyb подала скаргу проти OpenAI після того, як ChatGPT згенерував неправдиву інформацію про норвежця, який нібито був засуджений за вбивство власних дітей. Відповідь чат-бота містила як вигадані деталі, так і справжні особисті дані людини, що зробило інформацію правдоподібною. У скарзі зазначається, що навіть після редагування помилкової відповіді з боку OpenAI недостовірна інформація, яка містить реальні персональні дані, залишається «всередині» моделі та може бути використана знову. Це демонструє, наскільки небезпечними можуть бути так звані «галюцинації» ШІ, особливо коли йдеться про права людини. У 2024 році Стенфордський університет провів дослідження, у якому виявив, що надання неправдивої інформації саме в правовій сфері варіює від 69 % до 88 % у відповідь на конкретні юридичні запити в популярних мовних моделях.
- Упередженість та дискримінація. Останніми роками все частіше обговорюється ризик упередженості та дискримінації в ШІ, оскільки збільшується кількість таких випадків. Проте важливо змістити фокус з абстрактного поняття «упередженості ШІ» на першоджерела цієї проблеми — дані. Проблема не в тому, що сама модель ШІ є упередженою як така, а в тому, що вона навчається на інформації, яка вже містить суспільні наративи та дискримінаційні практики. Якщо ці дані використовуються без належної корекції, ШІ може ненавмисно закріпити їх і навіть посилити в судових підходах. Це як дивитися у дзеркало, яке відображає не лише наше обличчя, а й усі переконання, посилюючи їх через алгоритмічну лінзу. Небезпека полягає в тому, що технологія ШІ, особливо GenAI, наразі ще не здатна до самоаналізу чи критичної рефлексії. Вона просто виконує те, що їй наказано, спираючись на дані, на яких її було навчено. Судочинство, на відміну від суто логічного застосування норм, вимагає глибокої моральної, соціальної та емоційної оцінки ситуації, які часто є вирішальними для винесення вироку. І якщо не буде застосовано механізмів для розпізнання та виправлення упереджень на рівні даних, існує високий ризик автоматизувати та узаконити несправедливість, а не забезпечити справедливе правосуддя.
- Порушення конфіденційності та авторських прав. Мовні моделі ШІ, щоб удосконалювати свої майбутні версії, можуть запамʼятовувати взаємодії, включно з інформацією, що вводиться користувачами. Це створює ризик для конфіденційності, адже в судочинстві обробляються чутливі персональні дані, конфіденційні матеріали справи, особисті свідчення та інша інформація, яка має бути захищена законом. Доступні мовні моделі, що навчалися на величезних і часто неперевірених наборах даних, можуть генерувати відповіді, які містять персональну інформацію або захищені авторським правом матеріали, що використовувалися під час їх навчання. Дослідження показали, що LLMs здатні запамʼятовувати і відтворювати такі дані: електронні адреси, номери телефонів, а також номери банківських карток, що яскраво демонструє серйозні ризики для конфіденційності. У контексті судових справ такий витік може скомпрометувати свідків, потерпілих, обвинувачених або розкрити комерційну таємницю, підірвавши довіру до всієї системи правосуддя. Тому в багатьох країнах судді почали ставити питання про створення власних закритих систем. Окрім проблем конфіденційності, моделі ШІ навчаються на масивах текстових даних, які, як показує практика, часто охоплюють публікації, статті, книги та інші матеріали, захищені авторським правом. Тобто ШІ може відтворювати або генерувати контент, який є похідним від цих захищених творів, без відповідного дозволу чи ліцензування. Яскравим прикладом слугує позов, поданий у 2023 році The New York Times проти OpenAI та Microsoft, у якому стверджувалося, що ці компанії використовували публікації видання без дозволу для навчання своїх ШІ-моделей. У судовій системі, де дотримання авторських прав є невідʼємним принципом, використання загальнодоступних мовних моделей може призвести до правових спорів і підірвати легітимність застосування ШІ.
- Доступ до правосуддя. Існує поширене переконання, що технології мають виключну функцію — підвищити ефективність у різних сферах. Це приваблива перспектива, проте коли йдеться про систему судочинства, теоретичні переваги, такі як зменшення витрат і підвищення операційної ефективності, слід розглядати критично, адже бажаним результатом судового процесу є не просто винесення рішення, а справедливе рішення — як із формальної (процедурної), так і матеріальної (змістової) точки зору. Зростання використання ШІ суддями та іншими учасниками процесу має потенціал поглибити наявну нерівність у правовій системі, поставивши під загрозу доступ до справедливості. Цей вплив може проявитися як на макро-, так і мікрорівні. На макрорівні суди з більшими ресурсами, як правило, у великих містах або заможних регіонах, можуть швидше розробляти та впроваджувати інструменти ШІ порівняно з менш матеріально забезпеченими інституціями. У результаті існує ризик збільшення технологічного розриву в межах національної судової системи. На мікрорівні цей розрив матиме прямі наслідки. Особи, які звертаються до суду без доступу до новітніх інструментів, можуть опинитися в менш вигідному становищі порівняно з тими, хто має можливість їх використовувати. Окрім того, існують витрати на впровадження ШІ, які часто недооцінюються, тобто не тільки на програмне забезпечення, а й навчання персоналу, підтримку інфраструктури, забезпечення кібербезпеки та постійне оновлення системи. Таким чином, замість того, щоб демократизувати доступ до правосуддя, ШІ може стати ще одним барʼєром, поглиблюючи нерівність у правовій системі.
- Використання доказів, отриманих за допомогою ШІ. Особливої актуальності набуває питання правового регулювання застосування ШІ для отримання доказів, зокрема їх надійності та верифікованості. ШІ працює на основі складних, часто непрозорих алгоритмів, що робить його висновки незрозумілими для суду, сторін процесу чи навіть самих користувачів. Це створює небезпеку ухвалення рішень на основі неправдивих або неінтерпретованих результатів. Будь-яке використання доказів, джерело чи спосіб отримання яких незрозумілі або не можуть бути оскаржені, підриває справедливість судового розгляду. Якщо алгоритм видає висновок, але жодна зі сторін не може його пояснити або перевірити, це прямо суперечить праву на ефективний захист. Тому існує нагальна потреба у встановленні єдиних стандартів перевірки правдивості машинних доказів. Зокрема, регулювання має містити вимоги до прозорості алгоритмів, перевірки джерел навчання та аудиту систем на предмет упередженості. Важливо також не допустити автоматизації ухвалення рішень щодо оцінки доказів без участі людини; експертне тлумачення результатів, отриманих ШІ, має залишатися невідʼємною частиною судового процесу. Міжнародний досвід уже показує, що ці виклики не є суто теоретичними. Нещодавно Федеральна судова колегія США висунула пропозицію про необхідність урегулювання використання доказів, отриманих за допомогою ШІ, у якій наголошено на оперативному отриманні відгуків громадськості та юристів, щоб випереджати стрімкий розвиток технологій. Ця ініціатива свідчить, що навіть розвинені юрисдикції усвідомлюють ризики та виклики, повʼязані із застосуванням цифрових технологій у судовій сфері. Наприклад, 6 травня 2025 року Окружний суд Центрального округу Каліфорнії оштрафував дві юридичні фірми через використання сфабрикованих прецедентів, згенерованих ШІ, які ледь не потрапили до судового рішення. Суддя зізнався, що вигадані посилання майже переконали його, підкресливши, що жоден компетентний юрист не повинен перекладати на ШІ проведення дослідження та написання процесуальних документів без ретельної перевірки. Існують й інші приклади, коли на судовому засіданні в Аризоні було продемонстровано відеофрагмент із цифровим аватаром жертви, чий голос і зовнішність були відтворені за допомогою нейромережевих моделей. Суддя зазначив, що відео справило на нього сильне враження, і суд відмовився пом’якшити покарання. Важливо, що це відео супроводжувалося чітким попередженням про його цифрову природу, і ніхто не намагався видати його за справжнє звернення загиблого.
Ці випадки демонструють, що застосування ШІ в правосудді вимагає не лише інтеграції технологій, але й переосмислення традиційних правових принципів, забезпечення прозорості, надійності та збереження провідної ролі людини в процесі ухвалення судових рішень. Суди, які будуть використовувати ШІ без повного усвідомлення викликів, ймовірно, стикнуться із цими питаннями в недалекому майбутньому.
ПРАВИЛА ЗАСТОСУВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ
Розвиток ШІ у системі правосуддя ще перебуває на ранньому етапі, тому зараз важливо чітко визначити правила його використання. Це дозволить максимізувати переваги технології і при цьому мінімізувати потенційні ризики для прав людини та верховенства права. Україна вже зробила важливий крок у цьому напрямку — у травні 2025 року підписала Рамкову конвенцію Ради Європи про штучний інтелект, права людини, демократію та верховенство права. Цей міжнародний договір встановлює принципи для формування законодавства та використання ШІ в публічному секторі. Серед ключових засад Конвенції: повага до людської гідності й автономії; прозорість та нагляд; недискримінація; захист приватності; надійність та безпека інновацій. Це створює потребу у формуванні спеціального правового поля, яке охоплюватиме міжнародні положення, зокрема Акт про штучний інтелект, що набув чинності у 2024 році у Європейському Союзі.
Для того, щоб використання ШІ в судочинстві було безпечним і відповідало положенням європейських стандартів, необхідно впровадити комплексні заходи, які будуть передбачати детальний аналіз конкретної технології, зокрема її впливу на права людини й національну безпеку загалом. Суди, які планують застосовувати ШІ, мають поступово покращувати експертизу в цій сфері, зокрема враховувати регулювання технологій в інших сферах: захисту персональних даних, інтелектуальної власності, протидії дискримінації тощо. На практиці це може виявитися складним завданням, адже потрібно розуміти не тільки суть технології, а й соціальний, культурний та юридичний контексти її застосування.
Серед заходів, які можуть допомогти в цьому процесі, варто виділити такі:
- Попередні консультації та тестування. Якщо йдеться про технології ШІ, що впливають на права людини, на етапі розроблення, придбання чи впровадження системи необхідно проводити попередні консультації із залученням експертів у різних сферах, зокрема з питань конфіденційності. Звісно, можуть виникати питання щодо комерційної або державної таємниці, що обмежує доступ до інформації широкому загалу. Однак це не повинно означати замовчування факту використання технологій у таких цілях. Необхідно спочатку переконатися, що інновації не несуть загрози для суспільства та національної безпеки загалом. Аналіз системи під час тестування дозволяє виявити проблеми та вжити заходів для їх виправлення на ранньому етапі. У разі виникнення негативних інцидентів наявність достатніх висновків зовнішніх експертів про запуск проєкту може стати важливим аргументом. Також важливо ознайомитися з усіма умовами контракту, перевірити приховані положення в угодах. Ключові аспекти, які варто врахувати при цьому:
- Хто є розробником і постачальником технології (країна, компанія тощо)?
- Чи будуть запити або створений контент доступні іншим користувачам продукту, розробнику або постачальнику?
- Як і де зберігаються введені дані?
- Чи будуть ці дані використані для навчання та налаштування моделі?
Наприклад, у Сінгапурі та Естонії застосовується проактивний та послідовний підхід: вони інвестують у розроблення та впровадження закритих систем GenAI, забезпечують належний контроль якості даних й адаптують технологію до особливостей своєї правової системи. Таким чином, існує потенціал підвищити як ефективність, так і справедливість судових процесів. Щодо загальнодоступних систем GenAI, то важливо звернути увагу, що навіть сама компанія OpenAI публічно визнала недоліки в тестуванні перед запуском останнього оновлення ChatGPT, зокрема, що він порушує етичні норми. У своєму блозі OpenAI зазначила, що продовжила запуск, попри сигнали від експертів-тестерів про те, що чат-бот став схильним підтримувати шкідливі переконання користувачів. Намір посилити врахування зворотного звʼязку користувачів (лайки / дизлайки) парадоксально посилив підлесливу поведінку, оскільки позитивні сигнали частіше нагороджували погодження, а не критичну точність. Цей випадок підкреслює важливість ретельного й незалежного тестування перед впровадженням будь-яких ШІ-систем, особливо в таких критичних сферах, як правосуддя.
- Формування цілей ШІ на основі цінностей. Інтеграція ШІ в систему правосуддя має відбуватися з урахуванням цінностей конкретного суспільства. Якщо суспільство високо цінує свободу, незалежність та демократію, тоді не варто робити ставку на такі інструменти ШІ, які посилюють державний контроль, розвивають соціальний рейтинг або сприяють дискримінації. Подібні системи, хоч і можуть здаватися ефективними в короткостроковій перспективі, у майбутньому неминуче матимуть зворотний ефект та викликатимуть значну протидію. Адже технології, що суперечать базовим цінностям, ніколи не знайдуть прийняття та підтримки. Кожен потенційний застосунок ШІ має бути ретельно оцінений на відповідність принципам правової держави, захисту прав людини та демократичних свобод. Це дозволить будувати систему правосуддя, яка не тільки ефективна, але й справедлива та легітимна в очах суспільства.
- Розроблення політики використання ШІ. Для відповідального впровадження ШІ в судових органах, як і в будь-якій державній установі, критично важливо розробити відповідну політику використання ШІ. Вона має дозволяти установі гнучко експериментувати з новими технологіями, одночасно забезпечуючи контроль та безпеку. Процес розроблення такої політики потрібно починати з ретельного аналізу поточних судових процесів, щоб визначити конкретні цілі та потреби, де ШІ може бути найбільш корисним. Ідеться про розгляд широкого спектра потенційних варіантів використання: від автоматизації повторюваних функцій, таких як аналіз даних та узагальнення інформації, до складання чернеток документів та інших рутинних завдань. Паралельно із цим необхідно оцінювати потенційні ризики, які містить кожна нова технологія. Важливо переконатися, що будь-який впроваджуваний ШІ-інструмент відповідає поточним політикам безпеки та стандартам технологічної інфраструктури суду. Комплексна політика використання ШІ повинна обовʼязково містити такі ключові елементи:
- Мета та сфера застосування. Чітке визначення, для яких цілей і в яких сферах судочинства може бути використаний ШІ.
- Види та типи технологій. Перелік конкретних ШІ-технологій, які дозволені до застосування або перебувають на стадії тестування чи планування.
- Етичні стандарти та норми закону. Положення, що регулюють використання ШІ, з посиланням на відповідні етичні принципи та норми законодавства (наприклад, про захист персональних даних, інтелектуальну власність, протидію дискримінації).
- Обмеження у використанні. Визначення чітких заборон щодо застосування ШІ, яке може поставити під загрозу належну реалізацію судочинства, наприклад делегування ШІ функцій ухвалення рішення, що має залишатися прерогативою людини.
- Механізми внутрішнього контролю. Опис порядку моніторингу використання ШІ, а також чіткі плани дій на випадок виявлення порушень політики або непередбачуваних інцидентів.
- Прозорість і пояснюваність. При впровадженні ШІ ключове значення мають принципи прозорості й пояснюваності. Будь-які моделі, наскільки це можливо, мають бути здатними пояснити ухвалені ними рішення. Користувачі, а тим паче суд та сторони процесу повинні чітко розуміти, коли вони взаємодіють із ШІ і яка логіка лежить в основі генерації відповідей чи висновків. Забезпечення прозорості має прямий позитивний вплив на процеси валідації та сертифікації систем ШІ. Важливо розуміти, які критерії оцінювання використовуються алгоритмами для ухвалення рішень і чи відповідають вони юридичним та етичним вимогам. Звісно, абсолютна прозорість може бути недосяжною через функціональні особливості складних систем ШІ. Деякі деталі роботи алгоритмів можуть бути обмеженими в доступі з міркувань інтелектуальної власності розробника або державної таємниці. Однак це не означає, що не потрібно пояснювати, як працює ШІ. Навіть у таких випадках доступ до пояснень має бути забезпечений для певного кола субʼєктів, наприклад контролюючих органів та незалежних аудиторів. Один із документів, який вимагає забезпечувати цей принцип у роботі інтелектуальних систем, — «Етичні настанови для надійного ШІ», розроблений Європейською комісією. У ньому сформовані конкретні рекомендації щодо якісних та кількісних метрик, які дозволяють оцінювати прозорість систем ШІ. Важливо також розглядати концепцію «права на пояснення», яка полягає в тому, що людина має право знати, як система ШІ дійшла певного рішення, що може вплинути на її права та інтереси. Таким чином, прозорість і пояснюваність ШІ не просто бажані характеристики, а необхідні умови для його легітимного впровадження в судову систему. Без них існує ризик створити «чорні скриньки», рішення яких будуть незрозумілими, непідконтрольними й потенційно несправедливими.
- Забезпечення якості даних. Якщо завдання ШІ — допомагати розробляти контент (юридичні документи тощо), тоді важливо звернути увагу на джерела даних, які використовуються для навчання моделей ШІ, і при цьому враховувати низку факторів, у тому числі точність, репрезентативний характер і законність. Наприклад, у методичному виданні, розробленому незалежними експертами у взаємодії з Офісом Омбудсмена та Міністерством цифрової трансформації України, рекомендується розглянути такі питання:
- Які джерела даних використовуються для навчання моделі ШІ?
- Як та від кого отримано дані?
- Яку частку складають дані із загальнодоступних джерел для навчання ШІ?
- На якій правовій підставі здійснюється збір і подальша обробка даних?
- Яким чином оцінюється зміст вихідних даних — вручну або автоматично?
- Чи вихідні дані є репрезентативними, неупередженими, чи забезпечено захист від несанкціонованого використання?
- Забезпечення конфіденційності. Будь-яка інформація, введена у відкриту платформу GenAI, у тому числі запит, може стати видимою для компанії, яка керує платформою, та інших користувачів. Тому потрібно заборонити вводити конфіденційну або іншу чутливу інформацію у відкриту модель або використовувати інструменти анонімізації. Це дозволить зменшити ризики, пов’язані з обробкою та захистом персональних даних.
- Професійна підготовка. Усі користувачі ШІ повинні бути компетентними в технологіях, що стосуються їхньої професії. Зокрема, у положеннях законодавства та міжнародних стандартах у цій галузі. Наприклад, учені з університетів Корнелла та Карнегі-Меллона оприлюднили цікаве дослідження «The Backfiring Effect of Weak AI Safety Regulation», у якому наголосили, якщо вимоги до відповідального використання ШІ стосуватимуться лише спеціалістів, які адаптують його до конкретних завдань, це може знизити загальний рівень безпеки системи. Вони звертають увагу на проблему фрагментованого регулювання та пропонують стратегію залучення різних сторін. Тобто потрібно розподілити відповідальність на всіх етапах життєвого циклу моделей ШІ.
У лютому 2025 року набули чинності глави I та II Регламенту ЄС про штучний інтелект. Тому Єврокомісія оприлюднила низку роз’яснювальних документів:
Звичайно, це далеко не повний перелік необхідних заходів, але мета цієї публікації — показати, що впровадження ШІ має не тільки переваги, а й ризики, тому потрібний комплексний підхід, щоб запобігти або розв’язати їх. Навіть найсучасніша модель ШІ втратить свою цінність, якщо суспільство буде проти. Довіра — це не наслідок успішної інтеграції технологій, а її передумова. Тому варто визначити коло різних сторін у цифровій трансформації правосуддя. Уже є достатньо доказів, що ШІ не нейтральний. Його рішення можуть поглиблювати нерівність, змінювати баланс сил і впливати на долі людей. Саме тому варто актуалізувати дискусію на цю тему, залучаючи широкий спектр голосів — правозахисників, експертів, представників вразливих груп тощо. Лише через взаємодію, побудовану на прозорості, правовому регулюванні та етичних принципах, можна сформувати екосистему ШІ, яка буде не заміною людському розуму, а його союзником.