Часто можна почути тезу, що ключовою характеристикою трьох юридичних професій — судді, прокурора та адвоката — є те, що вони пов’язані з ухваленням рішень. Оскільки вони є ключовими суб’єктами кримінального процесу, то їм особливо варто мати на увазі те, як слід використовувати технології ШІ для цього.
Тим паче гучні випадки використання ШІ адвокатами в правосудді вже активно обговорюються.
«СПРАВА ШВАРЦА»
У цій справі, яку нещодавно широко обговорювали, позивач звернувся до суду з позовом проти колумбійської авіакомпанії «Avianca», вимагаючи відшкодування за тілесні ушкодження, начебто отримані під час рейсу. Його інтереси представляли юристи нью-йоркської фірми «Levidow, Levidow & Oberman», серед них Стівен Шварц, які надали суду підбірку судових прецедентів на підтримку позиції позивача.
Як з’ясувалося в суді, ці рішення були несправжніми. У ході розгляду адвокат Шварц визнав, що використовував ChatGPT для пошуку рішень у схожих справах і не підозрював, що результати можуть виявитися фальшивими. Сам чат позначив згадані рішення як «реальні».
Як наслідок, суд зобов’язав Стівена Шварца, його фірму «Levidow, Levidow & Oberman» та його колегу Пітера ЛоДуку сплатити штраф розміром $ 5000.
Випадок швидко набув розголосу в юридичних та етичних колах. За словами Ірини Райку, директорки кафедри інтернет-етики Університету Санта-Клари (США), справа демонструє те, проти чого застерігали критики ШІ: «Переважна частина тих, хто користується та грається зі штучним інтелектом, насправді не розуміє, чим він є і як працює, а особливо якими є його обмеження».
ЧОМУ ЦЕ ВАЖЛИВО?
Цей прецедент наймедійніший, утім, імовірно, Шварц далеко не єдиний, хто застосував ШІ у професійній діяльності. За даними дослідження компанії «LexisNexis» (США) 2023 року, більше ніж третина опитаних юристів хоча б раз використовувала генеративний ШІ в професійних або особистих цілях. Майже 20 % респондентів користувалися ним на роботі, наприклад для проведення досліджень, підготовки документів і розуміння правових понять.
Тенденція до застосування технологій ШІ, зокрема ChatGPT, лише зростатиме в майбутньому. Мовленнєвий ШІ набагато зручніший у використанні, ніж пошукові системи на кшталт Google. Він генерує загальну відповідь на запитання, а не пропонує сторінки посилань, які потрібно ретельно досліджувати, що значно економить час і зусилля. Однак простота не гарантує кращу якість.
ChatGPT, як і більшість систем ШІ, є своєрідною «чорною скринькою». Ця «скринька» передбачає можливість ШІ ухвалювати автономні рішення без пояснення механізму їх ухвалення. Основною проблемою, пов’язаною із цією технологією, є відсутність прозорості. Прозорість критично важлива, коли ухвалені рішення безпосередньо впливають на життя людей. Якщо система ШІ генерує певний висновок, юристу важливо розуміти, як вона дійшла цього і які дані для цього використовувала. Брак прозорості й обізнаності щодо механізмів роботи ШІ означає меншу свободу користувача, підриваючи довіру до результатів, які генерує система.
У зв’язку із цим важливий ще один аспект, яким часто нехтують в Україні: етичні питання, які постають у зв’язку із застосуванням ШІ в правосудді. І модернізація правил адвокатської етики стає одним з ключових завдань для професійних об’єднань.
ПРО ЩО ЙДЕ МОВА?
По-перше, існує ризик використання неправдивої інформації, а отже, порушення принципу компетентності й добросовісності. ChatGPT постійно самовдосконалюється на основі даних, які йому надають, а отже, результати його роботи можуть містити помилки. Під час генерації відповіді може виникнути те, що вже назвали феноменом «галюцинації» — відповідь чат-бота, що здається правдоподібною, проте насправді є неправильною. Система спотворює інформацію в повідомленні так, щоб вона була більш схожою на «природну мову», але не обов’язково відповідала дійсності.
Більшість юрисдикцій покладає на адвоката етичний обов’язок надання якісних і компетентних послуг клієнтам. До прикладу, першим правилом Американської асоціації юристів (American Bar Association) є компетентність: «Адвокат повинен забезпечувати компетентне представництво інтересів клієнта. Компетентне представництво вимагає юридичних знань, навичок, ретельності та підготовки, необхідних для представництва». Не здійснивши повноцінну перевірку наданої інформації, юрист ризикує порушити обов’язки професійної етики, передбачені і ст. 11 Правил адвокатської етики НААУ.
Саме тому застосування ШІ без професійного підходу створює похибки, від яких найбільше страждатиме клієнт, адже навіть незначні помилки в показаннях можуть негативно вплинути на судове рішення.
Другим, пов’язаним із цим викликом є те, що системи ШІ на кшталт ChatGPT можуть генерувати упереджені дані. Особливістю ChatGPT є те, що він навчається на загальнодоступних даних і відповідях інших користувачів. Існує ризик, що ШІ відтворюватиме не лише корисну, але й упереджену інформацію. Можливим наслідком цього є використання ШІ як інструмента дискримінації, про що свідчить і досвід окремих прецедентів використання ШІ у сфері правосуддя.
Уже ведуться дискусії щодо упередженості ШІ в правосудді. Нгозі Окідебве, доцентка Бостонського університету (США), зазначає, що справа не лише в даних, які відтворює ШІ, але і в розробниках систем. «Сама парадигма, яка визначає, коли і як ми застосовуємо штучний інтелект, є досить технократичною й не дуже різноманітною», — каже вона.
Ще одна сфера, яка викликає занепокоєння, — це авторські права. Хоча Правила адвокатської етики НААУ наразі не містять положень щодо цього, однак у разі використання технологій ШІ адвокатами ці виклики неодмінно постануть.
Згідно з Умовами користування OpenAI, ChatGPT передає права інтелектуальної власності користувачеві. Водночас, оскільки відповіді генеруються на основі відкритих даних, існує ймовірність, що створені відповіді будуть чиєюсь інтелектуальною власністю. Так, у червні цього року на OpenAI було подано скаргу, у якій стверджується, що ChatGPT збирає інформацію з книг та інших текстів без згоди та компенсації, зокрема з тіньових бібліотек, які незаконно публікують роботи, захищені авторським правом. Наразі немає розуміння, чи вважати таке використання порушенням авторських прав. Випадок демонструє, що питання захисту інтелектуальної власності при використанні генеративного ШІ залишається відкритим.
І головне: під час застосування генеративного ШІ можуть виникнути проблеми в питанні конфіденційності. У Політиці конфіденційності OpenAI зазначено, що інформація, яку надає користувач, може бути використана при навчанні моделей або передана бізнесу й афілійованим особам. Якщо юрист застосовує ChatGPT при аналізі даних клієнта, існує ризик того, що приватна інформація буде оприлюднена або використана не за призначенням. Про загрозу свідчить інцидент з витоком особистих даних користувачів ChatGPT: при використанні чат-бота почали з’являтися попередні історії спілкування інших осіб. Ця помилка спричинила розкриття конфіденційної інформації 1,2 % підписників ChatGPT Plus. Для уникнення схожих ситуацій юристи перед застосуванням генеративного ШІ повинні переконатися, що дані, які вони вносять у систему, не містять конфіденційної інформації.
ЩО РОБИТИ?
Це окремі ризики, з якими можуть зіткнутися юристи в разі неунормованого застосування ШІ. Без належної регуляції вони можуть лише загостритися, адже кількість способів використання ШІ із часом стає зростає. Ціна нехтування цими ризиками висока, оскільки під загрозу потрапляє не лише правова система, але й професійна етика, захист прав людини та суспільна довіра до технологій.
У міжнародних і національних професійних правничих асоціаціях триває процес розроблення рекомендацій щодо відповідального застосування ШІ в правосудді. У травні 2022 року Міжнародна асоціація юристів опублікувала документ з рекомендаціями та нормативними актами для забезпечення ефективного й етичного використання ШІ для низки держав. Того ж року Європейський фонд юристів видав «Посібник з використання інструментів штучного інтелекту юристами та юридичними фірмами в ЄС» з описом технічних аспектів роботи з ШІ та основних етичних ризиків його застосування. Американська асоціація юристів цього року ухвалила Резолюцію 604, яка підкреслює необхідність використання ШІ на основі підзвітності, прозорості й відповідальності.
Ці документи є рекомендаційними й не мають обов’язкового характеру. Однак відсутність офіційно закріплених норм і правил дає змогу вдосконалити наявні напрацювання щодо регуляції генеративного ШІ в поєднанні з етичними стандартами та компетентним використанням таких платформ, як ChatGPT.
ЯКИМИ МОЖУТЬ БУТИ УМОВИ ЕТИЧНОГО ЗАСТОСУВАННЯ ГЕНЕРАТИВНОГО ШІ В ПРАВОСУДДІ?
Кейс Шварца унаочнює необхідність створення культури відповідального та етичного застосування ШІ. Юридична сфера вже використовує можливості ШІ, але при цьому варто враховувати його обмеження та наслідки надмірної довіри технологіям.
Відповідальність за використання ШІ покладена здебільшого на того, хто його застосовує і яким чином. Штучний інтелект, зокрема генеративний, потребує значного вдосконалення, тому не варто покладатися на його саморегуляцію. Проте він може стати вагомим допоміжним інструментом, якщо дотримуватися стандартів і норм його використання. Задля запобігання новим помилкам і непередбачуваним наслідкам, потрібно врахувати такі умови:
Випадки, схожі до справи Шварца, важливі, адже вони демонструють, як відбувається застосування ШІ в юридичній сфері і якими є обмеження ШІ в цій сфері не лише з технічного, але й етичного та політико-правового погляду. Технології ШІ постійно розвиваються і потребують оцінювання й аналізу із залученням незалежних експертних груп і стейкхолдерів з різних галузей. Завданнями досліджень є виявлення, відстеження тенденцій розвитку ШІ та моніторинг його потенційного впливу на сферу правосуддя. Обізнаність у питаннях ШІ сприятиме розробленню стійкого нормативно-правового фундаменту, який відповідатиме суспільним цінностям.
Регуляція ШІ повинна узгоджуватися з правами людини та професійною етикою правників — як адвокатів, так і суддів та прокурорів, особливо в питанні рівності й недискримінації. При розробленні нормативно-правових актів важливо, щоб технології ШІ перебували під людським контролем. Окрім цього, процес має включати принципи відповідальності, прозорості та справедливості. Чіткі, уніфіковані стандарти можуть стати орієнтиром якості як для компаній-розробників, так і професіоналів правової сфери.
Регуляція ШІ повинна вдосконалюватися разом з розвитком технологій ШІ. Для цього важливе створення нормативно-правових актів і національних стратегій, які будуть адаптивними до нових реалій. Водночас слід вести роботу й на рівні саморегулівних професій, у першу чергу адвокатських, для вироблення професійних та етичних стандартів для застосування технологій ШІ в правосудді. Наявність гнучкості є фактором, який сприятиме швидкому реагуванню та зменшенню нових ризиків.
Безумовно, ChatGPT внесе зміни в професію адвоката, хоча навряд чи революціонізує її. Швидше за все його ефект буде співмірним з ефектом від появи й початку активного використання Google. Однак одна відмінність є — етичні виклики тут однозначно більші. І щоб запобігти їм, слід уже працювати над удосконаленням етичних правил. Національна асоціація адвокатів України вже створила групу із законодавчого регулювання ШІ в Україні, тому є надія, що етичним аспектам теж невдовзі буде приділено увагу.
Матеріал підготовлено за підтримки Європейського Союзу та Міжнародного фонду «Відродження» у рамках спільної ініціативи «Європейське Відродження України». Матеріал представляє позицію авторів і не обов’язково відображає позицію Європейського Союзу чи Міжнародного фонду «Відродження».