На щастя, в Україні поки не було прецедентів, схожих на справу американського адвоката Шварца. Водночас дуже високі шанси, що вже незабаром ми будемо обговорювати позовні заяви чи положення договорів, які розробили технології ШІ й потім використали українські адвокати.
Поки що використання ШІ обмежене його технологічними можливостями, однак вони будуть зростати. І хоча революції в адвокатурі навряд чи варто очікувати, проте зміни в роботі адвокатів і в тому, як вони надають послуги, можуть відбутися. Оскільки адвокатська професія є регульованою, то виникає питання, чи потребуватимуть змін її професійні й етичні стандарти?
КОНФІДЕНЦІЙНІСТЬ
У першу чергу слід відповісти на питання, чи чинне регулювання адвокатської професії дозволяє врегулювати ті виклики, які постають у зв’язку із застосуванням ChatGPT й інших технологій ШІ? Принаймні йдеться про кілька етичних принципів.
Наприклад, одним з найбільш частих застережень адвокатів щодо застосування ШІ є дотримання принципу конфіденційності.
Флешмоби в соцмережах на кшталт «Покажіть себе в дитинстві» чи «Як я змінився за 10 років», окрім засобу підняття настрою, є не менш ефективним способом тренування алгоритмів розпізнавання зображень й облич. Дані, які ми завантажуємо в ChatGPT, він обробляє і використовує для подальшого тренування власних мовленнєвих алгоритмів.
У випадку використання ШІ у своїй роботі (складання позовної заяви чи процесуальних документів, підготовка положень договорів або ж письмових консультацій) адвокати будуть ділитися інформацією, яка захищена адвокатською таємницею і може містити персональні дані. Витік такої інформації може бути чутливим для клієнтів, а як її обробить ШІ і використає в майбутньому — ми не знаємо.
Звісно, можна звернутися до правил користування і політики приватності цих сервісів, однак вони здебільшого містять загальні формулювання, які можна трактувати по-різному. Саме тому Фундація європейських юристів (European Lawyers Foundation) у Посібнику з використання інструментів ШІ юристами та юридичними фірмами в ЄС (Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU) зазначає: «Просте ухвалення стандартних положень та умов… буде порушенням професійних зобов’язань щодо конфіденційності, якщо клієнт не надав попередньої інформованої згоди».
Правила адвокатської етики (ПАЕ) містять статтю 10 «Конфіденційність», яка досить широко розписує права адвоката щодо нерозголошення інформації, отриманої від клієнта, і (дещо вужче) його обов’язки в цьому контексті. Одним з них є заборона за будь-яких обставин «розголошувати відомості, що складають адвокатську таємницю». Однак у нашому випадку для багатьох може бути незрозуміло чи неочевидно, чи поширення даних про справу або предмет правової допомоги через використання ChatGPT буде кваліфікуватися як таке «розголошення».
З іншого боку, ПАЕ було доповнено Розділом VIIІ «Дотримання норм адвокатської етики при використанні мережі Інтернет», який у тому числі регламентує дотримання принципу конфіденційності. Однак прикладний ШІ багато в чому нове і відмінне явище від соціальних мереж та інших сервісів і малоймовірно, чи можна його трактувати на одному рівні з ними.
КОМПЕТЕНТНІСТЬ І ДОБРОСОВІСНІСТЬ
Іншим професійним принципом, який опинився під загрозою у випадку застосування ШІ в адвокатурі, є принцип компетентності й добросовісності (стаття 11 ПАЕ). Згідно з ним, адвокат має здійснювати свою діяльність добросовісно і в межах власних професійних знань і вмінь.
Цей принцип прямо не виключає можливість застосування технологій ШІ в адвокатурі, однак виникає одразу кілька питань: чи їх застосування (особливо на сучасному технологічному рівні) буде відповідати принципу добросовісності? І якщо ні, то на якому рівні зможе відповідати?
З іншого боку, ті можливості, які має і згодом матиме ChatGPT і його аналоги, теоретично можуть дозволити адвокатам надавати послуги з питань, у яких вони не є компетентними, або ж спробувати надавати їх більшій кількості клієнтів з меншим ступенем особистої залученості. Зрештою, рівень технологічної компетенції адвокатів може не дозволяти їм ефективно користуватися технологіями ШІ чи розуміти, як вони працюють, і згаданий «кейс Шварца» саме про це насамперед.
Однак є ще одна перспектива, яка може стати більш актуальною згодом: чи адвокати обов’язково мають використовувати технології ШІ, якщо це сприятиме кращому наданню послуг, або мати компетенції належно оцінити таку можливість? Наприклад, американські адвокати Бреді Хайз і Дженні Дао з Hanson Bridgett LLP у коментарі для Reuters говорять, що невикористання доступного інструменту ШІ саме собою може стати невиконанням обов’язку компетентності, коли такі технології надалі будуть удосконалюватися.
В окремих випадках це питання вже розв’язане. Так, у коментарях до обов’язку компетентності в Правилах професійної поведінки Каліфорнійської асоціації адвокатів додатково сказано, що він передбачає і «обов’язок бути в курсі змін у законодавстві та його практиці, включаючи переваги та ризики, пов’язані з відповідними технологіями».
З іншого боку, Фундація європейських юристів застерігає від надмірного покладання на доступ до технологій ШІ як безумовний фактор підвищення якості послуг: «Більша спроможність юриста необов’язково означає вищу якість роботи для клієнта, більшу правову визначеність чи більш повне дотримання верховенства права».
Наразі ці питання гостро не постають. Однак можна погодитися з колегами із США: цілком може настати момент, коли принцип компетентності будуть тлумачити як обов’язок адвокатів застосувати технології ШІ там, де це можливо.
НЕЗАЛЕЖНІСТЬ
Третім професійним етичним принципом, перед яким постають виклики в контексті застосування технологій ШІ, є незалежність — свобода від будь-якого зовнішнього впливу, тиску чи втручання. У випадку технологій ШІ, на перший погляд, це питання не стоїть гостро: такі технології не намагатимуться втрутитися в роботу юриста, принаймні на сучасному технологічному етапі.
Проте мовленнєві моделі ШІ — це не просто програмне забезпечення на кшталт офісних продуктів чи облікових програм, які використовуються більш-менш автономно. У нашому випадку є третя сторона — компанія-розробник технології, яка може намагатися встановити ті чи інші умови для доступу до більш просунутих можливостей, які можуть бути прийнятними, наприклад, для професійних гравців в онлайн-ігри, але неприйнятними для адвокатів.
Європейська фундація юристів у цьому контексті проводить паралель з використанням онлайн-платформ для посередництва в наданні юридичних послуг клієнтам, коли платформи могли мати суттєві важелі впливу на відносини адвокат — клієнт. У випадку ШІ, де технології є більш ексклюзивними та монополізованими, такий вплив може бути ширшим.
Втручання в адвокатську діяльність може відбуватися не просто у формі лобіювання комерційних інтересів. За допомогою технологій це можна робити найнесподіванішими способами. Наприклад, уже траплялися випадки, коли ChatGPT у разі перекладу чи редагування тексту на власний розсуд змінював його, керуючись власним розумінням мови ненависті, моралі тощо. Із часом таке втручання може бути глибшим, зі зміною, наприклад, правової позиції і тим самим непомітним, але суттєвим впливом на професійну діяльність адвоката.
І в цьому випадку незалежність повинна бути гарантована не просто на рівні професійних стандартів чи правил користування, а законодавчо. Не в останню чергу саме тому правничі асоціації на рівні з іншими зацікавленими сторонами закликають до нормативного врегулювання розроблення й використання ШІ.
ЩО ВАРТО ЗРОБИТИ
Описані вище питання є лише частиною етичних викликів, які поставатимуть перед адвокатською професією в контексті застосування ШІ. З удосконаленням цих технологій і відкриттям нових можливостей їх використання в адвокатській діяльності зростатимуть й етичні виклики.
Тому важливо обговорювати вплив технологій ШІ на адвокатуру не тільки в розрізі можливого впливу на професію, а й розв’язання етичних проблем. І роль професійних асоціацій, які регламентують ці стандарти та контролюють їх дотримання, у цьому випадку є ключовою.
Правничі асоціації уже працюють над питаннями, пов’язаними із ШІ. Так, Американська асоціація юристів (American Bar Association) ухвалила Резолюцію № 604, у якій закликала уряд США докласти зусиль до розроблення і впровадження законодавства про використання ШІ та створення відповідної системи контролю, а Фундація європейських юристів (European Lawyers Foundation) опублікувала Посібник з використання інструментів ШІ юристами та юридичними фірмами в ЄС (Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU), у якому порушила низку етичних питань, пов’язаних з впливом ШІ на юридичну професію.
Національна асоціація адвокатів України цього року вже утворила робочу групу з правового регулювання ШІ та рекомендацій до законодавства. Однак її мандат широкий та охоплює регулювання питання застосування ШІ загалом, без фокуса на адвокатській діяльності та її етичних принципах. Проте видається, що саме це має бути головною метою роботи: чинні українські ПАЕ потребують точкових змін або принаймні роз’яснень для того, щоб усунути прогалини між змістом правил і практикою застосування технологій ШІ.
ШІ точно не замінить адвокатів, що не вдалося зробити навіть гуглу, але точно змінить спосіб, у який адвокати надають свої послуги. Цього не слід боятися. Проте варто прагнути, щоб основні етичні принципи адвокатури не змінилися, а їх тлумачення було пристосоване до нових умов.
* Жодна частина цього матеріалу не була створена за допомогою ChatGPT чи інших технологій ШІ.
Матеріал підготовлено за підтримки Європейського Союзу та Міжнародного фонду «Відродження» в межах спільної ініціативи «Європейське Відродження України». Матеріал представляє позицію авторів і не обов’язково відображає позицію Європейського Союзу чи Міжнародного фонду «Відродження».