Технології ШІ та автоматизованого ухвалення рішень (automatic decision-making) усе частіше використовують органи правопорядку та кримінального правосуддя. У діяльності правоохоронних і судових органів застосовують два основні методи:
- профайлингу, тобто прогнозування індивідуальної чи колективної поведінки в майбутньому (ризику скоєння ними злочину чи рецидиву), визначення вразливих до злочинів локацій та ухвалення рішень щодо осіб (притягнення до відповідальності, засудження чи пробацію)[1];
- скорингу (соціального оцінювання), тобто присвоєння індивідуальних чи колективних оцінок на основі різноманітних показників, пов’язаних з їхньою попередньою поведінкою або ж узагальненою інформацією про них.
Українська «Касандра», іспанське «RisCanvi» чи нідерландська система CAS[2] — спільною ціллю впровадження цих технологій ШІ задекларовано підвищення рівня громадської безпеки. Однак застосування згаданих інструментів критикують через недосконалість, оскільки рішення, ухвалені за їх допомогою, можуть бути наслідком упередженого ставлення до окремих осіб чи навіть соціальних груп.
Як наслідок, на кожній зі стадій — розслідування поліції, формулювання обвинувачення та ухвалення рішення судом — позиція цих органів може бути завідомо необ’єктивною лише на підставі інформації, яку надають технології ШІ. Головною причиною цього є їх (не)прозорість: закритість внутрішніх принципів і механізмів роботи, що створює ризики упередженого профілювання.
«Чорна скринька» з порадами
Дилема прозорості технологій ШІ існує у двох вимірах: у першу чергу це питання відкритості самого процесу їх розроблення й того, хто і в який спосіб створює і впливає на створення цих технологій. Друга, і не менш важлива проблема, полягає в складності встановлення джерел, якими вони оперують і на основі яких технології ШІ формулюють рішення.
До прикладу, чат-боти можуть отримувати інформацію з вебсайтів, баз даних, соціальних мереж і даних користувачів. Поєднання відомостей з різних джерел допомагає згенерувати персоналізовані рекомендації та створити ті результати, які використовуються при ухваленні рішень.
Проте встановити, як саме і де була зібрана інформація, наскільки вона правдива, — справжній виклик. Особливо гостре питання прозорості ШІ при забезпеченні правопорядку, де слід прагнути максимальної об’єктивності задля справедливого правозастосування. У випадку технологій ШІ у сфері правопорядку це можуть бути набори даних (дата-сети), які напрацьовані за роки роботи органів правопорядку.
Якби робота цих органів була бездоганною, очевидно, не знадобилося б використання цих технологій. І навіть якщо джерела даних, на основі яких функціонують технології ШІ у сфері правопорядку, перевірені й об’єктивні, ризик системного збою, помилкового розрахунку, пошкодження вихідної інформації, зовнішнього втручання все одно існуватиме.
Найчастіше спроби застосування ШІ для забезпечення громадської безпеки мають на меті передбачити рівень злочинності в спільнотах чи місцевостях через складання профілю осіб, сімей, культурних груп тощо. Прикладом колективного профайлингу із цією метою може бути інструмент демографічної класифікації «Mosaic», створений компанією «Experian». Ось так виглядає профіль спільнот азійського походження в Британії, створений за допомогою цієї технології:
«… характерними є великі сімʼї, часто з кількома дітьми. У родинах можуть також бути діти з додатковою до середньої освітою або ж вищими академічними ступенями… Їхні домівки недорогі, мають тісні вікторіанські тераси та здебільшого три кімнати, орендовані або ж придбані в приватних землевласників… Статус працевлаштування варіативний: від студентів, які працюють на умовах часткової або повної зайнятості, до тих, хто ніколи не працював та залишається вдома. Менша частина представників цієї категорії є безробітна. Працевлаштовані особи найчастіше залучені до низькооплачуваних робіт у транспортному сервісі чи закладах громадського харчування…»[3].
Такий опис за умови неупередженості може бути одним з «пазлів», що формує загальну картину для ухвалення рішення поліцією чи іншими органами правопорядку. Деталі в демографічному профілі, на перший погляд, здаються подекуди надмірними, та насправді можуть вплинути на хід розслідування справи, оскільки виняткові атрибути часто є індикатором приналежності до певних етносів, вірувань, ідеологічних груп тощо і заздалегідь формують упередження щодо них.
Однак на практиці такий профайлинг грішить упередженістю. Вищенаведений опис ще достатньо компліментарний: можливі випадки, коли особистий чи колективний профайлинг, здійснений за допомогою ШІ у сфері правопорядку, буде значно більш упередженим і дискримінаційним.
Прикладом є досвід застосування технологій ШІ для забезпечення правопорядку в Нідерландах. Серед інструментів, які використовували національні органи правопорядку, були, зокрема, система географічного прогнозування «Crime Anticipation System» (CAS) — алгоритмічна система оцінювання ризиків і прогнозування злочинів (для складання профілів ймовірних винуватців крадіжок у торговельних центрах), «Sensing Project» і платформа «Top400», створена для моделювання ризиків правопорушень.
Здавалося б, технологічна панацея для запобігання злочинів знайдена. Та, на жаль, слабким місцем використання цих систем стала стигматизація вразливих прошарків населення, передовсім іммігрантів. Так, аналіз застосування цих технологій ШІ показує, що, наприклад, вихідці з країн Східної Європи (Польщі, Болгарії, Румунії, Литви, Боснії та Герцеговини і Сербії) ставали обʼєктом суб’єктивної уваги органів правопорядку Нідерландів через їхній профайлинг[4].
З іншого боку, нідерландський досвід свідчить, що скоринг відносить до «груп ризику» осіб, які раніше не вчиняли злочинів, однак через соціальний статус, місце проживання та/чи етнічне походження підпадають під певні критерії. Як наслідок, адвокати з Нідерландів відзначали, що багато осіб регулярно затримують, наприклад, за підозрою у вуличних грабежах, якщо вони були скоєні в районах, де живуть ці люди, лише через рекомендації, надані цими системами, хоча об’єктивних підстав для цього немає.
Тож виникає логічне питання: чи така посилена увага до окремих груп і їхніх представників не є дискримінацією і чи настільки технології ШІ ефективні порівняно з попередніми методами роботи поліції та інших органів?
Що робити з упередженістю ШІ?
Здійснення профайлингу чи скорингу через технології ШІ задля забезпечення правопорядку може мати сенс і користь. Логічним кроком за підсумками аналізу може стати інтенсивніше патрулювання поліції й посилена увага до місцевостей чи груп, що, згідно зі статистичними чи якісними дослідженнями, мають вищий від середнього рівень чи ризик злочинності. Знову ж таки, це може допомогти уникати більш суворого покарання там, де можна застосовувати більш м’яке.
Однак на цьому етапі можливі й протилежні, негативні наслідки застосування технологій ШІ для ухвалення рішень у сфері правопорядку.
Ті технології ШІ, які зараз використовуються для допомоги органам правопорядку та органам кримінального правосуддя в ухваленні рішень завдяки оцінюванню ризиків, нерідко мають технологічні вади для обʼєктивного оцінювання, контролю й підзвітності. Окрім цього, складно визначити етичну межу такого підходу.
Ключовим завданням органів правопорядку та владних структур у цьому контексті є забезпечення правопорядку без стигматизації та дискримінації широкого кола осіб, що може бути перешкодою для їх інтеграції та адаптації в нових спільнотах. У застосуванні технологій ШІ цього досягнути неможливо, якщо принципи їхньої роботи не будуть зрозумілими, а розроблення і впровадження цих технологій здійснюватиметься без участі експертів і громадського нагляду.
На думку фахівців «Fair Trials», міжнародної правозахисної організації, така нестача прозорості є наслідком як свідомих зусиль, спрямованих на приховування внутрішньої роботи й архітектури технологій ШІ (з юридичних чи бізнесових причин), так і природи технологій, що використовуються для побудови систем. Деякі технології ШІ не зрозумілі навіть для експертів, що поки ставить під сумнів їхню безумовну користь у правосудді.
Іншою важливою проблемою є джерела, на яких ці технології «вчаться». І доки вона існуватиме, ШІ не варто розглядати як самостійний елемент ухвалення правових рішень. Так, він може виконувати допоміжну роль при ухваленні рішень у сфері громадської безпеки, але його рекомендації треба оцінювати критично.
Розвиток і впровадження регуляторних норм, побудованих на етичних засадах, для використання ШІ в правосудді зможе забезпечити вищий рівень довіри до автоматизованих інструментів і розв’язати безпекову дилему. Саме розроблення належної нормативної та етичної бази регулювання застосування ШІ в правосудді має передувати широкому застосуванню цих технологій органами правопорядку задля забезпечення громадської безпеки.
При цьому розроблення як нормативного й етичного регулювання, так і самих технологій ШІ не може здійснювати лише держава. До цього мають бути залучені як інші учасники цього процесу — судді, прокурори, адвокати, так і широке коло експертів — з програмування і ШІ, соціологів, психологів, фахівців з етики тощо.
Як наголошує американський мислитель Джон Келвін Максвелл: «Прозорість породжує легітимність». У випадку технологій ШІ у сфері правопорядку це твердження є не просто афоризмом, а обов’язковою умовою їх застосування.
Матеріал підготовлено за підтримки Європейського Союзу та Міжнародного фонду «Відродження» в межах спільної ініціативи «Європейське Відродження України». Матеріал представляє позицію авторів і не обов’язково відображає позицію Європейського Союзу чи Міжнародного фонду «Відродження».
[1] https://www.fairtrials.org/app/uploads/2021/11/Automating_Injustice.pdf
[2] https://www.fairtrials.org/app/uploads/2021/11/Automating_Injustice.pdf
[3] https://bigbrotherwatch.org.uk/2018/04/a-closer-look-at-experian-big-data-and-artificial-intelligence-in-durham-police/#_ftn3
[4] https://www.fairtrials.org/app/uploads/2021/11/Automating_Injustice.pdf