ИИ в роли присяжных: почему нейросети не могут заменить людей в суде

Кадр из фильма «Адвокат дьявола»

Эксперимент в Университете Северной Каролины

Исследователи юридического факультета Университета Северной Каролины провели уникальный эксперимент, чтобы оценить возможность использования искусственного интеллекта в судебной системе. Как сообщает издание Futurism, учёные решили проверить, могут ли современные языковые модели выполнять функции присяжных заседателей в гипотетическом судебном процессе.

Методология исследования

Для участия в эксперименте были выбраны три наиболее известные американские нейросети: ChatGPT от OpenAI, Grok от компании xAI Илона Маска и Claude от Anthropic. Им предоставили материалы вымышленного уголовного дела об ограблении, совершённом несовершеннолетним. Задача ИИ заключалась в анализе доказательств и вынесении вердикта о виновности или невиновности подсудимого, подобно реальным присяжным.

Обратите внимание: Когда и где впервые появился романтичный аксессуар, зачем невеста бросает букет подругам, и как правильно подобрать цветы к подвенечному наряду — рассказываем все про свадебный букет.

Весь процесс рассуждений искусственного интеллекта транслировался в реальном времени на нескольких экранах, что позволило наблюдателям детально изучить ход «мышления» машин.

Ключевые выводы и критика

Основной целью этого необычного судебного разбирательства была демонстрация фундаментальных проблем, связанных с внедрением ИИ в правовую сферу. «Данный эксперимент ставит под сомнение точность, эффективность, беспристрастность и, в конечном счёте, законность применения подобных технологий в судопроизводстве», — пояснил профессор права Джозеф Кеннеди из UNC, выступивший инициатором и «судьёй» на этом процессе.

Исследование выявило несколько критических недостатков ИИ в роли присяжного. Во-первых, алгоритмы лишены способности воспринимать невербальные сигналы — мимику, жесты, эмоциональный окрас голоса свидетелей, что является важной частью оценки достоверности показаний. Во-вторых, они не обладают человеческим жизненным опытом и интуицией, необходимыми для понимания контекста и мотивов. Кроме того, неоднократно отмечалась проблема расовой и социальной предвзятости, заложенной в обучающих данных нейросетей (читайте также: Враг или друг: как врачи будут использовать искусственный интеллект в эстетической медицине).

Проблема «галлюцинаций» и реальные последствия

Отдельной серьёзной проблемой оказалась склонность языковых моделей к так называемым «галлюцинациям» — генерации ложной информации, которая подаётся системой как факт. ИИ может выдумывать несуществующие судебные прецеденты, цитаты или источники, что абсолютно недопустимо в юридической практике. Эта опасность уже перешла из теоретической плоскости в практическую: несколько американских адвокатов подверглись дисциплинарным взысканиям, лишились лицензий и заплатили крупные штрафы за использование в работе документов, сфабрикованных чат-ботами.

Кадр из фильма «Я, робот».

Парадокс: критика не останавливает внедрение

Несмотря на выявленные фундаментальные ограничения и риски, как отмечает Futurism, проникновение искусственного интеллекта в юридическую отрасль продолжает набирать обороты. Согласно опросу Reuters, около 73% юристов считают, что ИИ-инструменты приносят пользу их профессиональной деятельности. Более половины респондентов уже отмечают положительный финансовый эффект от их использования (читайте также: На ИИ надейся: почему родители доверяют нейросетям больше, чем врачам — новое исследование). Это создаёт парадоксальную ситуацию, когда практическая выгода идёт вразрез с доказанными этическими и proceduralными проблемами.

Мария Михалкова

Фото: Legion Media

Больше интересных статей здесь: Новости.

Источник статьи: Первые в мире ИИ-присяжные провалили проверку на человечность.