
Кадр из фильма «Адвокат дьявола»
Эксперимент в Университете Северной Каролины
Исследователи юридического факультета Университета Северной Каролины провели уникальный эксперимент, чтобы оценить возможность использования искусственного интеллекта в судебной системе. Как сообщает издание Futurism, учёные решили проверить, могут ли современные языковые модели выполнять функции присяжных заседателей в гипотетическом судебном процессе.
Методология исследования
Для участия в эксперименте были выбраны три наиболее известные американские нейросети: ChatGPT от OpenAI, Grok от компании xAI Илона Маска и Claude от Anthropic. Им предоставили материалы вымышленного уголовного дела об ограблении, совершённом несовершеннолетним. Задача ИИ заключалась в анализе доказательств и вынесении вердикта о виновности или невиновности подсудимого, подобно реальным присяжным.
Весь процесс рассуждений искусственного интеллекта транслировался в реальном времени на нескольких экранах, что позволило наблюдателям детально изучить ход «мышления» машин.Ключевые выводы и критика
Основной целью этого необычного судебного разбирательства была демонстрация фундаментальных проблем, связанных с внедрением ИИ в правовую сферу. «Данный эксперимент ставит под сомнение точность, эффективность, беспристрастность и, в конечном счёте, законность применения подобных технологий в судопроизводстве», — пояснил профессор права Джозеф Кеннеди из UNC, выступивший инициатором и «судьёй» на этом процессе.
Исследование выявило несколько критических недостатков ИИ в роли присяжного. Во-первых, алгоритмы лишены способности воспринимать невербальные сигналы — мимику, жесты, эмоциональный окрас голоса свидетелей, что является важной частью оценки достоверности показаний. Во-вторых, они не обладают человеческим жизненным опытом и интуицией, необходимыми для понимания контекста и мотивов. Кроме того, неоднократно отмечалась проблема расовой и социальной предвзятости, заложенной в обучающих данных нейросетей (читайте также: Враг или друг: как врачи будут использовать искусственный интеллект в эстетической медицине).
Проблема «галлюцинаций» и реальные последствия
Отдельной серьёзной проблемой оказалась склонность языковых моделей к так называемым «галлюцинациям» — генерации ложной информации, которая подаётся системой как факт. ИИ может выдумывать несуществующие судебные прецеденты, цитаты или источники, что абсолютно недопустимо в юридической практике. Эта опасность уже перешла из теоретической плоскости в практическую: несколько американских адвокатов подверглись дисциплинарным взысканиям, лишились лицензий и заплатили крупные штрафы за использование в работе документов, сфабрикованных чат-ботами.

Кадр из фильма «Я, робот».
Парадокс: критика не останавливает внедрение
Несмотря на выявленные фундаментальные ограничения и риски, как отмечает Futurism, проникновение искусственного интеллекта в юридическую отрасль продолжает набирать обороты. Согласно опросу Reuters, около 73% юристов считают, что ИИ-инструменты приносят пользу их профессиональной деятельности. Более половины респондентов уже отмечают положительный финансовый эффект от их использования (читайте также: На ИИ надейся: почему родители доверяют нейросетям больше, чем врачам — новое исследование). Это создаёт парадоксальную ситуацию, когда практическая выгода идёт вразрез с доказанными этическими и proceduralными проблемами.
Мария Михалкова
Фото: Legion Media
Больше интересных статей здесь: Новости.
Источник статьи: Первые в мире ИИ-присяжные провалили проверку на человечность.