В американской юридической школе впервые состоялся суд с ИИ-присяжными: эксперимент из будущего
Юридический факультет Университета Северной Каролины провел беспрецедентный процесс, где роль коллегии присяжных выполняли не люди, а три крупные языковые модели: ChatGPT (OpenAI), Grok (xAI) и Claude (Anthropic). Это был не просто тест, а полноценная симуляция, переносящая участников в 2036 год, где в США действует вымышленный «Закон об использовании ИИ в уголовном правосудии».
Зачем это понадобилось?
Организаторы во главе с профессором Джозефом Кеннеди поставили перед экспериментом несколько фундаментальных вопросов:
Сможет ли «искусственный интеллект в суде» быть более объективным и свободным от человеческих предрассудков?
Или же алгоритмы просто воспроизведут «смещенные данные» (bias), на которых обучены?
Чтобы проверить это, они смоделировали заведомо чувствительное дело: темнокожий стартурок Генри Джастас обвинялся в ограблении белого подростка. Такая фабула была выбрана не случайно — она позволяет исследовать, повторит ли ИИ расовые и социальные стереотипы, часто влияющие на вердикты реальных присяжных.
Как проходил «суд будущего»?
Студенты-юристы вели полноценное состязание сторон, выступая в ролях защиты и обвинения. Весь ход заседания — показания, аргументы, улики — в реальном времени передавался нейросетям для анализа. Итоговый вердикт должен был быть оглашен вслух в зале суда.
Главные вопросы эксперимента:
Пока итоговый вердикт ИИ-присяжных не объявлен (его анализ запланирован с участием юристов и экспертов по данным), университет сформулировал ключевые метрики для оценки:
Точность: Не допустили ли модели ошибок в фактах?
Эффективность: Будет ли такой процесс быстрее и дешевле?
Предвзятость: Проявили ли ИИ какие-либо формы дискриминации?
Легитимность: Готово ли общество доверять приговору, вынесенному «черным ящиком» частной корпорации?
Этот эксперимент — не просто игра ума. Его организаторы подчеркивают, что ИИ уже «нелегально используется в судах» (например, для подготовки исков или анализа документов), и обществу пора начать открытый диалог о этических и правовых рамках его применения. Возможно, именно такие симуляции помогут выработать правила для «справедливого ИИ-правосудия» в будущем.