Юридический факультет Университета Северной Каролины провел беспрецедентный процесс, где роль коллегии присяжных выполняли не люди, а три крупные языковые модели: ChatGPT (OpenAI), Grok (xAI) и Claude (Anthropic). Это был не просто тест, а полноценная симуляция, переносящая участников в 2036 год, где в США действует вымышленный «Закон об использовании ИИ в уголовном правосудии».
Зачем это понадобилось?
Организаторы во главе с профессором Джозефом Кеннеди поставили перед экспериментом несколько фундаментальных вопросов:
Чтобы проверить это, они смоделировали заведомо чувствительное дело: темнокожий стартурок Генри Джастас обвинялся в ограблении белого подростка. Такая фабула была выбрана не случайно — она позволяет исследовать, повторит ли ИИ расовые и социальные стереотипы, часто влияющие на вердикты реальных присяжных.
Как проходил «суд будущего»?
Студенты-юристы вели полноценное состязание сторон, выступая в ролях защиты и обвинения. Весь ход заседания — показания, аргументы, улики — в реальном времени передавался нейросетям для анализа. Итоговый вердикт должен был быть оглашен вслух в зале суда.
Главные вопросы эксперимента:
Пока итоговый вердикт ИИ-присяжных не объявлен (его анализ запланирован с участием юристов и экспертов по данным), университет сформулировал ключевые метрики для оценки:
Этот эксперимент — не просто игра ума. Его организаторы подчеркивают, что ИИ уже «нелегально используется в судах» (например, для подготовки исков или анализа документов), и обществу пора начать открытый диалог о этических и правовых рамках его применения. Возможно, именно такие симуляции помогут выработать правила для «справедливого ИИ-правосудия» в будущем.
Зачем это понадобилось?
Организаторы во главе с профессором Джозефом Кеннеди поставили перед экспериментом несколько фундаментальных вопросов:
- Сможет ли «искусственный интеллект в суде» быть более объективным и свободным от человеческих предрассудков?
- Или же алгоритмы просто воспроизведут «смещенные данные» (bias), на которых обучены?
Чтобы проверить это, они смоделировали заведомо чувствительное дело: темнокожий стартурок Генри Джастас обвинялся в ограблении белого подростка. Такая фабула была выбрана не случайно — она позволяет исследовать, повторит ли ИИ расовые и социальные стереотипы, часто влияющие на вердикты реальных присяжных.
Как проходил «суд будущего»?
Студенты-юристы вели полноценное состязание сторон, выступая в ролях защиты и обвинения. Весь ход заседания — показания, аргументы, улики — в реальном времени передавался нейросетям для анализа. Итоговый вердикт должен был быть оглашен вслух в зале суда.
Главные вопросы эксперимента:
Пока итоговый вердикт ИИ-присяжных не объявлен (его анализ запланирован с участием юристов и экспертов по данным), университет сформулировал ключевые метрики для оценки:
- Точность: Не допустили ли модели ошибок в фактах?
- Эффективность: Будет ли такой процесс быстрее и дешевле?
- Предвзятость: Проявили ли ИИ какие-либо формы дискриминации?
- Легитимность: Готово ли общество доверять приговору, вынесенному «черным ящиком» частной корпорации?
Этот эксперимент — не просто игра ума. Его организаторы подчеркивают, что ИИ уже «нелегально используется в судах» (например, для подготовки исков или анализа документов), и обществу пора начать открытый диалог о этических и правовых рамках его применения. Возможно, именно такие симуляции помогут выработать правила для «справедливого ИИ-правосудия» в будущем.