Выберите язык

Выберите язык

Английский суд предупредил юристов о возможной уголовной ответственности за использование искусственного интеллекта в судебных материалах после выявления случаев ссылок на несуществующие судебные решения.

ai_lawyers_article.jpg

Высокий суд Англии и Уэльса официально предупредил представителей юридической профессии о серьёзных последствиях неправильного использования технологий искусственного интеллекта в судебной практике. Предупреждение последовало после выявления нескольких громких случаев, когда адвокаты представляли суду ссылки на полностью вымышленные судебные решения и цитировали несуществующие постановления.

Выявленные нарушения

Судьи Виктория Шарп, президент Королевского суда, и Джереми Джонсон рассмотрели два показательных случая использования ИИ-генерированной информации в судебных документах. В первом деле истец совместно с адвокатом открыто признали, что подготавливали материалы иска против двух банковских учреждений с активным использованием инструментов искусственного интеллекта.

Детальная проверка судебных материалов показала шокирующие результаты: из 45 представленных ссылок на судебную практику 18 оказались полностью вымышленными. Дело было закрыто в прошлом месяце с серьёзными последствиями для участников процесса.

Во втором случае, завершившемся в апреле текущего года, юрист, представлявший интересы клиента в споре с местной администрацией по жилищному вопросу, не смог предоставить объяснения происхождения пяти указанных примеров из судебной практики.

Официальная позиция суда

«Могут быть серьёзные последствия для правосудия и доверия к системе, если использовать ИИ неправильно», — заявила судья Шарп в своём официальном заключении. Она подчеркнула, что юристов могут привлечь к уголовной ответственности или лишить права заниматься профессиональной деятельностью за предоставление заведомо ложных данных, созданных искусственным интеллектом.

Судья особо отметила, что популярные ИИ-инструменты, включая ChatGPT, «не способны проводить надёжные правовые исследования» и могут генерировать хоть и уверенно сформулированные, но полностью ложные утверждения или ссылки на несуществующие источники судебной практики.

Детали конкретных случаев

В одном из рассмотренных дел мужчина потребовал выплатить ему компенсацию в размере нескольких миллионов за якобы нарушенные банками условия договора. Позже истец сам признал, что формировал ссылки на судебную практику через ИИ-инструменты и различные интернет-ресурсы, безоговорочно поверив в подлинность предоставленных материалов. Его адвокат заявил, что полагался на исследования клиента и не проверил информацию самостоятельно.

В другом деле юрист представляла интересы человека, который был выселен из дома в Лондоне и нуждался в предоставлении жилья. Она также использовала сгенерированные ИИ ссылки, но не смогла объяснить их происхождение. Суд заподозрил применение искусственного интеллекта из-за характерного американского написания слов и шаблонного стиля изложения текста.

Статистика ошибок ИИ

Исследования компании Vectara из Кремниевой долины, проводимые с 2023 года, показывают, что даже наиболее совершенные чат-боты допускают ошибки в 0,7–2,2% случаев. При этом уровень так называемых "галлюцинаций" резко возрастает, когда от систем требуют генерировать объёмный текст с нуля. OpenAI недавно сообщила, что её новые модели ошибаются в 51–79% случаев при ответах на общие вопросы.

Международная практика

Судья Шарп привела примеры из США, Австралии, Канады и Новой Зеландии, где искусственный интеллект некорректно интерпретировал законы или создавал вымышленные цитаты. Несмотря на признание ИИ мощным инструментом, она подчеркнула, что его использование сопряжено с серьёзными рисками для правосудия.

Официальный сайт Высокого суда Англии и Уэльса: https://www.judiciary.uk

В случае каких-либо проблем напишите нам, мы поможем быстро и качественно!