Как юристы борются с «галлюцинациями» ИИ: новые технологии на страже точности в праве
Юридическая практика сталкивается с проблемой «галлюцинаций» искусственного интеллекта — когда чат-боты выдают вымышленные судебные прецеденты и факты. В ответ крупные фирмы, как Cozen O'Connor, тестируют специализированные программы, которые помогают выявлять и устранять такие ошибки до подачи документов в суд.
В условиях широкого распространения чат-ботов на базе искусственного интеллекта, таких как ChatGPT, Claude или Gemini, юридические фирмы столкнулись с новой сложностью: ИИ иногда генерирует ложные или вымышленные судебные прецеденты и цитаты, так называемые «галлюцинации».
Крупная юридическая фирма Cozen O'Connor ввела запрет на использование общедоступных чат-ботов для составления юридических документов. Тем не менее, в сентябре 2024 года два адвоката фирмы были наказаны судом за подачу документов с вымышленными делами, которые они подготовили с помощью ChatGPT, нарушив внутренние правила. Суд предложил им либо сняться с дела и оплатить санкции в размере 2,5 тыс. долларов каждый, либо написать объяснительные письма в свои юридические школы и коллегии адвокатов, а также провести семинары по профессиональной этике. Адвокаты выбрали второй вариант, а фирма уволила сотрудника, допустившего использование ИИ.
Для предотвращения подобных ситуаций Cozen O'Connor начала тестировать программное обеспечение Clearbrief — инструмент, разработанный стартапом, который автоматически сканирует юридические документы, выявляет вымышленные или ошибочные ссылки и факты, и формирует отчёт о найденных проблемах. По сути, это «проверка орфографии», но для юридических цитат.
Эксперты отмечают, что полностью исключить «галлюцинации» сложно, поскольку они связаны с природой крупных языковых моделей, которые прогнозируют наиболее вероятное следующее слово на основе предыдущего контекста. Однако компании, специализирующиеся на юридических данных, такие как Thomson Reuters и LexisNexis, предлагают решения, ограничивающие ИИ строгими базами проверенного правового материала. Это снижает риск появления полностью выдуманных ссылок.
В Израиле, где правовая система также опирается на большое количество судебных прецедентов и законов, подобные технологии могут помочь минимизировать ошибки при использовании ИИ в юридической практике. Особенно актуально это для молодых юристов и небольших фирм, которые часто испытывают дефицит ресурсов для тщательной проверки всех источников.
Тем не менее, эксперты подчёркивают, что ключ к решению проблемы — обучение юристов воспринимать ИИ как вспомогательный инструмент, а не как источник окончательной правовой информации. В конечном счёте, именно человеческий контроль и ответственность за документы остаются главными факторами качества и профессионализма.
Таким образом, борьба с «галлюцинациями» ИИ в юридической сфере требует комплексного подхода: от технических средств до этических норм и повышения квалификации специалистов.
