BOMBA.PRESS© 2025
О насРекламаКонтактыПолитика конфиденциальностиУсловия использованияПолитика cookiesДоступность
Логотип BOMBA.Press
BOMBA.PressНовости Израиля
экономика12 декабря 2025, 12:10

Как юристы борются с «галлюцинациями» ИИ: новые технологии на страже точности в праве

Юридическая практика сталкивается с проблемой «галлюцинаций» искусственного интеллекта — когда чат-боты выдают вымышленные судебные прецеденты и факты. В ответ крупные фирмы, как Cozen O'Connor, тестируют специализированные программы, которые помогают выявлять и устранять такие ошибки до подачи документов в суд.

Как юристы борются с «галлюцинациями» ИИ: новые технологии на страже точности в праве

В условиях широкого распространения чат-ботов на базе искусственного интеллекта, таких как ChatGPT, Claude или Gemini, юридические фирмы столкнулись с новой сложностью: ИИ иногда генерирует ложные или вымышленные судебные прецеденты и цитаты, так называемые «галлюцинации».

Крупная юридическая фирма Cozen O'Connor ввела запрет на использование общедоступных чат-ботов для составления юридических документов. Тем не менее, в сентябре 2024 года два адвоката фирмы были наказаны судом за подачу документов с вымышленными делами, которые они подготовили с помощью ChatGPT, нарушив внутренние правила. Суд предложил им либо сняться с дела и оплатить санкции в размере 2,5 тыс. долларов каждый, либо написать объяснительные письма в свои юридические школы и коллегии адвокатов, а также провести семинары по профессиональной этике. Адвокаты выбрали второй вариант, а фирма уволила сотрудника, допустившего использование ИИ.

Для предотвращения подобных ситуаций Cozen O'Connor начала тестировать программное обеспечение Clearbrief — инструмент, разработанный стартапом, который автоматически сканирует юридические документы, выявляет вымышленные или ошибочные ссылки и факты, и формирует отчёт о найденных проблемах. По сути, это «проверка орфографии», но для юридических цитат.

Эксперты отмечают, что полностью исключить «галлюцинации» сложно, поскольку они связаны с природой крупных языковых моделей, которые прогнозируют наиболее вероятное следующее слово на основе предыдущего контекста. Однако компании, специализирующиеся на юридических данных, такие как Thomson Reuters и LexisNexis, предлагают решения, ограничивающие ИИ строгими базами проверенного правового материала. Это снижает риск появления полностью выдуманных ссылок.

В Израиле, где правовая система также опирается на большое количество судебных прецедентов и законов, подобные технологии могут помочь минимизировать ошибки при использовании ИИ в юридической практике. Особенно актуально это для молодых юристов и небольших фирм, которые часто испытывают дефицит ресурсов для тщательной проверки всех источников.

Тем не менее, эксперты подчёркивают, что ключ к решению проблемы — обучение юристов воспринимать ИИ как вспомогательный инструмент, а не как источник окончательной правовой информации. В конечном счёте, именно человеческий контроль и ответственность за документы остаются главными факторами качества и профессионализма.

Таким образом, борьба с «галлюцинациями» ИИ в юридической сфере требует комплексного подхода: от технических средств до этических норм и повышения квалификации специалистов.

Источник:businessinsider.com

Ещё по теме «экономика»

  • 1
    Перемены, которые изменят Oracle: трансформация бизнес-модели технологического гиганта
    →
  • 2
    Лучшие инженеры в IT не представлены в LinkedIn — мнение бывшего сотрудника Meta
    →
  • 3
    2025 год: перелом на рынке труда в сфере высоких технологий
    →
  • 4
    British Airways развернул самолет над Атлантикой и вернулся в Лондон после 9 часов полета
    →
  • 5
    Шторм Байрон принес облегчение израильским фермерам, завершив год засухи обильными дождями
    →