В последнее время БАГАЦ дважды столкнулся с новым явлением: адвокаты подавали в суд апелляции с заведомо недостоверными и просто выдуманными данными, включая отсылки к никогда не выносившимся судебным вердиктам. Причина - адвокаты составляют апелляции с помощью ботов ИИ и слепо доверяют их информации.
О первом таком случае сообщила 24 февраля корреспондент TheMarker Ифат Нойман. Рассматривая апелляцию против постановления шариатского суда, судьи БАГАЦ Гила Кнафи-Штайниц, Давид Минц и Йосеф Эльрон с удивлением обнаружили в ней ссылки на выдуманные “судебные прецеденты”.
Адвокат объяснила, что “пользовалась сайтом, который ей рекомендовали коллеги” и упросила судей рассмотреть апелляцию по существу, но учитывая растущие масштабы использования ИИ, судьи сочли необходимым принять решение на будущее: в подобных случаях судам дано право отвергать иски без рассмотрения по существу и наказывать адвокатов-халтурщиков - возлагать на них судебные расходы.
В прецедентном судебном вердикте объясняется, что так называемый генеративные ИИ, на котором строятся большие языковые модели вроде ChatGPT, способны “галлюцинировать” - продуцировать правдоподобно выглядящие тексты, не имеющие отношения к реальности, а также выдавать ошибочную, устаревшую и умышленно искаженную информацию. И адвокаты, используя в своей работе технологии ИИ, обязаны тщательно проверять все полученные от ИИ-ботов факты, о чем их уже официально предупреждала коллегия адвокатов.
Не прошло и недели, как БАГАЦ вновь столкнулся с “галлюцинациями ИИ” в апелляции, поданной обществом защиты прав собак против министра сельского хозяйства. На этот раз судьи отклонили апелляцию без рассмотрения и обязали “амуту” оплатить судебные расходы в размере 7,000 шекелей.
Ирина Жуковская