Специалист с тридцатью годами юридической практики за плечами «не знал, что данные чат-бота могут быть недостоверными».
Все началось с того, что клиент решил подать заявление в суд на авиакомпанию, в самолете которой он получил травму из-за тележки с едой. Адвокат, чтобы долго не рыться в прецедентах, решил попросить ChatGPT найти их самостоятельно.
Нейросеть выдало сразу десять случаев, но все они оказались выдумкой, а горе адвокат не удосужился их проверить.
Интересно то, что адвокат переспросил ChatGPT, не обманывает ли «оно» его насчет прецедентов. Нейросеть ответила, что нет.