Nightshade отравляет данные, нарушая процесс обучения ИИ-моделей
|
|
|
Исследователи из Чикагского университета разработали Nightshade — метод «отравления» данных, направленный на нарушение процесса обучения ИИ. Таким способом эксперты хотят помочь художникам и издателям защитить свои работы от использования для обучения генеративных ИИ, таких как Midjourney, DALL-E 3 и Stable Diffusion. Подробнее https://xakep.ru/20...
|
|
|
Комментарии могут оставлять только зарегистрированные пользователи
Перейти к полной версии
|