[ad_1]
Специалисты Чикагского университета разработали специальный инструмент, Nightshade, который делает невозможным обучение систем искусственного интеллекта (ИИ) на изображениях, обработанных специальным образом, сообщил на этой неделе technologyreview.com.
Инструмент может оказаться полезен художникам и дизайнерам, которые не хотят, чтобы их работы использовались для обучения ИИ-систем.
Nightshade позволяет создателям цифровых картин до публикации вносить незаметные человеческому глазу изменения в цифровое изображение, «отравляя» часть пикселей. Подробности о технологии не сообщаются.
Утверждается, что метод сделает бесполезными попытки обучить ИИ-системы (такие, как, например, DALL-E, Midjourney или Stable Diffusion), предназначенные для генерации изображений. Nightshade обманет ИИ, и тот по запросу «нарисовать собаку» сгенерирует изображение кошки, вместо машины нарисует корову и т.п.
Применение ИИ-технологий встречает сопротивление у людей творческих профессий. Так, ИИ стал одной из причин забастовки голливудских актёров. На ИИ разработчиков жаловались в суд известные писатели.
См. также: На каких текстах обучается генеративный ИИ Google – СМИ >>>
[ad_2]