Разработан делающий невозможным обучение ИИ метод «отравленных пикселей» на цифровых изображениях — СМИ

[ad_1]

Специалисты Чикагского университета разработали специальный инструмент, Nightshade, который делает невозможным обучение систем искусственного интеллекта (ИИ) на изображениях, обработанных специальным образом, сообщил на этой неделе technologyreview.com.

Инструмент может оказаться полезен художникам и дизайнерам, которые не хотят, чтобы их работы использовались для обучения ИИ-систем.

Nightshade позволяет создателям цифровых картин до публикации вносить незаметные человеческому глазу изменения в цифровое изображение, «отравляя» часть пикселей. Подробности о технологии не сообщаются.

Утверждается, что метод сделает бесполезными попытки обучить ИИ-системы (такие, как, например, DALL-E, Midjourney или Stable Diffusion), предназначенные для генерации изображений. Nightshade обманет ИИ, и тот по запросу «нарисовать собаку» сгенерирует изображение кошки, вместо машины нарисует корову и т.п.

Применение ИИ-технологий встречает сопротивление у людей творческих профессий. Так, ИИ стал одной из причин забастовки голливудских актёров. На ИИ разработчиков жаловались в суд известные писатели.

См. также: На каких текстах обучается генеративный ИИ Google – СМИ >>>

[ad_2]

Похожие публикации