Чат-боты выдают неверную информацию по запросам в 3-27% случаев — исследование

[ad_1]

Чат-боты различных разработчиков склонны придумывать информацию как минимум в 3% случаев, а бывает, и в 27%, написала в понедельник газета The New York Times со ссылкой на исследование основанной бывшими работниками Google компании Vectara.

Как отмечает издание, подобная тенденция — серьёзная проблема для тех, кто пользуется технологией при работе с судебными документами, медицинскими данными или с конфиденциальной информацией компаний.

В ходе эксперимента Vectara поставила перед различными чат-ботами простую задачу — пересказать содержание новостной статьи. Но даже в этом случае ИИ-системы непременно придумывали то, о чём в оригинальном тексте не сообщалось.

Исследователи считают, что это происходит потому, что чат-боты «не понимают поставленной задачи».

Напомним, о склонности сервисов генеративного ИИ выдумывать факты сообщалось и ранее. Так, при попытке пересказать новость один из сервисов указал неправильно имя и возраст жертвы, напутал с местом, где произошло событие, фальсифицировал цитату мэра Буэнос-Айреса, указал неверно имя мэра и пр.

См. также:

[ad_2]

Похожие публикации