Госдеп остался недоволен положениями готовящегося закона ЕС об ИИ и переписал их

[ad_1]

Разница европейского и американского подходов к контролю ИИ-систем

В этом контексте американский подход состоит в следующем: неважно, как ИИ-систему сделали, важно, как она работает.

Недостаток такого подхода состоит в том, что ИИ – не алгоритмическая система, залезть к ней «под капот», что проконтролировать работу, невозможно. Контролировать ИИ-систему «изнутри» полностью, очевидно, вообще нельзя.

Контроль состава данных для обучения ИИ-систем, как это определено законом ЕС, даёт больше понимания о том, чего следует ожидать от ИИ-системы, и позволяет избежать рисков на стадии проектирования.

Возражения США, которые решило высказать внешнеполитическое ведомство этой страны, связаны не с опасениями того, что компании – разработчики ИИ-систем поедут в американскую юрисдикцию. Такая перспектива США должна, наоборот, радовать. Дело в другом. Законодательство ЕС создаёт препятствия для бесконтрольного применения ИИ-систем, и это может стать проблемой для американских поставщиков ИИ-сервисов.

Во многом аналогичная ситуация имела место в связи с «безопасной гаванью». Этим термином обозначалось разрешение американским IT-компаниям получать и хранить у себя принадлежащие европейцам данные, в том числе персональные.

Предположение о том, что американцы используют эти данные для обучения ИИ-систем, не выглядит фантастическим. Это только один, в данном случае гипотетический, пример того, почему США возражают против требований ЕС публиковать сведения о том, как ИИ-системы обучались.

[ad_2]

Похожие публикации