[ad_1]
Разница европейского и американского подходов к контролю ИИ-систем
В этом контексте американский подход состоит в следующем: неважно, как ИИ-систему сделали, важно, как она работает.
Недостаток такого подхода состоит в том, что ИИ – не алгоритмическая система, залезть к ней «под капот», что проконтролировать работу, невозможно. Контролировать ИИ-систему «изнутри» полностью, очевидно, вообще нельзя.
Контроль состава данных для обучения ИИ-систем, как это определено законом ЕС, даёт больше понимания о том, чего следует ожидать от ИИ-системы, и позволяет избежать рисков на стадии проектирования.
Возражения США, которые решило высказать внешнеполитическое ведомство этой страны, связаны не с опасениями того, что компании – разработчики ИИ-систем поедут в американскую юрисдикцию. Такая перспектива США должна, наоборот, радовать. Дело в другом. Законодательство ЕС создаёт препятствия для бесконтрольного применения ИИ-систем, и это может стать проблемой для американских поставщиков ИИ-сервисов.
Во многом аналогичная ситуация имела место в связи с «безопасной гаванью». Этим термином обозначалось разрешение американским IT-компаниям получать и хранить у себя принадлежащие европейцам данные, в том числе персональные.
Предположение о том, что американцы используют эти данные для обучения ИИ-систем, не выглядит фантастическим. Это только один, в данном случае гипотетический, пример того, почему США возражают против требований ЕС публиковать сведения о том, как ИИ-системы обучались.
[ad_2]