Немецкие регуляторы обратились к Apple и Google с требованием удалить китайское AI-приложение DeepSeek из своих магазинов приложений, ссылаясь на вопросы безопасности данных и соблюдения европейского законодательства о защите персональных данных.
G. Ostrov
Германские власти выступили с официальным требованием к технологическим гигантам Apple и Google об удалении китайского AI-приложения DeepSeek из App Store и Google Play соответственно. Это решение стало результатом растущих опасений относительно безопасности данных пользователей и соблюдения строгих европейских норм защиты персональной информации.
Причины запрета
Основные претензии немецких регуляторов касаются потенциальных нарушений Общего регламента по защите данных (GDPR). DeepSeek, разработанный китайской компанией, вызывает обеспокоенность властей относительно того, как приложение собирает, обрабатывает и передает персональные данные европейских пользователей.
Особую тревогу вызывает возможность передачи чувствительной информации на серверы, расположенные в Китае, что может противоречить европейским стандартам защиты данных. Немецкие эксперты по кибербезопасности также выразили опасения относительно потенциального использования данных для целей, не связанных с заявленным функционалом приложения.
Реакция технологических компаний
На момент публикации ни Apple, ни Google официально не прокомментировали требование немецких властей. Обе компании традиционно тщательно рассматривают подобные запросы от регуляторов, особенно когда речь идет о соблюдении местного законодательства в различных юрисдикциях.
Это не первый случай, когда европейские страны выражают обеспокоенность китайскими технологическими продуктами. Ранее аналогичные меры принимались в отношении других приложений, включая TikTok и различные мессенджеры.
Влияние на рынок AI
Потенциальное удаление DeepSeek из европейских магазинов приложений может создать прецедент для более строгого регулирования AI-приложений из Китая в ЕС. Это решение отражает более широкую тенденцию к усилению контроля над технологиями, разработанными в странах с различными подходами к защите данных.
Эксперты отмечают, что такие меры могут повлиять на инновации в области искусственного интеллекта, поскольку разработчики будут вынуждены адаптировать свои продукты под различные региональные требования безопасности.
Подробнее о ситуации можно прочитать в оригинальной статье на Хабре.
В случае каких-либо проблем напишите нам, мы поможем быстро и качественно!