Главное правило при работе с нейросетями — не загружать туда критически важные данные, сообщил эксперт по информационной безопасности, замгендиректора Staffcop Юрий Драченин. Такой совет он дал в беседе с «Лентой.ру» после утечки данных пользователей китайской модели искусственного интеллекта (ИИ) DeepSeek.
Ранее об обнаружении в сети конфиденциальной информации юзеров рассказала американская компания по кибербезопасности Wiz.
Все, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано. Это касается бизнес-документов, коммерческих тайн, персональных данных, даже обычных вопросов, ведь контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии
Юрий ДраченинIT-эксперт
Эксперт отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда есть риски уязвимостей или просто банального человеческого фактора.
«Все новое всегда вызывает интерес, и в таких ситуациях "белые" хакеры похожи на "черных" — сначала идет чистый азарт и исследование системы. В сфере кибербезопасности есть огромное количество пентестеров, которые при появлении чего-то нового сразу начинают проверять его на элементарные уязвимости — своеобразная "проверка на детский мат" в шахматах. И сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», — поделился Драченин.
Ранее в Китае объявили о создании нейросети мощнее DeepSeek. Компания Alibaba Cloud заявила, что такой является их модель ИИ Qwen 2.5-Max.