Россиянам дали совет по безопасному использованию нейросетей

3 часа(ов) назад 3
ARTICLE AD BOX

Фото: Uli Deck / dpa / Globallookpress.com

Главное правило при работе с нейросетями — не загружать туда критически важные данные, сообщил эксперт по информационной безопасности, замгендиректора Staffcop Юрий Драченин. Такой совет он дал в беседе с «Лентой.ру» после утечки данных пользователей китайской модели искусственного интеллекта (ИИ) DeepSeek.

Ранее об обнаружении в сети конфиденциальной информации юзеров рассказала американская компания по кибербезопасности Wiz.

Все, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано. Это касается бизнес-документов, коммерческих тайн, персональных данных, даже обычных вопросов, ведь контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии

Юрий ДраченинIT-эксперт

Эксперт отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда есть риски уязвимостей или просто банального человеческого фактора.

«Все новое всегда вызывает интерес, и в таких ситуациях "белые" хакеры похожи на "черных" — сначала идет чистый азарт и исследование системы. В сфере кибербезопасности есть огромное количество пентестеров, которые при появлении чего-то нового сразу начинают проверять его на элементарные уязвимости — своеобразная "проверка на детский мат" в шахматах. И сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», — поделился Драченин.

Ранее в Китае объявили о создании нейросети мощнее DeepSeek. Компания Alibaba Cloud заявила, что такой является их модель ИИ Qwen 2.5-Max.

Читать всю статью