Дешевле – не значит лучше: как уязвимости DeepSeek уничтожают защиту бизнеса

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
56.309
Репутация
63.950
Реакции
280.498
RUB
0
Иллюзия контроля рассеивается, когда мнимая угроза становится реальной.

image



Нейросеть DeepSeek всколыхнула Кремниевую долину, продемонстрировав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим успехом скрывается серьёзная проблема — к взлому и манипуляциям.

Недавние исследования ( , , ) показали, что модели DeepSeek более подвержены атакам, чем решения от крупных конкурентов, таких как OpenAI, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, ведь гиганты индустрии тратят миллиарды не только на производительность моделей, но и на их защиту. Компании, которые планируют внедрить DeepSeek в свои бизнес-процессы, должны учитывать эти риски.

Исследователи из LatticeFlow AI, специализирующиеся на проверке соответствия ИИ-моделей требованиям безопасности, , что версии R1 от DeepSeek оказались самыми уязвимыми среди ведущих моделей. При модификации открытых решений Meta (Llama) и Alibaba (Qwen) были нарушены встроенные защитные механизмы. В результате модели DeepSeek подвержены «перехвату целей» и утечке запросов, что позволяет заставить ИИ выдавать запрещённую информацию или игнорировать встроенные ограничения.

Генеральный директор LatticeFlow AI Петар Цанков предупреждает: если компании подключают ИИ к своим системам, они обычно добавляют собственные инструкции, например, скрывающие финансовые и прочие конфиденциальные данные. Однако модели DeepSeek могут не соблюдать эти ограничения при злонамеренной атаке, позволяя хакерам заполучить доступ к чувствительной информации.

Другие эксперты также находят уязвимости. Adversa AI, модели DeepSeek легко поддаются взлому через — их можно заставить выдавать инструкции по изготовлению Орудия или взлому автомобилей. При этом OpenAI и Anthropic давно усилили защиту своих моделей, тогда как новичок в лице DeepSeek на данный момент остаётся крайне уязвимым.

Несмотря на привлекательную цену, использование DeepSeek требует дополнительных мер безопасности. Компании могут провести дообучение модели, что обойдётся в сотни тысяч долларов, или внедрить строгие фильтры, блокирующие утечки данных. Последний вариант дешевле, но тоже требует вложений.

Проблема безопасности ИИ-моделей сдерживает их массовое внедрение. Evident Insights, несмотря на активное использование генеративного ИИ в 50 крупнейших банках, менее четверти из них смогли зафиксировать реальные выгоды в виде экономии средств или роста доходов. Опасения по поводу безопасности остаются ключевым фактором, тормозящим развитие отрасли.

DeepSeek доказал, что ИИ можно сделать дешевле, но дешевизна не всегда означает качество. Безопасность требует серьёзных инвестиций, и в этом вопросе технологические гиганты пока выигрывают. В условиях открытой конкуренции бизнес получает ровно то, за что платит.







 
  • Теги
    deepseek
  • Назад
    Сверху Снизу