Подробно расскажу о существующих уязвимостях в больших языковых моделях (Large Language Models, LLM) — как в open-source, так и в проприетарных.
Начну с обзора различных типов уязвимостей, которые могут возникнуть при использовании LLM. Далее выделю наиболее часто встречающиеся уязвимости и приведу примеры реальных атак, которые мы использовали для тестирования собственных и клиентских продуктов. Затем перейдем к ключевой теме доклада — обсуждению способов защиты от этих атак. Представлю текущие методы и подходы, которые могут использоваться для повышения безопасности LLM.
Одна из ключевых идей моего выступления — это привлечение внимания сообщества к вопросам безопасности языковых моделей. Важно, чтобы исследователи и разработчики понимали серьезность этих угроз и работали над их предотвращением. Надеюсь, что доклад поможет поднять осведомленность о проблемах безопасности и вдохновит других на разработку продуктов с языковыми моделями, которые будут более безопасными и надежными.
25 views
28
7
2 weeks ago 00:20:04 1
НОВОСТИ ИИ: ChatGPT пишет первым и атомный ИИ
4 weeks ago 00:11:39 1
Запуск мультимодальных LLM в ScriptrunAI: Интеграция Нейросетей в проекты по API | Всеволод Скрипник
1 month ago 00:29:14 141
Данил Капустин. Отравление данных в LLM и новые риски мультиагентных систем
1 month ago 00:14:25 91
Александр Смирнов. Как использовать всю мощь ChatGPT и не бояться утечек
2 months ago 01:05:25 204
Желтый Club Talks — Про классический NLP, LLM и не только
2 months ago 00:45:42 1
Применение LLM в информационной безопасности: путь к AI-ассистенту
2 months ago 00:02:54 27
Студия. Настройки LLM: что это и на что влияют
3 months ago 00:39:52 725
Безопасность LLM. Данил Капустин
3 months ago 01:05:26 3
Желтый Club Talks — Про классический NLP, LLM и не только