Доклад «Безопасное взаимодействие с внешними LLM»

Вы уже используете ChatGPT или другие внешние языковые модели в работе? А кто гарантирует, что ваши корпоративные данные не попадут в обучающие модели злоумышленников? Всеслав Соленик из «СберТех» рассказывает о реальных рисках использования общедоступных нейросетей: от утечки конфиденциальной информации до внедрения и подмены контекста. Узнайте, как работает шлюз безопасности ИИ, как контролировать запросы и ответы ИИ и почему LLM нужно мониторить так же строго, как сеть или почту. 00:02:03 — Три основных аспекта ИИ с точки зрения кибербезопасности 00:12:53 — Контроль контекстов запросов и ответов: LLM-мониторинг в действии 00:14:46 — Можно ли доверять ИИ? Подход «доверяй, но проверяй» для внешних моделей 00:18:48 — Зачем нужен шлюз безопасности AI: архитектура и принципы работы 00:22:31 — Обнаружение уязвимостей в коде с помощью ИИ и принятие решений по обеспечению безопасности 00:23:18 — Анонс доклада лаборатории информационной безопасности: теневая сторона искусственного интеллекта 00:27:30 — Аналогия с Zoom: как безопасность ИИ проходит тот же путь, что и другие технологии 00:28:57 — Опасности моделей с открытым исходным кодом: кто их обучал и можно ли им доверять
Back to Top