Вы уже используете ChatGPT или другие внешние языковые модели в работе? А кто гарантирует, что ваши корпоративные данные не попадут в обучающие модели злоумышленников? Всеслав Соленик из «СберТех» рассказывает о реальных рисках использования общедоступных нейросетей: от утечки конфиденциальной информации до внедрения и подмены контекста. Узнайте, как работает шлюз безопасности ИИ, как контролировать запросы и ответы ИИ и почему LLM нужно мониторить так же строго, как сеть или почту.
00:02:03 — Три основных аспекта ИИ с точки зрения кибербезопасности
00:12:53 — Контроль контекстов запросов и ответов: LLM-мониторинг в действии
00:14:46 — Можно ли доверять ИИ? Подход «доверяй, но проверяй» для внешних моделей
00:18:48 — Зачем нужен шлюз безопасности AI: архитектура и принципы работы
00:22:31 — Обнаружение уязвимостей в коде с помощью ИИ и принятие решений по обеспечению безопасности
00:23:18 — Анонс доклада лаборатории информационной безопасности: теневая сторона искусственного интеллекта
00:27:30 — Аналогия с Zoom: как безопасность ИИ проходит тот же путь, что и другие технологии
00:28:57 — Опасности моделей с открытым исходным кодом: кто их обучал и можно ли им доверять
53 views
363
97
52 minutes ago 00:02:26 74
🇺🇳🚢 Постпред РФ при ООН о наркотрафике
2 hours ago 00:02:26 7
Постпред РФ при ООН назвал выдумками американской пропаганды заявления США о том, что президент Венесуэлы Мадуро якобы связан с
2 hours ago 00:01:29 0
В CoD_ Warzone нашли новый баг, который позволяет выжить за пределами безопасной зоны