Генеративный ИИ и машинное обучение стремительно проникают в сферу кибербезопасности. Уже сейчас ИИ помогает выстраивать защиту, автоматизировать анализ инцидентов, усиливать SOC и выявлять фишинг. Но в то же время — используется и против бизнеса: с его помощью создают фишинговые письма, deepfake-видео и голосовые подделки, обходят MFA, взламывают пароли и даже пишут эксплойты.
В прямом эфире AM Live мы покажем обе стороны — как ИИ помогает защищаться и как он атакует. Обсудим, какие реальные задачи решают LLM и машинное обучение в ИБ уже сегодня, а где пока преобладает хайп. Разберём, как меняются угрозы с развитием ИИ, где пролегает граница доверия к моделям, и в каких сценариях безопасность требует человека — а не цифрового ассистента. Обсудим кейсы, технологии и реальные риски нового времени.
Кибербезопасность под влиянием машинного обучения и ИИ
Как ИИ повлиял на экономику киберпреступности?
Какие риски несёт компаниям внедрение ИИ в собственные продукты и процессы?
Если использовать модель ATT&CK/ATLAS: какие техники и векторы атак на ИИ вы уже видите в бою?
Зачем машинное обучение и ИИ нужны в кибербезопаности?
В каких задачах ИИ действительно даёт существенный прирост эффективности?
Какие условия должны быть выполне для применения ИИ?
Политики и рамки использования ИИ в кибербезопасности
При каких условиях можно доверять результатам работы ИИ в ИБ?
Как оценивать ошибки моделей?
Что такое “дрейф” и “деградация качества” моделей ИИ в ИБ?
Как вести мониторинг здоровья наших моделей и агентов ИИ на постоянной основе?
Где в ИБ реально можно делегировать ИИ принятие решения?
Какие юридические и комплаенс-ограничения чаще всего всплывают при использовании ИИ?
Что считать минимальным набором правил в “политике использования GenAI” в компании образца 2026 года?
Как уменьшить риск компрометации при внедрении ИИ в системы ИБ?
Как мотивировать команду ИБ активнее использовать инструменты ИИ и copilot в своей работе?
Как не допустить “потери компетенций” в команде?
Прогнозы на 2026 год
Какие сценарии использования ИИ в ИБ к 2026 году станут стандартом, а какие останутся нишевыми?
Как изменится роль SOC и аналитиков?
Какие риски будут “догонять рынок” весь 2026 год?
Поэтапный план (дорожная карта) по внедрению ИИ в кибербезопасности 2026 году
Руководитель группы исследования технологий машинного обучения
«Лаборатория Касперского»
Руководитель центра искусственного интеллекта и перспективных технологий
BI.ZONE
Стать участником мероприятия
Заполните форму и наш представитель свяжется с вами
Мы используем cookie-файлы
Для обеспечения оптимальной работы сайта используются технология Сookie. Оставаясь на нашем сайте, вы соглашаетесь с Политикой обработки персональных данных. Если вы хотите запретить обработку файлов Сookie, отключите Сookie в настройках вашего браузера.