Стратегии кибербезопасности систем ИИ: от GenAI до агентного ИИ [Udemy] [Derek Fisher]

Джокер

Администратор
Регистрация
1 Янв 2015
Сообщения
128.043
Реакции
76.003
Складчина: Стратегии кибербезопасности систем ИИ: от GenAI до агентного ИИ [Udemy] [Derek Fisher]
Strategies in Secure AI Systems: From GenAI and Agentic AI by Derek Fisher
Язык английский + бонусом субтитры на русском языке, + озвучка на русском языке (ИИ)



Чему вы научитесь:

Объясните фундаментальный семантический сдвиг в сфере безопасности ИИ и почему традиционные инструменты и подходы к обеспечению безопасности имеют существенные недостатки при применении к системам ИИ.
Распознавать и классифицировать типы архитектур GenAI и оценивать относительный уровень риска для их безопасности.
Примените структуру управления рисками в области ИИ от NIST для структурирования мероприятий по управлению рисками в сфере ИИ.
Сравните и сопоставьте основные фреймворки обеспечения безопасности ИИ, а также определите, когда следует применять каждый из них.
Выявление новых уязвимостей, характерных для систем искусственного интеллекта, включая внедрение вредоносного кода, отравление моделей, утечку данных посредством рассуждений и эксплуатацию уязвимостей агентов.
Оцените системы искусственного интеллекта на соответствие нормативным требованиям, включая классификацию рисков в соответствии с Законом ЕС об искусственном интеллекте и федеральные/штатные требования США.
Включите специфические аспекты безопасности ИИ в существующие программы кибербезопасности.
Обеспечение безопасности ИИ в эпоху автономных систем: полная стратегия защиты от искусственного интеллекта, генерируемого генераторами и агентами.
Готовы ли вы защититься от угроз нового поколения, связанных с искусственным интеллектом? Поверхность атаки коренным образом изменилась, и традиционных мер безопасности уже недостаточно.
В эпоху, когда системы искусственного интеллекта автономно принимают решения, генерируют контент и взаимодействуют с критически важной инфраструктурой, возникла новая парадигма уязвимостей. Добро пожаловать в «семантический сдвиг» , где злоумышленники больше не используют синтаксис кода, а манипулируют самим смыслом и намерениями.

Почему этот курс необходим для вашей карьеры
Для специалистов по безопасности: Традиционная безопасность приложений фокусировалась на SQL-инъекциях и переполнении буфера. Современные угрозы? Атаки с использованием «быстрой инъекции», которые перехватывают логические действия ИИ, отравление данных, которое искажает поведение моделей, и каскадные сбои в многоагентных системах. Этот курс устраняет разрыв между классической безопасностью приложений и новой картиной угроз в области ИИ.
Для инженеров в области ИИ/машинного обучения: Создание передовых систем ИИ бессмысленно, если их можно скомпрометировать с помощью семантических манипуляций. Научитесь проектировать безопасные по своей сути приложения ИИ, способные противостоять реальным враждебным тактикам, описанным в MITRE ATLAS™.
Для руководителей отделов соответствия и управления рисками: Разберитесь в сложной сети нормативных актов в области ИИ — от уровней риска, установленных Законом ЕС об ИИ, до Указа Президента США № 14110 и планов управления изменениями, разработанных FDA. Преобразуйте нормативные требования в действенные меры безопасности.
Чем отличается этот курс?
Интегрированные передовые отраслевые решения:

OWASP Top 10 для приложений LLM (2025) – Освойте новейшие уязвимости, от внедрения запросов до атак на цепочки поставок.
OWASP Top 10 для агентного ИИ (ASI) – Узнайте об уникальных рисках в автономных системах: перехват целей агента, неправильное использование инструментов, злоупотребление идентификацией.
NIST AI RMF – Внедрение функций GOVERN, MAP, MEASURE, MANAGE для управления рисками в области ИИ в масштабах предприятия.
MITRE ATLAS™ – Изучите реальные тактики и методы атак на системы машинного обучения, используемые противниками.
Практическое знакомство с циклом бесконечности LLMSecOps: выйдите за рамки теории с помощью полной 9-этапной структуры безопасного жизненного цикла, охватывающей все этапы от первоначального определения масштаба до непрерывного мониторинга — специально разработанной для систем искусственного интеллекта.
Оценивайте риски как никогда раньше: изучите новаторскую систему оценки AIVSS , которая сочетает традиционные метрики CVSS с оценкой рисков Agentic AI (AARS), предоставляя вам стандартизированный способ информирования заинтересованных сторон о рисках, связанных с ИИ, и расчета рентабельности инвестиций в безопасность.
Освоение технологий повышения конфиденциальности (PET): Внедрение передовых методов защиты с использованием дифференциальной конфиденциальности, федеративного обучения, гомоморфного шифрования и доверенных сред выполнения — обеспечение безопасности конфиденциальных обучающих данных без ущерба для производительности модели.
Применение в реальных условиях: пример использования системы PHAIMIS.
Завершите обучение углубленным изучением критически важной системы учета запасов в аптеке. Примените стандарты NIST, MITRE и OWASP к реальной ситуации, где сбои в системе безопасности ИИ имеют прямые последствия для безопасности пациентов.

По завершении обучения вы сможете:

Выявление и устранение 10 наиболее распространенных ошибок OWASP для приложений LLM и агентного ИИ.
Внедрить комплексную систему тестирования на проникновение в области ИИ на всех уровнях: модель, реализация, система и среда выполнения.
Разберитесь в глобальных нормативных актах в области ИИ (Закон ЕС об ИИ, Указ США № 14110, отраслевые требования).
Создайте структуру управления ИИ с использованием рамок назначения директоров по ИИ и допустимого уровня риска.
Внедрите методы LLMSecOps для обеспечения безопасности жизненных циклов разработки ИИ.
Оцените риски, связанные с ИИ, используя AIVSS, и сообщите руководству о рентабельности инвестиций.
Разрабатывайте защищенные многоагентные системы, устойчивые к каскадным сбоям.
Защита мультимодальных систем (VLM, дипфейки) от кросс-модальных атак
Поддерживайте документацию, готовую к аудиту, используя AIBOM, SBOM и типовые карточки.
Итог:
Традиционные методы кибербезопасности готовили вас к защите кода. Этот курс готовит вас к защите интеллекта, автономности и смысла — новой поверхности атаки в эпоху искусственного интеллекта.
Семантический сдвиг уже произошёл. Вы готовы?
Запишитесь прямо сейчас и станьте экспертом по безопасности с использованием ИИ, в котором так нуждается ваша организация.

Для кого этот курс:

Специалисты по безопасности приложений расширяют свою деятельность в область безопасности искусственного интеллекта.
Разработчики программного обеспечения, работающие с системами искусственного интеллекта или интегрирующие их в свою деятельность.
Инженеры и архитекторы по безопасности, ответственные за внедрение ИИ.
Специалисты по ИТ-рискам и соблюдению нормативных требований, курирующие инициативы в области искусственного интеллекта.
Менеджеры по продуктам и технические руководители, внедряющие решения на основе искусственного интеллекта.
Требования:

Понимание основных концепций кибербезопасности
Знание концепций безопасности приложений и жизненного цикла разработки программного обеспечения.
Ознакомление с концепциями искусственного интеллекта и понимание принципов работы систем ИИ.
Материалы курса:
4 разделf • 30 лекций • Общая продолжительность 5 ч 28 мин

Часть 1. Введение в безопасность ИИ
Часть 2: Риски в сфере искусственного интеллекта
Часть 3: Управление и соблюдение нормативных требований
Часть 4: Безопасная разработка и эксплуатация


Спойлер: Оригинальное описание:
Master AI Security in the Age of Autonomous Systems: The Complete GenAI & Agentic AI Defense Strategy
Are you ready to defend against the next generation of AI threats? The attack surface has fundamentally changed—and traditional security is no longer enough.
In an era where AI systems autonomously make decisions, generate content, and interact with critical infrastructure, a new paradigm of vulnerabilities has emerged. Welcome to the "Semantic Shift"—where attackers no longer exploit code syntax but manipulate meaning and intent itself.
Why This Course Is Essential for Your Career
For Security Professionals: Traditional application security focused on SQL injection and buffer overflows. Today's threats? Prompt injection attacks that hijack AI reasoning, data poisoning that corrupts model behavior, and cascading failures across multi-agent systems. This course bridges the gap between classic AppSec and the emerging AI threat landscape.
For AI/ML Engineers: Building cutting-edge AI systems means nothing if they can be compromised through semantic manipulation. Learn to architect secure-by-design AI applications that withstand real-world adversarial tactics documented in MITRE ATLAS™.
For Compliance & Risk Leaders: Navigate the complex web of AI regulations—from the EU AI Act's risk tiers to US Executive Order 14110 and FDA Predetermined Change Control Plans. Transform regulatory requirements into actionable security controls.
What Makes This Course Different
Industry-Leading Frameworks Integrated:
OWASP Top 10 for LLM Applications (2025) – Master the latest vulnerabilities from Prompt Injection to Supply Chain attacks
OWASP Top 10 for Agentic AI (ASI) – Learn unique risks in autonomous systems: Agent Goal Hijacking, Tool Misuse, Identity Abuse
NIST AI RMF – Implement GOVERN, MAP, MEASURE, MANAGE functions for enterprise-scale AI risk management
MITRE ATLAS™ – Understand real-world ML attack tactics and techniques used by adversaries
Hands-On with the LLMSecOps Infinity Loop: Go beyond theory with a complete 9-stage secure lifecycle framework covering everything from initial scoping through continuous monitoring—specifically designed for AI systems.
Quantify Risk Like Never Before: Learn the groundbreaking AIVSS Scoring System that combines traditional CVSS metrics with the Agentic AI Risk Score (AARS), giving you a standardized way to communicate AI-specific risks to stakeholders and calculate security ROI.
Privacy-Enhancing Technologies (PETs) Mastery: Implement cutting-edge protection with Differential Privacy, Federated Learning, Homomorphic Encryption, and Trusted Execution Environments—securing sensitive training data without sacrificing model performance.
Real-World Application: The PHAIMIS Case Study
Culminate your learning with an intensive examination of a safety-critical pharmacy inventory system. Apply NIST, MITRE, and OWASP standards to a real-world scenario where AI security failures have direct patient safety implications.
Промо на русском языке:







СКАЧАТЬ СЛИВЫ КУРСОВ