Джокер
Администратор
- Регистрация
- 2 Янв 2015
- Сообщения
- 112.135
- Реакции
- 72.656
Складчина: Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [udemy] [Start-Tech Academy]
Pentesting GenAI LLM models: Securing Large Language Models
Язык английский + аудио дорожка на русском языке (ИИ)
Чему вы научитесь:
Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение
Описание:
Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.
На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.
К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.
Оригинал описания:
Спойлер
Red Teaming & Penetration Testing for LLMs is a carefully structured course is designed for security professionals, AI developers, and ethical hackers aiming to secure generative AI applications. From foundational concepts in LLM security to advanced red teaming techniques, this course equips you with both the knowledge and actionable skills to protect LLM systems.
Throughout the course, you'll engage with practical case studies and attack simulations, including demonstrations on prompt injection, sensitive data disclosure, hallucination handling, model denial of service, and insecure plugin behavior. You'll also learn to use tools, processes, and frameworks like MITRE ATT&CK to assess AI application risks in a structured manner.
By the end of this course, you will be able to identify and exploit vulnerabilities in LLMs, and design mitigation and reporting strategies that align with industry standards.
СКАЧАТЬ СЛИВЫ КУРСОВ
Pentesting GenAI LLM models: Securing Large Language Models
Язык английский + аудио дорожка на русском языке (ИИ)
Чему вы научитесь:
Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение
Описание:
Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.
На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.
К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.
Оригинал описания:
Спойлер
Red Teaming & Penetration Testing for LLMs is a carefully structured course is designed for security professionals, AI developers, and ethical hackers aiming to secure generative AI applications. From foundational concepts in LLM security to advanced red teaming techniques, this course equips you with both the knowledge and actionable skills to protect LLM systems.
Throughout the course, you'll engage with practical case studies and attack simulations, including demonstrations on prompt injection, sensitive data disclosure, hallucination handling, model denial of service, and insecure plugin behavior. You'll also learn to use tools, processes, and frameworks like MITRE ATT&CK to assess AI application risks in a structured manner.
By the end of this course, you will be able to identify and exploit vulnerabilities in LLMs, and design mitigation and reporting strategies that align with industry standards.
СКАЧАТЬ СЛИВЫ КУРСОВ
Для возможности скачивать складчины и сливы курсов нужно зарегистрироваться
Возможно, Вас ещё заинтересует:
- Система Домашнее ПП [Светлана Саисламова]
- Построй бизнес на прямых закупках в Китае (ВЭД) [Екатерина Бушмина, Гульнара Гумерова]
- Как отбить претензию по самозанятым [Екатерина Арсентьева]
- Эзотерика: как выбрать "свое" и добиться успеха [Андрей Зрелов]
- Астрологическая магия и талисманы. Занятие 1 [Телема-93] [Анна Ленина]
- Как открыть прибыльную пекарню [Олег Бородин]
- [Украшения] Овощи из шелка и бархата [Анастасия Демидова]
- [Аудиокниги] СДВГ работает на вас. Как превратить нейроотличие в профессиональное преимущество [Лианн Маскелл]
- Старт в робототехнику с Python [stepik] [Святослав Гусс]
- Другие сладости (июль 2025) [Школа Низкоуглеводных Десертов] [ketocake39]