Този уъркшоп ще ти донесе практическо и задълбочено разбиране за реалните уязвимости в съвременните приложения, базирани на Large Language Models (LLM) и GenAI. В рамките на четири интензивни сесии (по два часа) ще откриеш как работят агентните системи, RAG архитектурите и инструментите, които свързват LLM с външния свят – и най-важното, как могат да бъдат атакувани.
Обучението е изцяло ориентирано към практиката и следва OWASP Top 10 за LLM & GenAI – официалната класация на най-рисковите уязвимости в GenAI приложенията. Всеки риск се разглежда чрез реалистичен пример и хакерски сценарий, включително чрез Gandalf Agent Breaker – платформа за експлоатация на LLM агенти, както и чрез специално подготвени уязвими backend компоненти.
Кога и къде?
Дати: от 27.01- 05.02 (вторник и четвъртък) от 17:00 до 19:00 ч – (27.01, 29.01, 3.02, 5.02)
Формат: Онлайн провеждане в реално време. Уъркшопът е без запис.
Какво ще научиш?
След уъркшопа ще можеш да:
- Оценяваш рисковете при интеграция на LLM в реални системи
- Откриваш и елиминираш уязвимости преди да попаднат в продукция
- Проектираш по-сигурни AI агенти, инструменти и RAG системи
- Предотвратяваш течове на чувствителна информация
- Разработваш AI функционалности без да отваряш нови attack vectors
- Избягваш costly DoS атаки, халюцинации и логически грешки
Какви технологии и инструменти ще използваме?
- Browser-based attack playgrounds
- Gandalf Agent Breaker
- Custom vulnerable AI backend (Python + FastAPI/Flask)
- LLM APIs (OpenAI, Anthropic или локални модели)
За кого е подходящ уъркшопът?
Идеалният участник има:
- Базови познания по AI/LLM, prompt engineering или софтуерна разработка.
- Интерес към киберсигурност, AI агенти, RAG, LLM интеграции.
- Разбиране как работят API-та и основни web технологии.
И идеалният участник няма:
- Опит в AI сигурността (не е задължително).
- Дълбок ML know-how.
- Реален опит в LLM hacking – ще го добие тук.
Подходящ за: разработчици, AI инженери, DevOps, QA, pentesters, Cybersecurity специалисти, data инженери и технически лидери.


