Чем предстоит заниматься:
- Анализ безопасности систем ML, LLM и GenAI;
- Разработка защиты от атак на системы ML, LLM и GenAI;
- Проведение аудитов и тестирования AI-систем на проникновение;
- Разработка политики и процессов безопасности AI/ML;
- Интегрирование безопасных практик в жизненном цикле моделей;
- Отслеживание новых угроз и требований в сфере AI-безопасности.
Требования:
- Опыт в ИБ или ML от 1 года;
- Глубокое понимание принципов работы ML/LLM/GenAI;
- Знакомство с работой MLOps-конвейера;
- Понимание угрозы и атаки на ML/LLM/GenAI;
- Знание ML-фреймворков (TensorFlow, PyTorch) и MLOps-инструментов;
- Умение разбираться в современных LLM и GenAI;
- Знакомство с инструментами анализа безопасности ML/LL.
Будет плюсом:
- Знание распространенных уязвимостей и атак на системы машинного обучения;
- Понимание подходов и практик DevSecOps / MLOps / MLSecOps / LLMSecOps.