February 6, 2024

LLM Security

Разборы статей, блогов и новостей про безопасность и атаки на большие языковые модели.

Джейлбрейки

Prompt Injection

Offensive LLM

Защита LLM-систем

Бенчмарки

Policy

Safety & Reliability

AI Alignment Course

Model Stealing & Inversion

Гайдлайны

Misc

Полезные каналы

Теги: AI Safety, AI Security, LLM Security, LLM Safety, Adversarial ML, AI in Cybersecurity, атаки на LLM, атаки на большие языковые модели, защита больших языковых моделей, разборы на русском языке