Наконец-то кто-то сделал очевидную вещь! Это предназначено для открытых моделей, но поставщики с закрытым исходным кодом тоже должны взять на заметку.
AI Security Institute
AI Security Institute12 авг., 18:59
Как можно защитить открытые модели большого языка с переменным весом от злонамеренного использования? В нашей новой статье с @AiEleuther мы обнаружили, что удаление вредных данных перед обучением может быть более чем в 10 раз эффективнее в сопротивлении враждебной дообучаемости, чем защиты, добавленные после обучения 🧵
11,08K