Finalmente, alguém fez a coisa óbvia! Está estruturado para modelos de código aberto, mas os provedores de código fechado também deveriam prestar atenção.
AI Security Institute
AI Security Institute12/08, 18:59
Como podem os Modelos de Linguagem de Grande Escala de peso aberto ser protegidos contra usos maliciosos? No nosso novo artigo com @AiEleuther, descobrimos que remover dados prejudiciais antes do treinamento pode ser mais de 10 vezes mais eficaz em resistir ao ajuste fino adversarial do que defesas adicionadas após o treinamento 🧵
11,02K