Finalmente, alguém fez a coisa óbvia! Ele é estruturado para modelos de código aberto, mas os provedores de código fechado também devem fazer anotações.
AI Security Institute
AI Security Institute12 de ago., 18:59
Como os Large Language Models de peso aberto podem ser protegidos contra usos mal-intencionados? Em nosso novo artigo com @AiEleuther, descobrimos que a remoção de dados prejudiciais antes do treino pode ser 10 vezes mais eficaz em resistir ao ajuste fino adversário do que as defesas adicionadas após o treinamento 🧵
11,09K