Enfin, quelqu'un a fait la chose évidente ! C'est conçu pour des modèles open source, mais les fournisseurs de code fermé devraient également prendre des notes.
AI Security Institute
AI Security Institute12 août, 18:59
Comment les modèles de langage à poids ouverts peuvent-ils être protégés contre les utilisations malveillantes ? Dans notre nouvel article avec @AiEleuther, nous constatons que supprimer les données nuisibles avant l'entraînement peut être plus de 10 fois plus efficace pour résister à l'affinage adversarial que les défenses ajoutées après l'entraînement 🧵
11,09K