Finalmente, qualcuno ha fatto la cosa ovvia! È inquadrato per modelli open source, ma anche i fornitori closed source dovrebbero prendere appunti.
AI Security Institute
AI Security Institute12 ago, 18:59
Come possono essere protetti i modelli di linguaggio di grandi dimensioni a peso aperto contro usi malevoli? Nel nostro nuovo articolo con @AiEleuther, scopriamo che rimuovere dati dannosi prima dell'addestramento può essere oltre 10 volte più efficace nel resistere al fine-tuning avversariale rispetto alle difese aggiunte dopo l'addestramento 🧵
11,02K