¡Finalmente, alguien hizo lo obvio! Está enmarcado para modelos de código abierto, pero los proveedores de código cerrado también deberían tomar nota.
AI Security Institute
AI Security Institute12 ago, 18:59
¿Cómo se pueden proteger los Modelos de Lenguaje de Gran Peso de usos maliciosos? En nuestro nuevo artículo con @AiEleuther, encontramos que eliminar datos dañinos antes del entrenamiento puede ser más de 10 veces más efectivo para resistir el ajuste adversarial que las defensas añadidas después del entrenamiento 🧵
11,08K