Bagaimana Model Bahasa Besar bobot terbuka dapat dilindungi dari penggunaan berbahaya? Dalam makalah baru kami dengan @AiEleuther, kami menemukan bahwa menghapus data berbahaya sebelum pelatihan dapat lebih dari 10x lebih efektif dalam menahan penyempurnaan musuh daripada pertahanan yang ditambahkan setelah pelatihan 🧵
30,1K