Akhirnya, seseorang melakukan hal yang jelas! Ini dibingkai untuk model sumber terbuka tetapi penyedia sumber dekat juga harus mencatat.
AI Security Institute
AI Security Institute12 Agu, 18.59
Bagaimana Model Bahasa Besar bobot terbuka dapat dilindungi dari penggunaan berbahaya? Dalam makalah baru kami dengan @AiEleuther, kami menemukan bahwa menghapus data berbahaya sebelum pelatihan dapat lebih dari 10x lebih efektif dalam menahan penyempurnaan musuh daripada pertahanan yang ditambahkan setelah pelatihan 🧵
11,02K