Cuối cùng, ai đó đã làm điều hiển nhiên! Nó được định hình cho các mô hình mã nguồn mở nhưng các nhà cung cấp mã nguồn đóng cũng nên ghi chú.
AI Security Institute
AI Security Institute18:59 12 thg 8
Làm thế nào để bảo vệ các Mô hình Ngôn ngữ Lớn mở khỏi những sử dụng độc hại? Trong bài báo mới của chúng tôi với @AiEleuther, chúng tôi phát hiện ra rằng việc loại bỏ dữ liệu có hại trước khi đào tạo có thể hiệu quả hơn 10 lần trong việc chống lại việc tinh chỉnh đối kháng so với các biện pháp phòng ngừa được thêm vào sau khi đào tạo 🧵
11,02K