أخيرا ، فعل شخص ما الشيء الواضح! إنه مؤطر للنماذج مفتوحة المصدر ولكن يجب على موفري المصدر القريبين أيضا تدوين الملاحظات.
AI Security Institute
AI Security Institute‏12 أغسطس، 18:59
كيف يمكن حماية نماذج اللغات الكبيرة ذات الوزن المفتوح من الاستخدامات الضارة؟ في ورقتنا البحثية الجديدة مع @AiEleuther ، وجدنا أن إزالة البيانات الضارة قبل التدريب يمكن أن تكون أكثر فعالية بأكثر من 10 مرات في مقاومة الضبط الدقيق للعداء من الدفاعات المضافة بعد التدريب 🧵
‏‎11.08‏K