În cele din urmă, cineva a făcut lucrul evident! Este încadrat pentru modele open source, dar furnizorii cu sursă închisă ar trebui să ia notițe.
AI Security Institute
AI Security Institute12 aug., 18:59
Cum pot fi protejate modelele lingvistice mari deschise împotriva utilizărilor rău intenționate? În noua noastră lucrare cu @AiEleuther, constatăm că eliminarea datelor dăunătoare înainte de antrenament poate fi de peste 10 ori mai eficientă în rezistența la reglarea fină adversă decât apărarea adăugată după antrenament 🧵
11,09K