Eindelijk heeft iemand het voor de hand liggende gedaan! Het is bedoeld voor open source modellen, maar aanbieders van gesloten source zouden ook aantekeningen moeten maken.
AI Security Institute
AI Security Institute12 aug, 18:59
Hoe kunnen open-weight Large Language Models worden beschermd tegen kwaadaardig gebruik? In ons nieuwe paper met @AiEleuther ontdekken we dat het verwijderen van schadelijke data vóór de training meer dan 10x effectiever kan zijn in het weerstaan van vijandige fine-tuning dan verdedigingen die na de training zijn toegevoegd 🧵
11,02K