Til slutt var det noen som gjorde det åpenbare! Den er innrammet for åpen kildekode-modeller, men nærkildeleverandører bør også ta notater.
AI Security Institute
AI Security Institute12. aug., 18:59
Hvordan kan åpne store språkmodeller beskyttes mot ondsinnet bruk? I vår nye artikkel med @AiEleuther finner vi at fjerning av skadelige data før trening kan være over 10 ganger mer effektivt for å motstå fiendtlig finjustering enn forsvar som legges til etter trening 🧵
11,08K