Entsperrung von Einzelzell-Grundlagenmodellen mit 96 % weniger Parametern Einzelzell-große Sprachmodelle (scLLMs) haben bemerkenswertes biologisches Wissen aus Millionen von Zellen erlernt. Aber sie haben eine kritische Schwäche: Wenn man sie aus ihrem Trainingskontext herausnimmt – eine neue Krankheit, eine unbekannte Art, eine nicht charakterisierte Zellpopulation – werden ihre Vorhersagen unzuverlässig. Die Standardlösung ist das Fine-Tuning. Aber Fine-Tuning überschreibt die ursprünglichen Modellparameter, was zu einem "katastrophalen Vergessen" des zuvor erlernten biologischen Wissens führt. Und es ist rechenintensiv, da es erhebliche GPU-Ressourcen erfordert, über die viele Forscher einfach nicht verfügen. Fei He und Mitautoren schlagen scPEFT vor – ein parameter-effizientes Fine-Tuning-Framework, das das ursprüngliche scLLM-Rückgrat einfriert und nur kleine, niederdimensionale Adapter trainiert. Vier Adaptertypen (Token-Adapter, Prefix-Adapter, LoRA, Encoder-Adapter) fügen sich in verschiedene Teile der Modellarchitektur ein und lernen aufgabenspezifische Anpassungen, ohne die vortrainierten Gewichte zu berühren. Die Effizienzgewinne sind bemerkenswert: scPEFT reduziert die trainierbaren Parameter um über 96 % und senkt den GPU-Speicherverbrauch um mehr als die Hälfte. Aber das Wichtigste ist: Es funktioniert tatsächlich besser als vollständiges Fine-Tuning. Bei krankheitsspezifischen Datensätzen (NSCLC, MS, COVID-19) erzielt scPEFT 39,7–81,7 % Genauigkeitsverbesserungen gegenüber nativen Modellen und 4,3–15 % Gewinne gegenüber feinabgestimmten Versionen, genau weil es das vortrainierte Wissen bewahrt, anstatt es zu überschreiben. Das Framework ermöglicht auch den Transfer zwischen Arten von menschlich trainierten Modellen: 14 % Verbesserung bei Mausneuronen, 39 % bei Makakenkeimzellen und 144 % bei C. elegans – alles unter Verwendung orthologer Genkarten. Die Analyse der Aufmerksamkeit identifiziert COVID-bezogene Gene in spezifischen T-Zell-Zuständen und entdeckt biologisch relevante Subpopulationen, die für feinabgestimmte Modelle unsichtbar sind. Die breitere Implikation: Da Grundlagenmodelle in der Biologie proliferieren, benötigen wir effiziente Möglichkeiten, sie anzupassen, ohne das, was sie gelernt haben, zu zerstören. scPEFT zeigt, dass manchmal weniger Aktualisierung mehr Lernen bedeutet. Papier: