解锁单细胞基础模型,参数减少96% 单细胞大型语言模型(scLLMs)从数百万个细胞中学习了显著的生物知识。但它们有一个关键的弱点:将它们置于训练上下文之外——新的疾病、未见过的物种、未表征的细胞群体——它们的预测变得不可靠。 标准的解决方案是微调。但微调会覆盖原始模型参数,导致“灾难性遗忘”之前学习的生物知识。而且它计算成本高,需要大量的GPU资源,而许多研究人员根本没有这些资源。 Fei He及其合著者提出了scPEFT——一种参数高效的微调框架,冻结原始的scLLM主干,仅训练小型、低维的适配器。四种适配器类型(Token适配器、Prefix适配器、LoRA、Encoder适配器)插入模型架构的不同部分,学习特定任务的调整,而不触及预训练权重。 效率提升显著:scPEFT将可训练参数减少超过96%,并将GPU内存使用量减少一半以上。但重要的是——它的表现实际上优于完全微调。在特定疾病数据集(NSCLC、MS、COVID-19)上,scPEFT在原生模型上实现了39.7%–81.7%的准确率提升,并在微调版本上获得了4.3%–15%的增益,正是因为它保留而不是覆盖预训练知识。 该框架还支持从人类训练模型的跨物种迁移:小鼠神经元提高14%,猕猴生殖细胞提高39%,秀丽隐杆线虫提高144%——所有这些都使用同源基因映射。注意力分析识别了特定T细胞状态中的COVID相关基因,并揭示了微调模型无法看到的生物学相关亚群体。 更广泛的意义在于:随着基础模型在生物学中的普及,我们需要有效的方法来适应它们,而不破坏它们所学到的知识。scPEFT表明,有时,更新得少意味着学习得多。 论文: