快好知 kuaihz

综合深度

 0.2美元微调就能让ChatGP...

【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以在零样本(zero-sho...(展开)