Tag
我emo了。 先说个粗话:大语言模型想要有灵魂?别指望它们自己会写诗、 会哭、会爱——除非你先给它们喂点增量预训练的“灵魂鸡汤”。这玩意儿听起来高大上,其实就是把旧模型塞进新数据的垃圾桶里让它们继续呕吐出“知识”。 一、增量预训练到底是个啥玩意儿? 先把概念甩给大家:Continue Pre‑Training本质上是在以有模型基础上再跑几轮训练, 我满足了。 好像给老爷车装了个新发动机
查看更多 2026-02-24
Demand feedback