如何实践基于本地大模型的中文命名实体识别技术?
- 内容介绍
- 文章标签
- 相关推荐
一、序章:为何要在本地玩大模型?
他急了。 先说个脑洞——你把公司机密数据扔进云端,后来啊被一只不明飞行物给偷走了!于是大家都慌了 决定把巨型语言模型拴在自家服务器上,像养宠物一样喂食、遛弯、给它们装上防弹玻璃。
吃瓜。 本地大模型的好处简直是:数据不跑出机房、 响应秒到、随时可以贴标签改过。特别是医疗、金融这种“刀子嘴”行业,合规要求像铁链一样紧箍着你。

二、 准备工作:硬件、软件与那点儿奇怪的依赖
- 硬件:显存≥24GB
- 系统:Linux+ Python 3.10+
- 库:transformers、modelscope、torch
⚠️ 小贴士:如果你的机器里还有 CUDA=11.8记得装对应的 torch==2.x不然报错会像雨后春笋一样冒出来。
三、 模型选型:从「通用」到「专科」的进化之路
常见的本地中文NER模型有两类:
- 通用模型:
uer/roberta-base-finetuned-cluener2020-chinese - 领域专用模型:
iic/nlp_raner_named-entity-recognition_chinese-base-cmeee
如果你只是想抽取人名、地点,那通用模型已经够用了;但如果你要在医院病历里捕捉「胰岛素」和「肺部CT」,强烈建议直接撸一个专业数据集微调,别怕...。
一、序章:为何要在本地玩大模型?
他急了。 先说个脑洞——你把公司机密数据扔进云端,后来啊被一只不明飞行物给偷走了!于是大家都慌了 决定把巨型语言模型拴在自家服务器上,像养宠物一样喂食、遛弯、给它们装上防弹玻璃。
吃瓜。 本地大模型的好处简直是:数据不跑出机房、 响应秒到、随时可以贴标签改过。特别是医疗、金融这种“刀子嘴”行业,合规要求像铁链一样紧箍着你。

二、 准备工作:硬件、软件与那点儿奇怪的依赖
- 硬件:显存≥24GB
- 系统:Linux+ Python 3.10+
- 库:transformers、modelscope、torch
⚠️ 小贴士:如果你的机器里还有 CUDA=11.8记得装对应的 torch==2.x不然报错会像雨后春笋一样冒出来。
三、 模型选型:从「通用」到「专科」的进化之路
常见的本地中文NER模型有两类:
- 通用模型:
uer/roberta-base-finetuned-cluener2020-chinese - 领域专用模型:
iic/nlp_raner_named-entity-recognition_chinese-base-cmeee
如果你只是想抽取人名、地点,那通用模型已经够用了;但如果你要在医院病历里捕捉「胰岛素」和「肺部CT」,强烈建议直接撸一个专业数据集微调,别怕...。

