00问答网
所有问题
当前搜索:
nlpir和hanlp
部分常用分词工具使用整理
答:
2、
HanLP
(汉语言处理包) 免费使用 3、SnowNLP(中文的类库) 免费使用 4、FoolNLTK(中文处理工具包) 免费使用 5、Jiagu(甲骨NLP) 免费使用 6、pyltp(哈工大语言云) 商用需要付费 7、THULAC(清华中文词法分析工具包) 商用需要付费 8、
NLPIR
(汉语分词系统) 付费使用 1、jieba(结巴分词)“...
目前常用的自然语言处理开源项目/开发包有哪些?
答:
中文主要有:NLTK,
HanLP
,Ansj,THULAC,结巴分词,FNLP,哈工大LTP,中科院ICTCLAS分词,GATE,SnowNLP,东北大学NiuTrans,
NLPIR
;英文主要有:NLTK,Genism,TextBlob,Stanford NLP,Spacy。英文的开源NLP工具主要参见StackoverFlow-java or python for nlp。HanLP:HanLP是由一系列模型与算法组成的Java工具...
有哪些比较好的中文分词方案?
答:
对于工具推荐,竹间智能特别推荐中科院
NLPIR
,它以其稳健的性能和丰富的功能备受认可。此外,还有:哈工大的LTP,虽然接口有一定的限制,但其性能卓越; 清华大学的THULAC,提供Java、Python和C++版本,开源且易于使用; 斯坦福分词器,CRF算法的经典之作,支持训练模型; 自训练的汉语言处理工具
HanLP
,...
如何用 Python 中的 NLTK 对中文进行分析和处理
答:
Jieba:可以用来做分词,词性标注,TextRank
HanLP
:分词,命名实体识别,依存句法分析,还有FudanNLP,
NLPIR
个人觉得都比NLTK好用~
其他人还搜
scala使用hanlp
sharulhan
kambarhan
hanlp使用
hanlp分类
hanlp流程
hanlp官网
hanlp是哪提出的
hanlp是哪里的工具