对于文本分词任务,您可以使用阿里云提供的Split Word(生成模型)算法组件。
该组件基于AliWS(Alibaba Word Segmenter)词法分析系统,支持中文淘宝分词和互联网分词。
需要注意的是,Split Word(生成模型)用于生成分词模型本身,因此在对文本进行分词前,您需要先部署模型,之后才能进行预测或调用在线API进行分词处理。
同样,您也可以使用NLP自然语言处理服务里面的基础文本服务-基础版以及基础文本服务-高级版服务,提供词法、句法、篇章分析等API中的通用领域能力,例如通用分词、通用词性标注等,每个算法服务提供 50万次/天 的免费调用额度可供您使用。
参考链接:https://help.aliyun.com/zh/pai/user-guide/word-splitting-generate-models
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。