语料准备

简介: 之前查找了很多资料,发现语料准备这块的方法论很有限,在我看来如果说AI是个学生,语料其实是教科书,是知识的海洋,是AI的粮食,非常重要。本文主要探讨有充分的语料基础后对语料进行预处理的办法。

之前查找了很多资料,发现语料准备这块的方法论很有限,在我看来如果说AI是个学生,语料其实是教科书,是知识的海洋,是AI的粮食,非常重要。
本文主要探讨有充分的语料基础后对语料进行预处理的办法。
1,众包打标签
2,手工规则提取
关键词特征,使用数据库进行批量标记。
实体识别后特征选取,使用分词工具根据词性来标记。
词频统计,对高频特殊词单独标记。
### Dialogflow 边标记边训练,不断校正测试效果。
Explosion.ai 的 Prodigy , 快速手工标记,后台学习,提供预判,个人觉得并不好用。
3, 专家手工打标签
推荐Excel,可以与数据库互传数据,可以指定标签词汇范围,进行快速输入。
我总觉得语料工具应该有更大的发展空间,需要做的更好!

目录
相关文章
|
6月前
|
机器学习/深度学习 自然语言处理
机器翻译中的词性标注
机器翻译中的词性标注
71 2
|
6月前
|
机器学习/深度学习 自然语言处理 算法
机器翻译中的分词
机器翻译中的分词
86 2
lda模型和bert模型的文本主题情感分类实战
lda模型和bert模型的文本主题情感分类实战
215 0
|
数据可视化 数据挖掘
基于Bert的文本聚类工具:BERTopic
基于Bert的文本聚类工具:BERTopic
1774 0
基于Bert的文本聚类工具:BERTopic
|
30天前
|
自然语言处理 索引
使用BERT进行情感分析
【10月更文挑战第2天】
|
4月前
|
测试技术
千问文本分类任务微调
这段代码定义了一个`predict`函数,它使用Hugging Face的`AutoModelForCausalLM`和`AutoTokenizer`来生成对话回复。模型和tokenizer分别从指定路径加载,然后对输入的`messages`(包含指令和用户输入)进行处理,通过模型生成响应。代码最后展示了一个测试用例,其中讨论了历史人物的评价。模型的输出被打印出来。整个流程涉及预处理、模型推理和后处理,用于生成与历史相关的内容。
176 6
|
6月前
|
数据采集 自然语言处理
在ModelScope中进行情感分析模型的微调
在ModelScope中进行情感分析模型的微调
140 4
Bert可以提取关键词了:KeyBERT的介绍与使用
Bert可以提取关键词了:KeyBERT的介绍与使用
1920 1
Bert可以提取关键词了:KeyBERT的介绍与使用
|
PyTorch TensorFlow 算法框架/工具
抽取GPT-3预训练模型的emb向量
抽取GPT-3预训练模型的emb向量
218 1

相关实验场景

更多
下一篇
无影云桌面