ModelScope模型训练的好坏?具体是针对nlp_palm2.0_text-generation_chinese-base这个模型。另外为什么我的output_best里好像没有rouge-l请参考此图片:
对于nlp_palm2.0_text-generation_chinese-base这个模型,ModelScope模型训练的好坏需要根据具体的评估指标来判断。常用的评估指标包括困惑度(Perplexity)、BLEU、ROUGE等。
关于output_best中没有rouge-l的问题,可能是因为在训练过程中没有使用ROUGE-L作为评估指标,或者在生成结果时没有计算ROUGE-L分数。请检查您的代码和配置文件,确保在训练和评估过程中使用了正确的指标。
对于nlp_palm2.0_text-generation_chinese-base这个模型,其训练的好坏取决于多个因素,包括数据集的质量、模型的架构和参数设置、训练算法的选择等等。
如果您的模型表现不佳,可能有以下原因:
数据集质量不高:如果数据集存在噪声或错误标注等问题,那么即使使用最先进的模型和算法也很难取得好的效果。因此,您需要仔细检查您的数据集并尽可能消除其中的噪声和错误标注。
模型架构和参数设置不合适:不同的任务需要不同的模型架构和参数设置。如果您的模型架构和参数设置不适合当前的任务,那么它的表现可能会受到影响。因此,您需要根据您的具体任务来选择合适的模型架构和参数设置。
训练算法的选择不当:不同的训练算法适用于不同的任务和数据集。如果您选择了不合适的训练算法,那么您的模型表现可能会受到影响。因此,您需要根据您的具体任务和数据集来选择合适的训练算法。
模型训练好坏的话可以通过看日志里面有每轮的训练评估,在dev集上的rouge指标,越高的话,模型效果越好 请参考此图片: 微调结束后有个output_best文件夹,保存了rouge-l最高的。pipeline中model="/xxx/xxx/output_best",就可以用微调的模型推理——此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”