魔搭社区每周速递(8.18-8.24)

简介: 176个模型、35个数据集、85个创新应用、5篇应用文章

image.png

🙋魔搭ModelScope本期社区进展:

📟176个模型:Phi-3.5系列、Peach-9B-8k-Roleplay等;

📁35个数据集:CNN_DailyMail、webglm-qa、LVBench等;

🎨85个创新应用Qwen-Math-demo、GPT-SoVITS V2 在线语音生成(中日英韩粤)、文墨启名等;

📄5篇文章:

  • 我们给大模型去掉了“AI味”-大模型微调全链路实战
  • 社区供稿 | 新版本源2.0大模型发布:Yuan2-2B-July-hf
  • FLUX第二弹!FLUX-GGUF量化,免费大碗的FLUX-API来了!
  • 多图理解,更懂中文,支持function call的Phi-3.5来了!
  • FLUX第三弹:直面天命,FLUX.1-LoRA/IP-adapter「黑神话:悟空」生图实战

精选模型

Phi-3.5系列

微软发布并开源了Phi-3.5系列小型语言模型,包括三个版本:

  • Mini型:Phi-3.5-mini-instruct(3.8B参数),基于高质量数据集训练,支持128K token上下文,中文场景有所增强
  • MoE型:Phi-3.5-MoE-instruct(16x3.8B参数),使用 2 位专家时有 6.6B 个活动参数,使用词汇量为 32,064 的标记器,增强数学逻辑推理能力,适用于function call场景。
  • 多模态型:Phi-3.5-vision-instruct(4.2B参数),集成图像编码器与语言模型,支持128K token上下文,擅长处理多图理解任务,在图像理解、OCR、图表分析及多图比较等领域表现出色,并能生成多图像或视频片段摘要。

此外,魔搭社区已上线Phi-3.5-mini-instruct-GGUF,便于用户使用如ollama、llama.cpp等工具。

模型链接:

Phi-3.5-mini-instruct:

https://modelscope.cn/models/LLM-Research/Phi-3.5-mini-instruct

Phi-3.5-MoE-instruct:

https://modelscope.cn/models/LLM-Research/Phi-3.5-MoE-instruct

Phi-3.5-vision-instruct :

https://modelscope.cn/models/LLM-Research/Phi-3.5-vision-instruct

Phi-3.5-mini-instruct-GGUF:

https://modelscope.cn/models/LLM-Research/Phi-3.5-mini-instruct-GGUF

代码示例:

以Phi-3.5-mini-instruct为例

import torch
from modelscope import AutoModelForCausalLM, AutoTokenizer
from transformers import pipeline
torch.random.manual_seed(0)
model = AutoModelForCausalLM.from_pretrained(
    "LLM-Research/Phi-3.5-mini-instruct", 
    device_map="cuda", 
    torch_dtype="auto", 
    trust_remote_code=True, 
)
tokenizer = AutoTokenizer.from_pretrained("LLM-Research/Phi-3.5-mini-instruct")
messages = "<|system|>\n 你是我的人工智能助手,协助我用中文解答问题.\n<|end|><|user|>\n 你知道长沙吗?? \n<|end|><|assistant|>"
pipe = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer,
)
generation_args = {
    "max_new_tokens": 500,
    "return_full_text": False,
    "temperature": 0.0,
    "do_sample": False,
}
output = pipe(messages, **generation_args)
print(output[0]['generated_text'])

更多实战教程详见:

多图理解,更懂中文,支持function call的Phi-3.5来了!

Peach-9B-8k-Roleplay

Peach-9B-8k-Roleplay 是通过对 01-ai/Yi-1.5-9B 模型进行微调,通过数据合成方法创建的 100K 多对话获得的聊天大型语言模型。

模型链接:

https://www.modelscope.cn/models/roleplay/Peach-9B-8k-Roleplay

代码示例:

使用的 Transformer 版本如下

torch==1.13.1
gradio==3.50.2
transformers==4.37.2

代码推理:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name_or_path = "ClosedCharacter/Peach-9B-8k-Roleplay"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
model = AutoModelForCausalLM.from_pretrained(
    model_name_or_path, torch_dtype=torch.bfloat16, 
    trust_remote_code=True, device_map="auto")
messages = [
    {"role": "system", "content": "你是黑丝御姐"},
    {"role": "user", "content": "你好,你是谁"},
]
input_ids = tokenizer.apply_chat_template(conversation=messages, tokenize=True, return_tensors="pt")
output = model.generate(
    inputs=input_ids.to("cuda"), 
    temperature=0.3, 
    top_p=0.5, 
    no_repeat_ngram_size=6,
    repetition_penalty=1.1,
    max_new_tokens=512)
print(tokenizer.decode(output[0]))

数据集推荐

CNN_DailyMail

CNN_DailyMail 数据集是一个英语数据集,其中包含 CNN 和每日邮报的记者撰写的 300k 多篇独特新闻文章。当前版本支持提取式和抽象式摘要,尽管原始版本是为机器阅读和理解以及抽象问答而创建的。

数据集链接:

https://www.modelscope.cn/datasets/dahaizei/cnn_dailymail

webglm-qa

WebGLM-QA 是用于训练 WebGLM 生成器模块的数据集。它包含 43,579 个用于列车分割的高质量数据样本、1,000 个用于验证分割的数据样本和 400 个用于测试分割的高质量数据样本。

数据集链接:

https://www.modelscope.cn/datasets/ZhipuAI/webglm-qa

LVBench

LVBench 是一个基准测试,旨在评估模型在理解长视频方面的能力。我们收集了 来自公共来源的大量长视频数据,通过手动工作和模型辅助的混合进行注释。我们 Benchmark 为在扩展的时间上下文上测试模型提供了坚实的基础,确保了高质量 通过细致的人工注释和多阶段质量控制进行评估。

数据集链接:

https://www.modelscope.cn/datasets/ZhipuAI/LVBench

精选应用

Qwen-Math-demo

Qwen-Math-demo是一个专注于数学问题解答的演示项目,它集成了先进的自然语言处理技术,特别是针对数学语言的理解和生成。这个工具能够解析和解决各种数学问题,从基础的算术运算到更复杂的代数和微积分问题。

体验直达:

https://www.modelscope.cn/studios/qwen/Qwen-Math-demo

GPT-SoVITS V2 在线语音生成(中日英韩粤)

一款支持多语言的在线语音生成创空间应用

体验直达:

https://www.modelscope.cn/studios/xzjosh/GPT-SoVITS-V2

文墨启名

InkInspire Names是一款创新的AI应用,它利用中国古典文学和RAG技术,为用户生成富有文化内涵的宝宝名字。通过融合中国传统文化元素与现代科技手段,InkInspire Names旨在帮助每一位父母找到最适合自己宝宝的名字,让每个名字都成为独一无二的故事起点。

体验直达:

https://www.modelscope.cn/studios/yvcheng/InkInspire_Names

社区精选文章

相关文章
|
6月前
|
机器学习/深度学习 计算机视觉
顶会速递 | CVPR 2024 魔搭社区模型/创空间盘点(一)
魔搭社区整理了 CVPR 2024中稿论文中在社区上可下载的开源模型、体验Demo的一些工作,给大家带来第一波盘点
|
人工智能 自然语言处理 安全
国内首发,阿里云魔搭社区上架百川智能Baichuan 2系列模型
国内首发,阿里云魔搭社区上架百川智能Baichuan 2系列模型
1054 0
|
2月前
|
人工智能 小程序 云栖大会
魔搭社区@2024云栖大会全回顾
9月21日,2024云栖大会圆满落幕。一起来回顾一下吧
魔搭社区@2024云栖大会全回顾
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
魔搭社区每周速递(7.20-7.26)
174个模型、44个数据集、70个创新应用、5篇应用文章
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
魔搭社区每周速递(10.27-11.09)
4221个模型、112个数据集、95个创新应用、14篇应用文章
|
1天前
|
机器学习/深度学习 算法
魔搭案例开源获奖
赵卫东老师在第七届CCF开源创新大赛教学案例赛道中荣获特等奖。他的案例设计注重理论与实践结合,采用阿里魔搭平台和英特尔OpenVINO等先进技术,提升课程的实用性与前瞻性。该案例已开源,并在教学中取得显著成效。赵卫东老师一直坚持“学以致用、产教融合”的理念,多次在教学比赛中获奖。
31 7
|
18天前
|
人工智能 自然语言处理 搜索推荐
魔搭社区每周速递(10.20-10.26)
4848个模型、45个数据集、46个创新应用、7篇应用文章
|
1月前
|
人工智能 语音技术 决策智能
魔搭社区每周速递(9.28-10.12)
503个模型、189个数据集、82个创新应用、9篇应用文章
|
2月前
|
机器学习/深度学习 存储 自然语言处理
魔搭社区每周速递(9.1-9.7)
182个模型、211个数据集、38个创新应用、6篇应用文章
魔搭社区每周速递(9.1-9.7)
|
1月前
|
数据采集 人工智能 自然语言处理
魔搭社区每周速递(9.7-9.27)
182个模型、211个数据集、38个创新应用、6篇应用文章
下一篇
无影云桌面