零基础上手百炼语音AI模型|Github示例工程介绍

简介: 零基础上手百炼语音AI模型|Github示例工程介绍

文章来源:阿里语音AI


在层出不穷的AI模型爆发的当下,语音识别、语音合成和端到端语音翻译等领域也取得了亮眼的突破和进展。然而,将这些先进的AI模型转化为切实可行的应用并非易事,特别是要将语音AI技术便捷地融入到产品、日常工作和生活之中,开发者仍然面临着挑战和障碍。


要克服这些障碍,除了拥有扎实的技术能力外,还需要创新思维、跨领域协作以及场景化的能力,这是一个不小的门槛,也会影响到AI应用进入千行百业,更好地服务更多的人。为了让每一个人都能轻松使用阿里云百炼的语音服务,最大限度降低开发者接入的门槛,阿里巴巴通义实验室语音团队设计了alibabacloud-bailian-speech-demo项目,希望能让每个人都可以一键调用所有百炼语音AI服务,体验语音及大模型的魅力,助力其进行产品开发。


项目地址:https://github.com/aliyun/alibabacloud-bailian-speech-demo


💡 Alibabacloud-bailian-speech-demo能为您做什么?


如果您是刚接触语音 AI 的开发者,在这里,您只需要执行一条指令:


  • 调用所有先进的语音服务,包括 CosyVoice语音生成大模型、Gummy语音翻译大模型、Paraformer语音识别和 SenseVoice 多语言识别大模型,并将他们和通义千问大模型结合。


  • 从麦克风实时识别您说的话,并将文字和标点显示出来。


  • 将您输入的文字合成为音频,并通过扬声器播放出来。


  • 将您的音视频文件进行转写,获取识别文字的同时,对全部文字进行摘要和总结。


  • 克隆您自己的声音,并通过语音合成以您的音色朗读任何文本。


如果您是资深开发者,或是希望搭建服务,您可以在这里:


  • 高并发调用语音模型服务的最佳实践(paraformercosyvoice


  • 在大模型语音对话中,从扬声器实时流式朗读大模型生成的文字


  • 低延迟的上屏语音识别实时字幕


我们还提供了在使用语音服务中、编程中遇到的常见问题排查方法和解决方案。


此外,我们还提供了有趣丰富的Gallery,展示语音功能的进阶用法:


  • 调用语音合成大模型,用多种自然的音色,分角色朗读一个故事。


  • 调用语音识别大模型、翻译大模型等,制作一个同声传译程序。


通过场景化的示例,项目展示了如何通过阿里云百炼的语音大模型服务开发工具包(SDK),实现语音识别、语音合成、音视频内容分析、语音交互等各类AI功能。开发者可以很容易的将这些示例集成进自己的项目中进行二次开发。


技术方案


>>>开发语言


在示例代码中,我们将提供Python和Java两种百炼SDK的示例项目,并且提供了最简单方便的运行方法:


  • 在Python项目中,直接运行run.py


  • 在Java项目中,提供了一键mvn编译+运行的run.sh脚本


在每一个项目您都可以找到介绍这个项目能做什么,如何实现的README文档。在不同编程语言的子目录中,您可以找到如何具体使用的README说明。


如果您希望通过更多语言接入百炼的语音AI能力,我们也在文档中开放了与模型进行交互的 websocket和http的网络协议。


>>>项目结构


我们的项目分为四个主要部分,按照目录划分:



快速入门


所有的示例代码都是支持通过环境变量读取您的账号AppKey。


推荐您在运行示例前在终端通过环境变量配置账号,这样您后续无论进入任何项目目录都不需要额外配置


>>>Windows 系统


$env:DASHSCOPE_API_KEY="YOUR_API_KEY"
# 验证设置生效
echo $env:DASHSCOPE_API_KEY


>>>Linux & MacOS 系统


export DASHSCOPE_API_KEY=YOUR_API_KEY
# 验证设置生效
echo $DASHSCOPE_API_KEY


原子能力展示


NO.1 合成一句话并保存为音频文件


在这个示例中,演示使用Python 调用cosyvoice-v1模型,使用loongstella音色合成一段文本并保存到mp3文件中。


核心代码如下:


text_to_synthesize = '想不到时间过得这么快!昨天和你视频聊天,看到你那自豪又满意的笑容,我的心里呀,就如同喝了一瓶蜜一样甜呢!真心为你开心呢!
'file_to_save = 'result.mp3'
def synthesize_speech_from_text(text, file_path):
speech_synthesizer = SpeechSynthesizer(model='cosyvoice-v1', 
voice='loongstella',
callback=None) 
audio = speech_synthesizer.call(text) 
with open(file_path, 'wb') as f:
f.write(audio) 
print(f'Synthesized text {text} to file : {file_path}')  
print('[Metric] requestId: {}, first package delay ms: {}'.format(    
speech_synthesizer.get_last_request_id(),     
speech_synthesizer.get_first_package_delay()))                                       voice='loongstella',                                           callback=None)    audio = speech_synthesizer.call(text)    with open(file_path, 'wb') as f:        f.write(audio)    print(f'Synthesized text {text} to file : {file_path}')    print('[Metric] requestId: {}, first package delay ms: {}'.format(        speech_synthesizer.get_last_request_id(),        speech_synthesizer.get_first_package_delay()))



在每一个示例项目代码中,不仅包括调用服务,获取结果,还包括了统计服务相应速度、任务ID信息等信息。

例如在这个语音合成任务中,我们会打印requestId和发送文本到收到首个音频包的耗时。


相关代码:samples/speech-synthesizer/synthesize_speech_from_text


NO.2 从麦克风进行实时语音识别


在这个示例中,演示使用 Python 调用paraformer-realtime-v2模型,实时识别在麦克风说的话。


相关代码:samples/speech-recognition/recognize_speech_from_microphone


NO.3 从麦克风实时翻译一句话


在这个示例中,演示使用 Python 调用gummy-chat-v1一句话翻译大模型,将识别第一句话并翻译成德语。


相关代码:samples/speech-recognition/translate_speech_from_microphone_for_one_sentence


NO.4 合成音频并播放


在这个示例中,演示使用 Java 调用qwen-plus大模型,并将流式生成的结果流式发给cosyvoice-v1语音合成大模型合成音频实时播放。


相关代码:samples/speech-synthesizer/synthesize_speech_from_llm_by_streaming_mode


NO.5 克隆声音


在这里示例中,演示语音 happy.wav 通过cosyvoice-v1的音色复刻功能克隆出新的音色,并且朗读一段文本。


相关代码:samples/speech-synthesizer/synthesize_speech_from_text_with_cloned_voice


NO.6 总结长音频内容


在这个示例中,演示如何提取出一段三分钟英文视频中的音频并转为opus编码,之后通过千问大模型总结了中的内容,并且向大模型提问。




相关代码:samples/speech-plus/transcribe-video-and-do-translation-summarization-and-qa


NO7. 同声传译


这个示例中演示如何通过端到端的语音翻译模型Gummy将中文音频实时转写为英文的文本,之后用CosyVoice大模型的流式的语音合成能力播放。


相关代码:samples/gallery/translate-audio-from-microphone-and-play-in-realtime


NO.8 分角色朗读故事


这个示例演示如何通过Cosyvoice大模型的不同音色,分角色朗读小鸭子找妈妈的故事。



相关代码:samples/gallery/reading-story-in-multiple-role


‍▎联系我们


在项目的Gallery目录中,我们已经加入了一些有趣的项目,同时期待着更多您的创意和技术。欢迎来自全球的开发者向Gallery中提供您的代码和IDEA。


您可以通过在github中Fork+Pull Request的方式向我们的仓库贡献更多的示例,在这里您可以:


  • 拓展语音服务和更多能力的结合。


  • 分享您通过协议在更多编程语言中调用我们语音服务的方法。


  • 探索百炼的语音技术+全球更多厂商的技术。


  • 以及任何您认为对其他开发者有帮助的项目


我们欢迎您加入我们的项目,发挥创造力,为我们提供更多的新奇IDEA,创建更多好玩、易用、有用、有技术深度的Gallery工程,共同建设一个强大的语音AI社区,让语音AI成为人人可得的资源!






相关文章
|
2月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
309 120
|
2月前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
1773 120
|
3月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1642 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
679 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
3月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
421 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
858 8
|
3月前
|
人工智能 安全 搜索推荐
面向阿里云百炼用户的AI安全护栏服务
本服务专为百炼平台用户提供,旨在提升大模型的文字输入和输出安全审核体验。在遵守百炼平台红线管控政策的基础上,我们提供了灵活的审核标签管理功能,允许用户根据需要开启或关闭特定审核标签。此外,我们还提供定制化的安全策略配置服务,以满足不同用户的个性化需求。
242 0
人工智能
1040 0
人工智能 自然语言处理 数据可视化
366 0