|
10月前
|
机器学习/深度学习 自然语言处理 测试技术
|

Qwen3技术报告首次全公开!“混合推理模型”是这样炼成的

近日,通义千问Qwen3系列模型已开源,其技术报告也正式发布。Qwen3系列包含密集模型和混合专家(MoE)模型,参数规模从0.6B到235B不等。该模型引入了“思考模式”与“非思考模式”的动态切换机制,并采用思考预算机制优化推理性能。Qwen3支持119种语言及方言,较前代显著提升多语言能力,在多个基准测试中表现领先。此外,通过强到弱蒸馏技术,轻量级模型性能优异,且计算资源需求更低。所有Qwen3模型均采用Apache 2.0协议开源,便于社区开发与应用。

6940 30
|
4天前
|
机器学习/深度学习 缓存 监控
|

大模型应用:矩阵乘加(GEMM)全解析:大模型算力消耗的逻辑与优化.68

GEMM(矩阵乘加)是大模型算力核心,占Transformer计算量90%以上。本文系统解析其数学原理、高维适配、算力测算公式,并详解INT8/INT4量化、矩阵分块、硬件加速与批处理四大优化策略,结合代码示例与性能监控方法,助力高效推理落地。

144 17
|
16天前
|
存储 机器学习/深度学习 自然语言处理
|

56.大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56

本文深入对比大模型轻量化三大核心技术:量化(降精度,快部署)、蒸馏(知识迁移,高精度)、剪枝(删冗余,结构精简)。详解原理、分类、适用场景、代码实现及选型建议,助开发者根据硬件条件、精度要求与落地周期科学决策。

500 16
|
缓存 自然语言处理 并行计算
|

基于NVIDIA A30 加速卡推理部署通义千问-72B-Chat测试过程

本文介绍了基于阿里云通义千问72B大模型(Qwen-72B-Chat)的性能基准测试,包括测试环境准备、模型部署、API测试等内容。测试环境配置为32核128G内存的ECS云主机,配备8块NVIDIA A30 GPU加速卡。软件环境包括Ubuntu 22.04、CUDA 12.4.0、PyTorch 2.4.0等。详细介绍了模型下载、部署命令及常见问题解决方法,并展示了API测试结果和性能分析。

6234 1
|
5天前
|
存储 并行计算 数据可视化
|

大模型应用:GPU的黑盒拆解:可视化看透大模型并行计算的底层逻辑.67

本文深入解析GPU核心架构与大模型算力优化原理,涵盖SM流式多处理器、显存、显存控制器、PCIe接口等关键组件,详解线程级/指令级并行及张量核心加速机制,并通过全流程耗时分析与任务拆分可视化,揭示“数据传输是主要瓶颈”的核心结论,助力高效部署大模型。

138 6
|
5月前
|
SQL 自然语言处理 关系型数据库
|

构建AI智能体:二十九、Text2SQL:告别繁琐SQL!用大模型自助生成数据报表

Text2SQL技术通过自然语言处理将用户查询转换为SQL语句,解决企业数据查询效率低下的痛点。该技术包含语义理解、模式对齐、SQL生成和优化等核心处理过程,核心组件包括自然语言理解模块、Schema管理模块和SQL生成模块。文章介绍了闭源和开源模型的选择策略,并提供了基于Function Calling的Text2SQL实现示例,展示如何安全高效地将自然语言转换为数据库查询。

2239 4
|
12月前
|
JSON 测试技术 API
|

大模型工程师基础之学会使用openai

本系列教程涵盖OpenAI API基础到高级应用,包括文本生成、图像处理、语音交互、会话管理、流式响应、文件输入、推理模型及性能评估等十大核心功能。适合新手入门与工程师实践,助您掌握大模型开发关键技术。从简单Prompt设计到复杂多模态任务,逐步深入,结合实例代码与最佳实践,提升实际开发能力。希望这些内容对您有帮助!

1758 11
|
自然语言处理 IDE Java
|

通义灵码真好用!

通义灵码小白体验手把手教程,真的很好用呢!

3171 4
|
8月前
|
存储 人工智能 自然语言处理
|

深度解析智能体工作流(Agentic Workflows):核心概念、模式与应用

本文系统解析智能体工作流(Agentic Workflow),结合AI智能体的推理、工具与记忆能力,实现复杂任务的动态执行。内容涵盖核心概念、关键模式及实际应用,帮助读者全面理解其价值与挑战。

6683 1
|
3月前
|
机器学习/深度学习 存储 人工智能
|

大模型部署算力账本:手把手教你算清GPU显存这笔账

本文详解大模型部署中GPU显存计算的关键:以Llama 70B为例,拆解模型权重、KV Cache、其他开销三大部分,揭示高并发下显存需求超1TB的真相,并提供量化、并行优化等降本策略,助你精准规划硬件投入,避免资源浪费或服务崩溃。

1213 2
|
6天前
|
监控 并行计算 算法
|

大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66

本项目面向10台RTX 4090集群,优化Qwen-14B大模型推理:通过NF4量化压缩显存、动态批处理(基于Amdahl定律)提升GPU利用率至85%+、多卡模型并行均衡负载,解决卡顿、显存溢出与调度不均问题,支撑日均10万次高并发稳定服务。

133 6
|
3月前
|
数据采集 人工智能 安全
|

从入门到精通:手把手教你用LLaMA Factory微调专属大模型

大家好,我是AI博主maoku老师。你是否觉得大模型“懂王”式回答不够专业?微调正是破局关键!本文带你深入浅出理解微调原理,掌握LoRA、量化、对话模板三大核心技术,并手把手教你用LLaMA Factory零代码实践,四步打造专属Web安全专家模型。从数据准备到部署应用,全程实战,助你将大模型从“通才”炼成“专才”,实现个性化、低成本、高效率的AI赋能。

1684 1
|
自然语言处理 搜索推荐
|

通义大模型使用指南之通义万相

该文介绍了如何在阿里云的通义大模型平台注册账号,并详细展示了通义万相功能的使用,包括文本生成图像、相似图像生成、图像风格迁移和应用广场(虚拟模特)四个部分。用户可以通过输入文字或选择图片,生成不同风格的创意作品,并能进行点赞、不满意、生成相似图、下载原图和收藏等操作。在应用广场中,用户可以上传图片并替换模特及背景,创建个性化商品展示图。

6694 0
|
6月前
|
人工智能 API 开发工具
|

AutoGen - 架构学习指南

AutoGen 是微软开源的 AI Agent 框架,支持多智能体协作与分布式部署。本指南从架构解析、技能清单到学习路径,带你由浅入深掌握其核心原理与实战应用,助力构建可扩展的智能系统。

2035 5
|
2天前
|
人工智能 自然语言处理 文字识别
|

阿里云 AI 产品免费试用:超30款 AI 产品和7000万大模型 tokens 免费体验

阿里云AI免费试用专区上线!新用户可享7000万大模型Tokens、30+款AI产品免费体验,覆盖大模型、AI开发、算力、文本与视觉全场景,支持通义千问系列、百炼平台及PAI开发工具,零门槛构建AI应用,助力个人学习与企业降本增效。

127 4
|
12月前
|
人工智能 JavaScript 开发工具
|

MCP详解:背景、架构与应用

模型上下文协议(MCP)是由Anthropic提出的开源标准,旨在解决大语言模型与外部数据源和工具集成的难题。作为AI领域的“USB-C接口”,MCP通过标准化、双向通信通道连接模型与外部服务,支持资源访问、工具调用及提示模板交互。其架构基于客户端-服务器模型,提供Python、TypeScript等多语言SDK,方便开发者快速构建服务。MCP已广泛应用于文件系统、数据库、网页浏览等领域,并被阿里云百炼平台引入,助力快速搭建智能助手。未来,MCP有望成为连接大模型与现实世界的通用标准,推动AI生态繁荣发展。

9616 66
|
7月前
|
机器学习/深度学习 数据采集 算法
|

大模型微调技术综述与详细案例解读

本文是一篇理论与实践结合的综述文章,综合性全面介绍大模型微调技术。本文先介绍大模型训练的两类场景:预训练和后训练,了解业界常见的模型训练方法。在后训练介绍内容中,引出模型微调(模型微调是属于后训练的一种)。然后,通过介绍业界常见的模型微调方法,以及通过模型微调实操案例的参数优化、微调过程介绍、微调日志解读,让读者对模型微调有更加直观的了解。最后,我们详细探讨数据并行训练DDP与模型并行训练MP两类模型并行训练技术,讨论在实际项目中如何选择两类并行训练技术。

2149 2
|
3天前
|
存储 缓存 自然语言处理
|

大模型应用:大模型运行全流程解析:从初始化加载→计算→结果输出.69

本文系统解析大模型推理全流程:从硬盘加载权重、CPU内存预处理、GPU显存计算,到自回归生成与自然语言解码。涵盖硬件协同(硬盘→内存→GPU)、软件步骤(分词、注意力、采样、后处理)及资源调度优化,揭示其软硬协同的本质。

120 2
|
人工智能 编解码
|

通义万相2.1:VBench榜单荣登第一!阿里通义万相最新视频生成模型,支持生成1080P长视频

万相2.1是阿里通义万相最新推出的视频生成模型,支持1080P无限长视频生成,具备复杂动作展现、物理规律还原、艺术风格转换等功能。

2642 27
|
9月前
|
存储 资源调度 并行计算
|

# Qwen3-8B 与 Qwen3-14B 的 TTFT 性能对比与底层原理详解

通义千问Qwen3系列是通义实验室2025年推出的最新大模型,包含多种参数版本,其中Qwen3-8B与Qwen3-14B均支持32K token上下文。Qwen3-8B参数量较小,响应更快,适合低延迟交互;Qwen3-14B参数更多,推理更强,适用于复杂任务。两者在TTFT、架构优化、量化技术及部署方案上各有侧重,满足多样应用场景需求。

4771 10

通义大模型使用指南之通义听悟

本文介绍了阿里云通义平台的注册和使用,主要包括两个部分:注册和功能介绍。用户可以通过访问网址 <https://tongyi.aliyun.com/> 进行注册。在功能介绍中,重点讲解了通义听悟的功能,它提供实时语音转文字、音视频文件转文字、智能总结和中英互译服务。用户可以体验实时录音并标记重点、问题和代办事项,方便会议记录和整理。此外,通义听悟还支持上传音视频文件转写和播客链接转写,以及浏览器插件用于处理网页、手机和微信上的语音内容。

3247 0
|
14天前
|
机器学习/深度学习 人工智能 机器人
|

大模型应用:稀疏注意力 vs 滑动窗口:大模型扩窗技术完全解析.58

本文详解大模型“扩窗”核心技术:滑动窗口注意力(快而局部,适合中短文本)与稀疏注意力(兼顾局部+跨步+首尾,支持超长上下文)。二者均通过降低O(n²)计算复杂度至线性,解决大模型长文本处理的内存与算力瓶颈,推动其从聊天工具升级为长文档分析、代码全量理解等实用AI。

281 26
|
前端开发
|

使用LangGraph构建多Agent系统架构!

【10月更文挑战第7天】

2749 0
|
1天前
|
机器学习/深度学习 存储 缓存
|

大模型架构算力对比:Decoder-only、Encoder-Decoder、MoE深度解析.71

本文深入解析三大主流大模型架构(Decoder-only、Encoder-Decoder、MoE)的算力消耗差异,聚焦注意力机制复杂度、参数量与计算密度三大维度。通过公式推导、代码模拟与可视化图表,揭示MoE稀疏激活的显著节算优势及瓶颈,剖析长文本场景下的“平方级算力黑洞”成因,并提供面向不同场景的架构选型建议。

109 20
|
2月前
|
机器学习/深度学习 自然语言处理 并行计算
|

大模型应用:混合专家模型(MoE):大模型性能提升的关键技术拆解.37

MoE(混合专家模型)是一种高效大模型架构,通过“智能调度+稀疏激活”机制,让多个专业化子网络(专家)按需协作。它兼顾性能与效率:参数规模大但推理仅激活2-4个专家,显著降本提速;既保持通用能力,又在医疗、法律等细分领域更专精,是当前大模型落地的关键技术。

656 17
|
12月前
|
机器学习/深度学习 人工智能 编解码
|

AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画

万相首尾帧模型是阿里通义开源的14B参数规模视频生成模型,基于DiT架构和高效视频压缩VAE,能够根据首尾帧图像自动生成5秒720p高清视频,支持多种风格变换和细节复刻。

2526 9
|
人工智能 自然语言处理 API
|

AI大模型 智能AI开源模型与大模型接口整理(8个开源模型+7个大模型接口)

AI大模型 智能AI开源模型与大模型接口整理(8个开源模型+7个大模型接口)

2938 5
|
5月前
|
人工智能 语音技术 流计算
|

一图掌握通义千问:模型生态与应用场景全览

通义千问(Qwen)系列提供全栈开源AI能力,涵盖语言、视觉、语音等多模态应用。旗舰模型Qwen3-Max性能领先,支持92种语言翻译与高精度语音识别,具备强大代码生成与图像处理能力,助力开发者与企业高效构建智能应用。

839 2
|
7月前
|
存储 机器学习/深度学习 算法
|

​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​

本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。

1366 125
|
3月前
|
机器学习/深度学习 人工智能 缓存
|

构建AI智能体:九十八、实践出真知:本地AI大模型部署的核心要点与经验总结

本文介绍了如何在个人电脑上加载和运行轻量级AI大语言模型。首先解析了大语言模型的基本概念和工作原理,包括Tokenizer、Prompt等关键术语。然后详细演示了三种模型加载方式:通过ModelSpace下载Qwen模型、使用HuggingFace加载BERT模型、利用SentenceTransformer获取句子嵌入。特别强调了在CPU环境下的配置技巧,如设置torch.float32数据类型和优化内存使用。文章还提供了完整的中文对话生成示例代码,展示了Qwen1.5-1.8B-Chat模型的实际应用效果

1175 6
|
8月前
|
数据可视化 物联网 开发者
|

深度解析四大LLM微调工具:从单卡到千亿级训练的四大解决方案

本文详解大语言模型微调四大工具——Unsloth、Axolotl、LlamaFactory、DeepSpeed,覆盖从单卡实验到万亿参数分布式训练场景,助你掌握主流框架选型策略,提升微调效率。建议点赞收藏。

2687 1
|
11月前
|
编解码 人工智能
|

通义万相Wan2.1-VACE开源!业内首个视频编辑统一模型!附推理教程

通义万相Wan2.1-VACE开源!业内首个视频编辑统一模型!附推理教程

2227 7
|
人工智能 API
|

通过API调用通义千问时出现DataInspectionFailed的解决办法(玄学版)

在使用qwen-plus API进行长文本翻译时,遇到了DataInspectionFailed错误,提示输入数据可能包含不当内容。尽管确认文本无敏感内容,但误判依然发生。通过将每个分段的字符数从1000降低到700,问题得以解决。建议在处理长文本时,减少每次请求的字符数以避免误判。

5855 6
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
|

大模型应用:本地大模型部署中的Token效率优化与性能分析.9

本文基于Qwen1.5-1.8B-Chat模型,构建了完整的Token监控与优化系统,深入分析对话中Token消耗模式,涵盖分词原理、多轮累积统计、上下文压缩、Prompt精简及响应长度控制等策略,为中小规模大模型的高效、低成本部署提供可复用方案。

760 14
|
6月前
|
人工智能 算法 安全
|

要不要做算法、大模型备案?看这个流程图就明白了!

本文详解算法备案、大模型备案与大模型登记的区别及适用场景,涵盖舆论属性、社会动员能力、生成式AI服务等核心概念,解析三类备案的流程、周期、材料要求及政策依据,助力企业合规开展AI服务。

2176 1
|
8月前
|
存储 人工智能 算法
|

​​向量数据库终极指南:AI开发者的进阶手册​

本文深入解析向量数据库的原理与实战应用,涵盖其在AI系统中的核心作用、关键技术(如HNSW、PQ、LSH)、相似性搜索、元数据过滤及无服务器架构优势。适合开发者和AI从业者学习提升。

2474 1

Cursor + qwen2.5-coder 32b 的配置方式

安装Cursor后,进入设置修改OpenAI基础URL为阿里云的DashScope接口,并添加Qwen2.5-Coder 32B模型。需先访问阿里云百灵控制台申请免费Key。配置完成后,即可使用该模型进行开发和测试。

11300 2
|
11月前
|
存储 人工智能 安全
|

自媒体创作场景实践|通义千问3 + MCP=一切皆有可能

本文介绍了通过MCP(Model Context Protocol)结合通义千问大模型实现跨平台、跨服务的自动化任务处理方案。使用Qwen3-235B-A22B模型,配合ComfyUI生成图像,并通过小红书等社交媒体发布内容,展示了如何打破AI云服务的数据孤岛。具体实践包括接入FileSystem、ComfyUI和第三方媒体Server,完成从本地文件读取到生成图像再到发布的全流程。 方案优势在于高可扩展性和易用性,但也存在大模型智能化不足、MCP Server开发难度较大及安全风险等问题。未来需进一步提升模型能力、丰富应用场景并解决安全挑战,推动MCP在更多领域落地。

2707 27
|
自然语言处理 前端开发 Serverless
|

基于阿里云通义千问开发编程辅助与代码生成工具

随着软件开发需求的增加,编程辅助与代码生成工具成为开发者提高效率的利器。这类工具能够根据用户描述生成代码片段、协助调试、生成自动化脚本等,大大减少重复性劳动。阿里云通义千问作为一款先进的大语言模型,具备强大的自然语言处理和代码生成能力,非常适合用于开发这样的工具。

2881 3
|
25天前
|
API Docker 异构计算
|

大模型应用:大模型本地化部署与API调用:打包迁移到服务器的多种方式实践.47

本文详解大模型从本地运行到云端API服务的全链路部署:涵盖硬件要求(GPU/CPU/内存)、软件环境(Python/FastAPI/Transformers)、模型选型(Qwen/ChatGLM等),并提供脚本部署、EXE打包(PyInstaller)和Docker容器化三种方案,支持局域网调用与接口文档自动生成,助力零基础用户快速实现“开箱即用”的稳定API服务。

801 25
|
3月前
|
机器学习/深度学习 人工智能 缓存
|

构建AI智能体:九十二、智能协作的艺术:大模型上下文与Token优化指南

本文深入解析大模型上下文窗口与Token优化机制,阐明其作为协作“白板”的核心作用。通过精简提示、结构化输入、控制输出等策略,开发者可有效降低Token消耗,提升AI应用的效率与经济性。

915 7
|
19天前
|
存储 自然语言处理 并行计算
|

大模型应用:大模型量化:INT4与INT8核心差异、选型指南及代码实现.53

本文深入解析大模型INT4与INT8量化技术:从“缩放+映射”本质出发,对比二者在压缩率(75% vs 87.5%)、精度(256 vs 16离散值)、显存占用及适用场景的差异;详解scale/zero_point参数原理,并提供BitsAndBytes实战代码,助力高效本地部署。

485 6
|
3月前
|
人工智能 安全 机器人
|

📘 2026 AI Agent 职业路线图:从研发范式到商业闭环

📘2026 AI Agent职业路线图:AI进入“大航海时代”,从LLM迈向自主智能体。涵盖核心技术栈、四大热门赛道(架构师、具身智能、安全专家、行业产品经理)、实战构建与职业发展路径,助你掌握Agent时代核心竞争力,实现职业跃迁。

1060 6
|
机器学习/深度学习 人工智能 自然语言处理
|

CosyVoice 与 SenseVoice:阿里FunAudioLLM两大语音生成项目的深度评测

近年来,基于大模型的语音人工智能技术发展迅猛,为自然语音人机交互带来新的可能。通义语音大模型无疑是这一领域的佼佼者。它涵盖了语音理解与语音生成两大核心能力,可支持多种语音任务,包括多语种语音识别、语种识别、情感识别、声音事件检测以及语音合成等

5103 1
|
7月前
|
存储 安全 前端开发
|

Web渗透-文件上传漏洞-上篇

文件上传漏洞常见于Web应用,因类型限制不严可致恶意文件执行。本文介绍前端检测、MIME类型、黑名单、.htaccess、空格、双写等多种绕过方式,并结合upload-labs靶场演示利用方法,提升安全防护认知。

1761 1
|
11月前
|
存储 人工智能 关系型数据库
|

向量数据库和嵌入模型

本文介绍了向量数据库和嵌入模型的概念及应用,重点探讨了两者在AI技术栈中的协作关系。向量数据库是一种用于存储高维向量数据的解决方案,支持相似性搜索而非传统的关系型数据库精确匹配。文中通过实例展示了如何使用阿里百炼的文本嵌入模型(text-embedding-v3)将文本向量化,并结合Qdrant向量数据库进行存储与检索。代码示例部分详细说明了从文本嵌入到向量存储及查询的完整流程,为开发者提供了实践参考。

1672 15
|
2天前
|
机器学习/深度学习 存储 人工智能
|

大模型应用:批量文档摘要与分类实践:本地合同、报告数据处理与导出.70

本方案基于Qwen 1.5 7B大模型,实现本地化批量文档处理:自动读取Word/PDF,经TextSplitter智能分块、Schema引导式提示,生成标准化摘要与多标签分类,最终导出CSV。全程离线运行,保障敏感数据安全,显著提升合同、报告等高频文档的处理效率与准确性。

90 16
|
6月前
|
自然语言处理 测试技术 API
|

通义Qwen3-Max:大就是好

通义千问Qwen3-Max正式发布,参数超1T,训练稳定高效,在代码、推理、多语言等任务中表现卓越。预览版已登顶LMArena榜单前三,支持阿里云百炼API调用与Qwen Chat体验,敬请试用。

3275 32
|
人工智能 自然语言处理 物联网
|

llama factory 从数据集起步 跑通 qwen系列开源生成式大模型 微调

`dataset_info.json` 文件用于管理 llama factory 中的所有数据集,支持 `alpaca` 和 `sharegpt` 格式。通过配置此文件,可以轻松添加自定义数据集。数据集的相关参数包括数据源地址、数据集格式、样本数量等,支持 Hugging Face 和 ModelScope 两个平台的数据集仓库。针对不同格式的数据集,提供了详细的配置示例,如 `alpaca` 格式的指令监督微调数据集、偏好数据集等,以及 `sharegpt` 格式的多模态数据集等。今天我们通过自定义数据集的方式来进行qwen2.5_14B_instruct模型进行微调

7828 7
|
前端开发 JavaScript API
|

2025年前端框架是该选vue还是react?有了大模型-例如通义灵码辅助编码,就不用纠结了!vue用的多选react,react用的多选vue

本文比较了Vue和React两大前端框架,从状态管理、数据流、依赖注入、组件管理等方面进行了详细对比。当前版本和下载量数据显示React更为流行,但Vue在国内用户量增长迅速。Vue 3通过组合式API提供了更灵活的状态管理和组件逻辑复用,适合中小型项目;React则更适合大型项目和复杂交互逻辑。文章还给出了选型建议,强调了多框架学习的重要性,认为技术问题已不再是选型的关键,熟悉各框架的最佳实践更为重要。

10273 1

千问大模型

阿里云自主研发的千问大模型,凭借万亿级超大规模数据训练和领先的算法框架,实现全模态高效精准的模型服务调用。https://www.aliyun.com/product/tongyi

0
今日
1859
内容
8
活动
1279
关注
你好!
登录掌握更多精彩内容

相关产品

  • 大模型服务平台百炼