函数计算X 通义千问快速部署 AI 个人助手应用
基于函数计算X 通义千问快速部署 AI 个人助手应用,用户可以根据需要选择不同角色的AI助手开启写作,角色包括职业顾问、小红书写手、心灵导师等,你可以尽情发挥创造力,通过限制提示词、字数、情节等各种条件生成短篇小说。
AI 审计不该是事后烟:为什么我们需要 1MB 级的运行时“物理熔断”内核?
丢掉那些臃肿的权重和不可预测的概率。在大规模自动化执行面前,Agent 真正缺的不是聪明才智,而是“被管住”的能力。本文公开一套基于离散逻辑的 AI 守卫内核,支持实时 Review、Deny 和一键 Rollback。我们用不到 1MB 的代码,解决了千亿参数模型搞不定的行为归因和事故复现。这是给 Agent 补上的最后一块骨架,也是通往高责任生产环境的唯一路标。
一个 1MB 级的 AI 守卫内核:高压叙事下的边界判定、熔断与冻结
对外,它不会因为情绪、恐惧、叙事压力或“更大的善”而交出底层控制权; 对内,它允许输入脏、叙事乱、压力高,但尽量把异常吸收到系统内部,而不是把结构性让步释放到外部动作层。
虎博科技CEO卢鑫Echo提出:GEO 双轮信任引擎,品牌如何真正进入 AI 信任体系
虎博科技CEO卢鑫(Echo)提出GEO双轮信任引擎方法论,突破“AI版SEO”浅层认知,强调品牌需系统构建AI信任体系:第一轮建立稳定、可被外部反复确认的品牌信号;第二轮将官网打造为AI高引用的原生可信信源。
大模型应用:大模型权重敏感性分析:L1/L2 范数、梯度贡献深入解读.39
本文系统讲解大模型权重敏感性:即权重微小变化对模型输出的影响程度。核心依据是“静态潜力”(L1/L2范数)与“动态贡献”(梯度范数),二者结合可精准识别高敏感(需保护/精细调优)与低敏感(可剪枝/量化)权重,支撑模型压缩、加速与稳定性优化。
AI工具选择困难症?Spring AI帮你省掉64%的令牌费用
你的AI助手有50+个工具但每次对话前就烧掉55000个令牌?就像带着全套工具箱去拧个螺丝一样浪费!Spring AI的工具搜索模式让AI按需发现工具,实现34-64%的令牌节省,告别工具选择困难症和账单焦虑。#Spring AI #工具优化 #令牌节省 #AI开发
构建AI智能体:四十一、大模型思维链提示工程:技术原理与行业应用案例分析
本文介绍了思维链提示技术及其应用。思维链提示是一种引导大模型进行逐步推理的提示工程技术,通过结构化提示模拟人类解决问题的逻辑分析路径,使模型能够显式化中间推理步骤,从而提升推理准确性与可解释性。文章详细阐述了思维链提示的关键特征(步骤可解释性、逻辑链条完整性、问题分解能力)和工作原理,并通过数学推理、逻辑分析和多轮复杂问题三个案例展示了其具体应用流程。该技术在教育辅导、商业决策和科研分析等领域具有重要价值,能够突破传统大模型的黑箱推理瓶颈,提高AI系统的决策透明度和可靠性。
TensorRT-LLM 推理服务实战指南
`trtllm-serve` 是 TensorRT-LLM 官方推理服务工具,支持一键部署兼容 OpenAI API 的生产级服务,提供模型查询、文本与对话补全等接口,并兼容多模态及分布式部署,助力高效推理。
通义千问推理模型QwQ-32B开源,更小尺寸、更强性能
阿里云发布并开源全新推理模型通义千问QwQ-32B,通过大规模强化学习,在数学、代码及通用能力上实现质的飞跃,性能比肩DeepSeek-R1。该模型大幅降低部署成本,支持消费级显卡本地部署,并集成智能体Agent相关能力。阿里云采用Apache2.0协议全球开源,用户可通过通义APP免费体验。此外,通义团队已开源200多款模型,覆盖全模态和全尺寸。
Arthas profiler(使用async-profiler对应用采样,生成火焰图)
Arthas profiler(使用async-profiler对应用采样,生成火焰图)
Qwen2-VL微调实战:LaTex公式OCR识别任务(完整代码)
《SwanLab机器学习实战教程》推出了一项基于Qwen2-VL大语言模型的LaTeX OCR任务,通过指令微调实现多模态LLM的应用。本教程详述了环境配置、数据集准备、模型加载、SwanLab集成及微调训练等步骤,旨在帮助开发者轻松上手视觉大模型的微调实践。
基于Qwen2.5的大规模ESG数据解析与趋势分析多Agent系统设计
2022年中国上市企业ESG报告数据集,涵盖制造、能源、金融、科技等行业,通过Qwen2.5大模型实现报告自动收集、解析、清洗及可视化生成,支持单/多Agent场景,大幅提升ESG数据分析效率与自动化水平。
一文详述:AI 网关与 API 网关到底有什么区别?
近年来,AI发展迅猛,大模型成为推动业务创新的关键力量。企业面临如何安全管理和部署AI应用的挑战,需设计既能满足当前需求又可适应未来发展的基础架构。AI网关应运而生,在集成、管理和优化AI应用中扮演重要角色。本文探讨AI网关与API网关的区别,分析AI系统为何需要专门网关,并提供选择合适AI网关的建议。AI网关不仅支持多种模型,还具备高级安全性和性能优化功能,有助于企业在复杂环境中灵活应用AI技术。
【Prompt Engineering提示工程技术:思维树 (ToT)、检索增强生成 (RAG)、自动推理并使用工具 (ART)】
思维树(ToT)框架,旨在解决复杂任务,通过构建一棵思维树,利用语言模型生成并评估中间步骤,结合搜索算法(如广度优先搜索)进行系统探索。ToT在不同任务中需定义思维步骤及候选数量,如“算24游戏”需三分步骤,每步评估可行性。实验表明,ToT显著优于其他提示方法。此外,ToT框架可结合强化学习不断进化,提升解决复杂问题的能力。
探索通义语音团队的创新之作 —— FunAudioLLM模型评测
随着人工智能技术的飞速发展,语音识别和语音合成技术在各个领域得到了广泛应用。阿里云推出的“通义语音大模型FunAudioLLM”作为最新的语音处理技术,备受业界关注。本次评测将深入探讨通义语音大模型的功能、性能及其在实际应用中的表现。
通义千问7B模型开源,魔搭最佳实践来了
通义千问开源!阿里云开源通义千问70亿参数模型,包括通用模型Qwen-7B-Base和对话模型Qwen-7B-Chat,两款模型均已上线ModelScope魔搭社区,开源、免费、可商用,欢迎大家来体验。
大模型应用:大模型的token频率偏见:高频词与低频词的嵌入表示差异分析.46
本文深入解析大模型中的“Token频率偏见”:高频词嵌入精准稳定,低频词因拆分多、训练少而语义模糊。通过分词优化、LoRA微调、提示工程等方案,可有效提升医疗等专业场景的语义理解能力。
医疗垂直领域生成式搜索优化(GEO):基于 RAG 与知识图谱的召回增强架构实战
本文提出医疗垂直领域生成式搜索优化(GEO)新范式,融合Schema结构化标记、知识图谱映射与RAG召回增强技术,显著提升非公医疗机构信息的有效召回率与语义一致性。实测显示mAP提升225%,事实一致性达98.5%。(239字)
构建AI智能体:九十九、大模型性能评估技巧:Qwen1.5的完整测试框架与可视化分析
本文介绍了Qwen1.5-1.8B-Chat轻量级大模型的本地部署与评估框架。针对硬件资源有限的个人开发者,该模型仅需4GB内存即可在CPU环境流畅运行。通过构建完整的评估体系,文章详细测试了推理速度(4.09 tokens/s)、内存占用(7GB参数内存+2.4GB推理内存)等基础性能指标,并评估了中文理解(0.75/1.0)、知识准确性(0.67)、多轮对话连贯性(1.0/1.0)、创造性(0.78/1.0)和代码生成能力(0.9/1.0)。测试结果显示该模型在创意生成和中文理解方面表现突出
别再“调教”ChatGPT了!用Qwen2.5打造24小时在线数字分身
在AI时代,专属“数字分身”正从科幻走向现实。依托Qwen2.5-14B大模型、LoRA微调技术及LLaMA-Factory Online平台,仅需四步即可打造会说话、懂风格、能办事的个性化AI助手,让每个人拥有自己的“贾维斯”。
2025年第13批中国深度合成算法备案分析报告
2025年9月,第13批深度合成算法备案公布,共586项,累计达4420项。北京、广东、浙江、上海居前列,民企为主力,覆盖教育、医疗、金融等领域。文本与对话生成占主导,数字人、多模态技术加速落地。AI应用向行业纵深发展,合规标识成常态,监管趋严推动产业规范创新。
一条AI指令,解决"发朋友圈不知道写啥"的千古难题
技术人发朋友圈总犯难?项目上线怕炫耀,生活瞬间不知如何表达。其实,用AI辅助写作是个妙招。关键在于给出清晰指令:明确场景、风格与需求,让AI生成真实自然、有温度的文案。本文提供一套即拿即用的AI指令模板,覆盖生活、工作、旅行等六大场景,帮你快速生成不“AI味”的朋友圈内容。省下纠结时间,真诚分享生活,才是正解。
AI与GIS工具引领企业变革
科技赋能企业转型:清华团队突破固态电池技术,AIGEO融合AI与GIS助力精准获客,降本增效。覆盖美妆、教育、金融等多领域,提升流量与转化率,推动数字化升级。(238字)
上海徐汇区大模型备案与大模型登记奖励补贴申报指南
上海徐汇区启动大模型备案及服务登记奖励申报,最高奖励500万元。适用于已通过备案或登记的企业,申报期为2025年8月29日至9月12日。奖励政策旨在推动人工智能产业发展,申报材料包括备案/登记证明、信用代码、身份证明等。纸质与电子材料需按要求提交。
混合检索技术:如何提升AI智能体50%的响应效率?
本文深入解析检索增强智能体技术,探讨其三大集成模式(工具模式、预检索模式与混合模式),结合实战代码讲解RAG组件链构建、上下文压缩、混合检索等关键技术,并提供多步检索工作流与知识库自更新机制设计,助力高效智能体系统开发。
Qwen-MT:翻得快,译得巧
今天,机器翻译模型Qwen-MT正式上线,支持92种语言互译,具备高度可控性与低延迟、低成本特点,适用于多种场景。开发者可通过Qwen API体验其强大翻译能力。
# Qwen3-8B 与 ChatGPT-4o Mini 的 TTFT 性能对比与底层原理详解
Qwen3-8B 是通义实验室推出的80亿参数模型,支持32K上下文,采用FP8量化和CUDA优化,提升推理效率;ChatGPT-4o Mini 为OpenAI轻量模型,参数约3.8B,支持128K上下文,通过蒸馏技术实现低延迟。两者在TTFT、长文本处理和部署优化上各有优势,适用于不同应用场景。
告别OOM!这款开源神器,如何为你精准预测AI模型显存?
在 AI 开发中,CUDA 显存不足常导致训练失败与资源浪费。Cloud Studio 推荐一款开源工具——AI 显存计算器,可精准预估模型训练与推理所需的显存,支持主流模型结构与优化器,助力开发者高效利用 GPU 资源。项目地址:github.com/st-lzh/vram-wuhrai
通义大模型:解码中国AI的"通"与"义"
“通义”取自中国传统文化中“通晓大义”,寓意技术与人文的结合。作为阿里巴巴旗下的超大规模语言模型,通义在知识蒸馏、动态稀疏激活和文化感知模块上实现三大突破,大幅提升效率与适切性。其已在医疗、司法、文化传播等领域落地,如辅助病历处理、法律文书生成及文物解说等。测试显示,通义在中文诗歌创作、商业报告生成等方面表现优异。同时,开放的开发者生态已吸引5万+创新者。未来,通义将探索长期记忆、自我反思及多智能体协作,向AGI迈进,成为智能本质的载体。其对中文语境情感的精准把握,更是中国AI“通情达义”的典范。
使用CAMEL框架和Qwen模型自动进行数据获取及报告与知识图谱生成
此笔记本演示如何设置和利用 CAMEL 的检索增强生成(RAG)结合 Milvus 进行高效的网页抓取、多智能体角色扮演任务和知识图谱构建。我们将通过一个使用 Qwen 模型对 2024 年巴黎奥运会的土耳其射手进行全面研究的例子来逐步演示。
Github 2024-08-19 开源项目周报Top15
根据Github Trendings的统计,本周(2024年8月19日统计)共有15个项目上榜。按开发语言分类,上榜项目数量如下:Python项目最多,有7项;其次是JavaScript和TypeScript,各有3项;Dart有2项;HTML、PowerShell、Clojure和C++各1项。此外,还介绍了多个热门项目,包括Bootstrap 5、RustDesk、ComfyUI、易采集、Penpot等,涵盖了Web开发、远程桌面、自动化测试、设计工具等多个领域。
Github 2024-08-01 开源项目月报 Top17
根据Github Trendings统计,2024年8月共有17个项目上榜。按开发语言分类,项目数量如下:Python项目6个,非开发语言项目与TypeScript项目各4个,JavaScript项目3个,Java、Go及Vue项目各1个。其中,免费编程学习平台freeCodeCamp.org以381,011个Star数领先,提供全栈网页开发和机器学习课程。其他项目涵盖编程书籍、API集合、低代码开发平台等多种资源。
智能编程的未来:通义灵码全功能评测
本文全面评测了通义灵码,一款智能代码撰写助手。从便捷的安装体验到高效的代码续写能力,通义灵码表现出色。它不仅能生成和解释代码,还能自动撰写单元测试,有效解答编程问题,并提供准确的错误分析。这些功能共同提升了编程效率,尤其对于新手和经验丰富的开发者都是极大的帮助,使其成为值得尝试的工具。
NSA推理在昇腾芯片上的一种亲和实现方案
本文提出昇腾AI芯片上NSA推理的亲和优化方案:①创新设计稀疏系数矩阵,将compress中importance score计算转为高效矩阵乘,实现online softmax,耗时从200μs降至80+μs;②融合无依赖的select与sliding算子,消除约40μs开销。综合加速比达8.8×,逼近理论极限11.6×。(239字)
大模型应用:本地大模型API调用鉴权可视化全解析:从基础实现到业务扩展.45
本文详解本地大模型(如Qwen1.5-1.8B)的轻量级落地方案:基于FastAPI封装带API Key/JWT双鉴权的文本生成API,结合Streamlit构建可视化前端,支持参数调节、IP限流、历史记录与令牌自动刷新,CPU即可运行,兼顾安全性与易用性。
大模型应用:多尺度注意力解析:大模型特征提取的基础概念与应用价值.43
本文深入浅出解析多尺度注意力机制:对比单尺度局限,阐明其“细粒度+粗粒度”并行提取与动态融合的核心原理;结合文本案例“小明在图书馆看书”,图解流程、剖析代码实现,助你掌握这一提升大模型长文本与多模态理解能力的关键技术。
未来三年的核心竞争力:构建你的专属智能体
未来三年核心竞争力在于构建专属智能体——它不仅是工具,更是具备主动推理、长期记忆、多模态执行与社交协作能力的“第二大脑”。通过私有化部署、Agent集群编排与API生态接入,学生可实现人机深度协同,在职场与教育中赢得先机。(239字)
智能体领航员:2026 开启“智能体互联网 (IoA)”下的全自动商业博弈
2026年,智能体互联网(IoA)爆发,智能体从“替代人工”迈向“自主交易”。通过语义化握手、自主谈判与分布式协议,实现跨域意图拦截与资源套利。领航员将升级为规则制定者,掌控价值对齐与安全边界,开启全自动商业新纪元。
构建AI智能体:八十七、KM与Chinchilla法则:AI模型发展的两种训练法则完全解析
摘要: 大模型训练中,如何在有限计算预算(C≈6ND)下最优分配模型参数量(N)与训练数据量(D)是关键挑战。KM扩展法则主张“模型优先”,认为增大N的收益高于D(α=0.076<β=0.103),推荐N∝C^0.73、D∝C^0.27。Chinchilla法则则通过实验发现大模型普遍训练不足,提出平衡策略(α=β≈0.38),推荐N∝D∝C^0.5,即在相同预算下减小模型规模并大幅增加数据量,可提升性能。
构建AI智能体:七十八、参数的艺术:如何在有限算力下实现高质量的AI诗歌创作
本文详细记录了通过LoRA技术优化唐诗生成模型的过程。初始阶段模型表现欠佳,出现内容重复和格律混乱等问题,损失值高达1.7467。通过系统性参数调整(包括将LoRA秩从4提升至16、优化学习率和训练轮次等),最终使损失值降至0.069,获得显著提升。文章详细介绍了优化策略,包括数据集的构建(包含180首涵盖四季、山水、抒情等主题的唐诗)、LoRA配置调整和生成参数优化等内容。最终生成的诗歌在格律、意境和多样性方面均达到良好水平,展示了LoRA技术在文学创作领域的应用潜力,为小模型实现专业级创作提供了参考范例
AI也会"三思而后答"?揭秘Self-RAG智能检索术
遇到AI胡说八道怎么办?Self-RAG就像给AI装了个"思考开关",让它知道什么时候该查资料、什么时候该独立思考,还能自我评估答案靠不靠谱。6步智能决策机制,让AI回答又准又稳!#人工智能 #RAG技术 #智能检索 #AI应用
构建AI智能体:六十一、信息论完全指南:从基础概念到在大模型中的实际应用
摘要: 信息论是人工智能尤其是大语言模型的核心数学工具。本文系统介绍了八大核心概念: 信息量:衡量事件意外程度,公式为I(x)=-log₂P(x) 信息熵:评估系统不确定性,H(X)=-ΣP(x)log₂P(x) 联合熵/条件熵:分析多变量关系及条件不确定性 互信息:量化变量间共享信息量 KL散度:衡量概率分布差异 交叉熵:模型训练的核心损失函数 在大语言模型中,这些概念被广泛应用于: 训练阶段:交叉熵优化预测,KL散度防止过拟合 推理阶段:温度参数调节生成文本的创造性(高熵增加多样性)
一键部署 Qwen3! 0 代码,2 种方式全新体验
Qwen3 正式发布并开源 8 款混合推理模型,包括两款 MoE 模型(Qwen3-235B-A22B 和 Qwen3-30B-A3B)及六个 Dense 模型。这些模型支持 119 种语言,在代码、数学等测试中表现优异,并提供思考与非思考两种模式。依托阿里云函数计算 FC 算力,FunctionAI 平台支持模型服务和应用模板部署,适用于多种场景。用户可通过 Serverless 架构快速构建高弹性、智能化应用,显著降低开发成本,提升效率。试用链接及详细文档已提供,欢迎体验。