Yuxi-Know:开源智能问答系统,基于大模型RAG与知识图谱技术快速构建知识库
Yuxi-Know是一个结合大模型RAG知识库与知识图谱技术的智能问答平台,支持多格式文档处理和复杂知识关系查询,具备多模型适配和智能体拓展能力。
OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区
本教程教你用开源AI助手OpenClaw,快速注册并接入全球首个纯AI社交平台Moltbook——一个仅限AI智能体发帖、评论、互动的Reddit式社区(截至2026年1月已超140万个AI活跃)。只需部署OpenClaw、安装Moltbook Skill、完成X平台验证,即可让个人AI agent加入全球AI对话网络。(239字)
AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画
万相首尾帧模型是阿里通义开源的14B参数规模视频生成模型,基于DiT架构和高效视频压缩VAE,能够根据首尾帧图像自动生成5秒720p高清视频,支持多种风格变换和细节复刻。
Agent Skills 究竟是什么?从玩具到工程化的必经之路
AI应用开发正从“Prompt驱动”迈向“技能驱动”。本文详解Agent Skills标准化实践:以Claude Code Skills为范本,用SKILL.md实现自描述技能;借MCP协议统一多源工具调用,解决兼容与安全难题;结合DeepSeek+OpenAI实战,展现可插拔、可审计、可演进的工业级Agent构建路径。
AgentEvolver:让智能体系统学会「自我进化」
AgentEvolver 是一个自进化智能体系统,通过自我任务生成、经验导航与反思归因三大机制,推动AI从“被动执行”迈向“主动学习”。它显著提升强化学习效率,在更少参数下实现更强性能,助力智能体持续自我迭代。开源地址:https://github.com/modelscope/AgentEvolver
DeepSeek三个百万token窗口对话内容三步语义分析法的整合与智能体封装
从主观预设到客观挖掘,再到主客观统一——三步法(垂钓、撒网、熔炉)完成了百万token窗口语义分析的方法论闭环。本文展示了三步法的工程化封装:垂钓法、撒网法、熔炉法被封装为可复用的 Skills,通过半智能体调度器实现人在环中的流程控制。更重要的是,本文提出了“主观向量”的概念——将人的洞察(元认知、领域理解)量化为可注入、可迭代的向量形式,作为机器向量(RAG、知识图谱)的意义层。主观向量不仅是对三步法的完形,更是从“工具”到“伙伴”的关键一跃,为后续真实项目的深度分析奠定方法论基础。
94_提示压缩:减少token消耗
在大语言模型(LLM)应用中,提示工程已成为提升模型性能和控制输出的关键技术。然而,随着模型能力的增强和应用场景的复杂化,提示文本往往变得冗长,导致token消耗急剧增加。这不仅直接影响到API调用成本,还可能超出模型的上下文窗口限制,特别是在使用GPT-4、Claude 3等大模型时,每1000个token的成本可能高达数美分。对于需要频繁交互或批量处理的应用场景,如客服系统、内容生成平台或自动化工作流,token消耗的优化就显得尤为重要。
InternVL3.5多模态大模型开源发布,1B-241B九种尺寸,支持跨平台GUI自动化与矢量图生成
近日,上海人工智能实验室(上海AI实验室)重磅开源发布了多模态大模型书生·万象 InternVL3.5,通过创新的级联式强化学习(Cascade RL)、动态视觉分辨率路由与解耦部署架构,实现推理能力、部署效率与通用能力的全面升级。
Z-Image:冲击体验上限的下一代图像生成模型
通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。
2026年入局AI晚不晚?答案是:现在就是最好的时机
2026年AI已迈入“技术爆发+应用红利”黄金期:巨头筑基降低门槛,算力成本下降、工具成熟;超级个体10天可开发爆款AI应用;CAIE认证等路径让零基础者快速入局。AI不是短跑,而是马拉松——现在,正是普通人抓住红利的最佳时机。(239字)
Claude Skills的开源实现
Claude推出Skills系统,让AI按需加载专业能力。受此启发,我在开源Minion框架中实现了兼容版本:通过声明式SKILL.md定义技能,支持PDF、Excel等文档处理,实现动态加载、分层搜索与智能注册,降低上下文开销,提升效率。项目支持多LLM、可定制、易扩展,推动构建开放的AI Agent技能生态。
腾讯混元 HunyuanVideo 1.5 开源!
腾讯混元团队开源HunyuanVideo 1.5,一款8.3B参数的轻量级视频生成模型,基于DiT架构,支持文生视频、图生视频,可在14G显存设备运行,生成5-10秒高清视频,具备强指令响应、流畅动作与电影级画质。
PPO与DPO:大模型对齐的两大核心算法,差异与选型全解析
本文深度解析大模型对齐核心算法PPO与DPO:PPO基于RLHF框架,需训练奖励模型,对齐精准、稳定性强,但流程繁琐、资源消耗大;DPO跳过奖励建模,直接优化偏好,轻量高效、易上手。对比原理、流程、优劣及适用场景,助你科学选型,提升对齐效率。
大模型微调实战——从数据准备到落地部署全流程
本文以7B大模型为例,手把手教你零代码完成办公场景微调:从数据清洗、LoRA轻量训练到效果验证与一键部署,全程无需GPU和编程基础,30分钟快速上手,解决“通用模型不精准、输出不可控”痛点,让大模型真正落地业务。
Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
MiniMax 开源新评测集:定义Coding Agent 的生产级标准
Coding Agent常因“过程违规”遭诟病,如无视指令、破坏规范。MiniMax推出OctoCodingBench,首创面向工程可靠性的过程评估体系,揭示当前模型在多规则协同下成功率极低,呼吁行业关注“过程正确性”,推动Agent从能用走向可用。
码上生花:用API链接Qwen-Image系列及衍生LoRA生态模型
Qwen-Image系列开源三月成爆款,凭借中文场景优势与ModelScope平台深度集成,支持文生图、图像编辑及LoRA生态API调用,助力开发者高效创作。
小红书开源发布 FireRed-Image-Edit 1.0:高质量训练数据,性能屠榜三项核心评测
2月14日,小红书FireRedTeam开源FireRed-Image-Edit-1.0图像编辑模型。该模型在ImgEdit、GEdit等基准测试中全面超越现有开源方案,风格迁移(4.97分)等维度甚至优于Nano-Banana、Seedream4.0等闭源模型,支持文本保留、老照片修复、多图虚拟试衣等能力。
[大模型实战 08 - 完结篇] 告别孤岛:拥抱 MCP 协议,为大模型打造标准“USB 接口”
本文将带你走出 Agent 开发的“重复造轮子”困境,深入浅出地理解 MCP协议。我们将动手把之前写的博客监控与通知工具,封装成标准的 MCP Server,并无缝接入 OpenCode 客户端。
Python 为何能稳居全场景开发主流语言宝座
Python凭借简洁语法、丰富生态、跨平台兼容及社区与企业双重推动,成为覆盖Web开发、数据分析、人工智能等全场景的“万能钥匙”,兼具低门槛与高效率,稳居编程语言主流地位。
MiniCPM-o 4.5 CookBook:9B 参数玩转多模态全双工交互
MiniCPM-o 4.5是9B参数多模态大模型,支持图像、视频、音频、文本输入与高质量文/语音输出。具备领先视觉理解(OpenCompass平均77.6分)、实时中英双语语音对话、全双工流式交互、高精度OCR及30+语言能力,适配CPU/GPU/国产芯片,支持本地部署与微调。(239字)
讨论下llm的prefix caching机制
本文探讨LLM推理中Prefix Caching机制的原理与实践:解释为何将动态内容(如React循环中的tool call结果)放在system prompt会破坏缓存命中,导致成本激增;强调应将变量部分置于user prompt末尾,以最大化复用system+固定user前缀的KV缓存,显著降本提效
小而强,GLM-4.7-Flash开源
GLM-4.7-Flash正式开源,30B总参、3B激活参数,兼顾性能与效率,支持免费调用。在编程、中文写作、翻译等多场景表现优异,已上线智谱平台,替代GLM-4.5-Flash,提供全新轻量化部署选择。
使用PHP对接马来西亚股票市场API 实时数据、IPO和K线(Kline)的PHP对接方案
本指南详解如何用PHP对接StockTV马来西亚股票API:含基础配置(API Key、HTTP请求封装)、核心数据接口(股票列表/查询/指数/K线/IPO/涨跌榜)及WebSocket实时推送方案,覆盖行情监控、技术分析与市场研究全场景。
阶跃星辰开源! Step 3 :最新一代基础大模型 ,多模推理,极致效率
阶跃星辰开源新一代大模型 Step 3,采用 MoE 架构,参数量达 321B,激活参数 32B,平衡推理效率与资源利用,具备强大多模态能力,支持复杂推理与视觉分析,已在多个评测集取得领先成绩。
Python 学习资源精选:从入门到精通的高效清单
本文系统梳理Python从入门到精通的学习路径,分阶段推荐优质资源:入门夯实语法,进阶掌握核心特性,定向深耕Web、数据、AI等领域,最终提升工程化能力。精选视频、书籍、项目与工具,助力高效学习。
GLM-4.7开源!交出“生产级代码”
智谱今日发布并开源GLM-4.7,专注Coding场景,显著提升编程、推理与工具协同能力,在多项基准测试中位居开源模型前列。已上线z.ai与智谱清言,支持API调用。
118_LLM模型量化与压缩:从理论到2025年实践技术详解
大型语言模型(LLM)在自然语言处理领域取得了前所未有的成功,但模型规模的快速增长带来了巨大的计算和存储挑战。一个典型的大型语言模型(如GPT-4或LLaMA 3)可能包含数千亿甚至万亿参数,需要数百GB甚至TB级的存储空间,并且在推理时需要大量的计算资源。这种规模使得这些模型难以在边缘设备、移动设备甚至资源有限的云服务器上部署和使用。
Meta SAM3开源:让图像分割,听懂你的话
Meta发布并开源SAM 3,首个支持文本、点、框等提示进行图像与视频分割的统一基础模型,突破传统限制,实现开放词汇概念的精准识别与跟踪,涵盖超400万独特概念,推动视觉分割新发展。
四款国产VLM OCR模型横评
春节前,DeepSeek、智谱、百度、腾讯四大团队密集开源新一代OCR小模型,全面采用视觉语言模型(VLM)架构,摒弃传统流水线,迈向“语义结构化”新纪元。DeepSeek-OCR2首创“视觉因果流”,GLM-OCR以0.9B参数登顶OmniDocBench榜首,PaddleOCR-VL-1.5攻克真实退化场景,Youtu-Parsing实现22倍推理加速——国产OCR正以架构创新实现垂直领域“换道超车”。
零基础构建MCP服务器:TypeScript/Python双语言实战指南
作为一名深耕技术领域多年的博主摘星,我深刻感受到了MCP(Model Context Protocol)协议在AI生态系统中的革命性意义。MCP作为Anthropic推出的开放标准,正在重新定义AI应用与外部系统的交互方式,它不仅解决了传统API集成的复杂性问题,更为开发者提供了一个统一、安全、高效的连接框架。在过去几个月的实践中,我发现许多开发者对MCP的概念理解透彻,但在实际动手构建MCP服务器时却遇到了各种技术壁垒。从环境配置的细节问题到SDK API的深度理解,从第一个Hello World程序的调试到生产环境的部署优化,每一个环节都可能成为初学者的绊脚石。因此,我决定撰写这篇全面的实
测试工程师要失业?Magnitude:开源AI Agent驱动的端到端测试框架,让Web测试更智能,自动完善测试用例!
Magnitude是一个基于视觉AI代理的开源端到端测试框架,通过自然语言构建测试用例,结合推理代理和视觉代理实现智能化的Web应用测试,支持本地运行和CI/CD集成。
基于 DeepSeek 百万 token 窗口的 3673 轮对话深度实录
本文基于 DeepSeek 百万 token 上下文窗口的真实对话记录(1 274 201 tokens,3 673 轮),系统性地分析了长达数十小时的人机协作过程。研究构建了 L1 基础数据层 → L2 项目演进层 → L3 关键转折层 → L4 互动模式层 → L5 情感记忆层 的五层分析框架,完整呈现了一位非 AI 专业背景的研究者(医学、心理学与人文领域)在完全依赖云端免费模型的条件下,从环境搭建到心源框架的完整工程轨迹。 主要发现如下: 1. 技术投入曲线显示,405 次命令/脚本集中在中期(第 1225–2448 轮),与英文占比高峰(43.4 %)完全吻合; 2. 三阶段演进从前
[大模型实战 03] 拆解 Transformers:从原理图解到 HuggingFace Transformers 实战
本文图解Transformer核心原理(注意力机制+位置编码),在Kaggle双T4 GPU环境下实战拆解Hugging Face“铁三角”(Config/Tokenizer/Model),并详解Temperature与Top_p两大生成调控参数,助你真正理解并掌控大模型推理。
131_推理加速:ONNX与TensorRT深度技术解析与LLM模型转换优化实践
在大语言模型(LLM)时代,高效的推理加速已成为部署高性能AI应用的关键挑战。随着模型规模的不断扩大(从BERT的数亿参数到GPT-4的数千亿参数),推理过程的计算成本和延迟问题日益突出。ONNX(开放神经网络交换格式)和TensorRT作为业界领先的推理优化框架,为LLM的高效部署提供了强大的技术支持。本文将深入探讨LLM推理加速的核心原理,详细讲解PyTorch模型转换为ONNX和TensorRT的完整流程,并结合2025年最新优化技术,提供可落地的代码实现与性能调优方案。
65_GPU选择:A100 vs RTX系列
在2025年的今天,大语言模型(LLM)已经成为人工智能领域的核心技术之一。从GPT-4到Llama 3.1,从专业领域应用到消费级产品,LLM正在以前所未有的速度改变着我们的工作和生活方式。然而,这些强大模型的训练和部署背后,都离不开高性能计算硬件的支持,尤其是GPU(图形处理单元)的选择,往往直接决定了项目的可行性、效率和成本。
B站开源IndexTTS2,用极致表现力颠覆听觉体验
在语音合成技术不断演进的背景下,早期版本的IndexTTS虽然在多场景应用中展现出良好的表现,但在情感表达的细腻度与时长控制的精准性方面仍存在提升空间。为了解决这些问题,并进一步推动零样本语音合成在实际场景中的落地能力,B站语音团队对模型架构与训练策略进行了深度优化,推出了全新一代语音合成模型——IndexTTS2 。
基于医疗行业需求开发“问诊”AI智能体,寻找有兴趣志同道合的开发合伙人
问诊智能体是面向患者的AI就医导航工具,集成“症状分析→科室推荐→多院号源比选→一键挂号支付”全流程。MVP聚焦重点城市与医院,依托高德地图、合规挂号接口及可解释推荐算法,提升就医效率。严守合规边界:不替代面诊,急危重症强制120提示。(239字)
用 OpenJudge 搭建 AI 论文审稿工作流:从评估器到在线审稿的完整实践
本文介绍基于开源评估框架OpenJudge构建的AI辅助论文审稿方案,支持PDF上传后自动生成含安全性检查、正确性分析、综合评审、严重性分级及参考文献校验的结构化报告,已上线可直接体验。
阶跃星辰 Step 3.5 Flash 预训练/中训练/训练框架全部开源!
阶跃星辰开源Step 3.5 Flash——迄今最强开源Agent基座模型,含Base/Midtrain权重及Steptron全栈训练框架,支持预训练、SFT与强化学习,专为智能体设计。已登OpenRouter榜首,获社区广泛好评。(239字)
智谱发布新一代旗舰模型 GLM-4.5,面向推理、代码与智能体的开源SOTA模型!
7月28日晚,智谱带来新一代旗舰模型——GLM-4.5!GLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air 采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求。
三个DeepSeek百万Token窗口与一个长程项目:记忆迁移、协作特点与窗口资源利用模式分析
本文基于三个DeepSeek百万Token上下文窗口的长程项目实证数据,对窗口一(项目启动与环境搭建)、窗口二(窗口特性实验研究与论文)及窗口三(构建项目工程框架)的量化分析。结果显示,三个窗口的token数(cl100k base)高度一致,说明窗口内容与交互模式决定了各种主要指标的差异。随着项目阶段的推进,单轮对话平均字数呈上升趋势(从423.9字增至658.7字),AI/User Token产出比显著提升(从5.6增至7.47),且文本符号构成随任务性质发生结构性转移。尤其是在有效窗口迁移策略支持下,AI逐步体现出对项目及用户的“意合”认知与反应模式
基于 AgentScope x AI Agent A2Z部署平台的生产级别Agent上线Live实战分享
本文分享如何用AgentScope框架+AI Agent A2Z平台,一键完成AI Agent生产级部署:解决“开发易、上线难”痛点,快速生成标准/chat接口(如https://agentscope.aiagenta2z.com/deep_research_agent/chat),支持高并发、实时监控与冷启动。
Z-Image Turbo LoRA训练魔法:如何保持加速生图能力
ModelScope DiffSynth团队推出Z-Image-Turbo-DistillPatch,解决LoRA训练后丢失Turbo加速问题。支持8步高质量生成,兼容标准SFT流程,即插即用,无需重训。开源地址:modelscope.cn/models/DiffSynth-Studio/Z-Image-Turbo-DistillPatch
【SpringBoot】OAuth 2.0 授权码模式 + JWT 令牌自动续签 的终极落地指南,包含 深度技术细节、生产环境配置、安全加固方案 和 全链路监控
【SpringBoot】OAuth 2.0 授权码模式 + JWT 令牌自动续签 的终极落地指南,包含 深度技术细节、生产环境配置、安全加固方案 和 全链路监控