自建 DeepSeek 时代已来,联网搜索如何高效实现

简介: 自建 DeepSeek 时代已来,联网搜索如何高效实现

01

开源 LLM 的新纪元:

DeepSeek 带来的技术平权

Cloud Native

随着 DeepSeek 等高质量开源大模型的涌现,企业自建智能问答系统的成本已降低 90% 以上。基于 7B/13B 参数量的模型在常规 GPU 服务器上即可获得商业级响应效果,配合 Higress 开源 AI 网关的增强能力,开发者可快速构建具备实时联网搜索能力的智能问答系统。

02

Higress:零代码增强 LLM 的瑞士军刀

Cloud Native

Higress 作为云原生 API 网关,通过 wasm 插件提供开箱即用的 AI 增强能力:

主要能力矩阵:

  • 联网搜索:实时接入互联网最新信息
  • 智能路由:多模型负载均衡与自动兜底
  • 安全防护:敏感词过滤与注入攻击防御
  • 效能优化:请求缓存+token 配额管理
  • 可观测性:全链路监控与审计日志

03

联网搜索的技术实现与场景价值

Cloud Native

Higress AI 搜索增强插件代码已经开源,可以点击阅读原文查看插件文档和代码。

核心架构解析

关键技术特性1. 多引擎智能分流

  • 公共搜索(Google/Bing/Quark)获取实时资讯
  • 学术搜索(Arxiv)对接科研场景
  • 私有搜索(Elasticsearch)连接企业/个人知识库

2. 搜索增强核心思路

  • LLM 重写 Query:基于 LLM 识别用户意图,生成搜索命令,可以大幅提升搜索增强效果
  • 关键词提炼:针对不同的引擎,需要生成不同的提示词,例如 Arxiv 里英文论文居多,关键词需要用英文
  • 领域识别:仍以 Arxiv 举例,Arxiv 划分了计算机科学/物理学/数学/生物学等等不同学科下的细分领域,指定领域进行搜索,可以提升搜索准确度
  • 长查询拆分:长查询可以拆分为多个短查询,提高搜索效率
  • 高质量数据:Google/Bing/Arxiv 搜索都只能输出文章摘要,而基于阿里云信息检索对接 Quark 搜索,可以获取全文,可以提高 LLM 生成内容的质量


典型应用场景效果展示

金融资讯问答

前沿技术探索

医疗问题解答

04

从开源到落地:三步构建智能问答系统

Cloud Native


1. 基础部署


# 一行命令安装并启动Higress网关curl -sS  https://higress.cn/ai-gateway/install.sh | bash
# 用vllm部署DeepSeek-R1-Distill-Qwen-7B示意python3 -m vllm.entrypoints.openai.api_server --model=deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --dtype=half --tensor-parallel-size=4 --enforce-eager


2. 插件配置

可以通过 http://127.0.0.1:8001 访问 higress 控制台,给 ai-search 插件做如下配置。


plugins:searchFrom:- type: quark  apiKey: "your-aliyun-ak"  keySecret: "your-aliyun-sk"  serviceName: "aliyun-svc.dns"  servicePort: 443- type: google  apiKey: "your-google-api-key"  cx: "search-engine-id"  serviceName: "google-svc.dns"  servicePort: 443- type: bing  apiKey: "bing-key"  serviceName: "bing-svc.dns"  servicePort: 443- type: arxiv  serviceName: "arxiv-svc.dns"   servicePort: 443searchRewrite:  llmServiceName: "llm-svc.dns"  llmServicePort: 443  llmApiKey: "your-llm-api-key"  llmUrl: "https://api.example.com/v1/chat/completions"  llmModelName: "deepseek-chat"  timeoutMillisecond: 15000


3. 对接 SDK 或前端

使用这个 OpenAI 协议 BaseUrl:http://127.0.0.1:8080/v1,就可以使用 ChatBox/LobeChat 等支持 OpenAI 协议的对话工具进行对话。

也可以直接使用 OpenAI 的 SDK 对接,如下所示:


import jsonfrom openai import OpenAI
client = OpenAI(    api_key="none",    base_url="http://localhost:8080/v1",)
completion = client.chat.completions.create(    model="deepseek-r1",    messages=[        {"role": "user", "content": "分析一下国际金价走势"}    ],    stream=False)
print(completion.choices[0].message.content)

通过 Higress+DeepSeek 的开源组合,企业可在 24 小时内完成从零到生产级的智能问答系统部署,使 LLM 真正成为业务增长的智能引擎。


相关文章
|
10月前
|
人工智能 自然语言处理 开发工具
自建 DeepSeek 时代已来,联网搜索如何高效实现
随着 DeepSeek 等高质量开源大模型的涌现,企业自建智能问答系统的成本已降低 90% 以上。基于 7B/13B 参数量的模型在常规 GPU 服务器上即可获得商业级响应效果,配合 Higress 开源 AI 网关的增强能力,开发者可快速构建具备实时联网搜索能力的智能问答系统。
1033 100
|
人工智能 自然语言处理 运维
钉钉MCP能力上新:AI如何提效你的工作流程
钉钉通讯录 & 部门管理、日程管理、待办任务、机器人&通知等高频场景API提供MCP服务
钉钉MCP能力上新:AI如何提效你的工作流程
|
10月前
|
机器学习/深度学习 人工智能 Serverless
👉「免费满血DeepSeek实战-联网搜索×Prompt秘籍|暨6平台横评」
满血 DeepSeek 免费用!支持联网搜索!创作声明:真人攥写-非AI生成,Written-By-Human-Not-By-AI
5685 10
👉「免费满血DeepSeek实战-联网搜索×Prompt秘籍|暨6平台横评」
|
10月前
|
数据采集 搜索推荐 API
LLM 联网搜索,到底是咋回事?
LLM 联网搜索,到底是咋回事?
|
Docker 容器
docker容器查看所有没使用的镜像,并删除
docker容器查看所有没使用的镜像,并删除
1687 0
|
10月前
|
人工智能 运维 前端开发
基于阿里百炼的DeepSeek-R1满血版模型调用【零门槛保姆级2084小游戏开发实战】
本文介绍基于阿里百炼的DeepSeek-R1满血版模型调用,提供零门槛保姆级2048小游戏开发实战。文章分为三部分:定位与核心优势、实战部署操作指南、辅助实战开发。通过详细步骤和案例展示,帮助开发者高效利用DeepSeek-R1的强大推理能力,优化游戏逻辑与视觉效果,解决官网响应延迟问题,提升开发效率和用户体验。适合企业开发者、教育行业及多模态探索者使用。
90689 26
基于阿里百炼的DeepSeek-R1满血版模型调用【零门槛保姆级2084小游戏开发实战】
|
8月前
|
人工智能 自然语言处理 搜索推荐
阿里云 AI 搜索开放平台新功能发布:大模型联网能力上线
阿里云 AI 搜索开放平台此次新增了大模型联网能力,通过集成大语言模型(LLM)和联网搜索技术,为用户提供更智能、更全面的搜索体验。
1819 27
|
机器学习/深度学习 人工智能 测试技术
阿里云百炼已上线超强推理开源模型QwQ-32B,尺寸更小,性能比肩DeepSeek满血版
通义千问团队推出了320亿参数的QwQ-32B模型,通过大规模强化学习和多阶段训练,在数学、编程及通用能力上达到或超越了DeepSeek-R1等先进模型。QwQ-32B模型已在阿里云百炼上线,支持API调用,用户可通过官方文档了解详细使用方法。未来,团队将继续探索智能体与RL集成,推动人工通用智能的发展。
9198 0
|
11月前
|
人工智能 编解码 JSON
Qwen2.5-VL:阿里通义千问最新开源视觉语言模型,能够理解超过1小时的长视频
Qwen2.5-VL 是阿里通义千问团队开源的视觉语言模型,具有3B、7B和72B三种不同规模,能够识别常见物体、分析图像中的文本、图表等元素,并具备作为视觉Agent的能力。
5242 18
Qwen2.5-VL:阿里通义千问最新开源视觉语言模型,能够理解超过1小时的长视频
|
10月前
|
数据采集 搜索推荐 API
LLM 联网搜索,到底是咋回事?
本文展示从零开始搭建一个本地聊天助手的过程,涵盖了模型部署、搜索逻辑设计、内容提取与整合等关键步骤,特别介绍了如何让模型具备联网搜索能力。
LLM 联网搜索,到底是咋回事?