Bolt.diy:更灵活更开放的AI全栈开发工具

简介: Bolt.new是一款爆火的AI全栈开发工具,允许用户在浏览器中运行Node.js环境并通过自然语言生成、编辑和部署Web应用。然而,它存在一定的封闭性,仅支持官方指定的大语言模型和Netlify部署。而Bolt.diy作为其开源版本,功能更强大灵活,支持多种大模型选择(如OpenAI、Anthropic等)、丰富的输入方式及多云部署选项(如Vercel、AWS)。此外,Bolt.diy还提供本地文件同步、代码下载到GitHub等功能,适用于快速原型设计、教育与企业级开发等多种场景。

前段时间爆火了一款的AI全栈开发工具:Bolt.new,它允许用户在浏览器中直接运行完整的 Node.js 环境,并通过自然语言提示快速生成、运行、编辑和部署全栈 Web 应用程序,从而大幅简化开发流程,成为AI辅助编程的标杆。但Bolt.new有一定的封闭性,只能使用官方默认的大语言模型,而且生成的web应用一键部署也是只能部署到Netlify。

Bolt.diy是一个开源项目,它原本是Bolt.new项目的一个开源分叉,现在已经发展成为Bolt.new的官方开源版本,它不仅延续了核心功能,功能更强大也更具有灵活性。

Bolt.diy与Bolt.new的对比

Bolt.new:AI驱动的Web开发革命

核心功能

  • 低代码开发:用户通过自然语言提示快速生成Node.js服务端、React前端等组件。
  • 一键部署:直接部署到Netlify,但仅支持官方指定云服务商。
  • 封闭生态:默认使用Bolt.new自有的LLM(大语言模型),模型选择和扩展受限。

局限性

  • 商业性限制:部分高级功能需付费订阅,且资源托管绑定商业平台。
  • 模型固定:用户无法替换或添加自定义LLM。
  • 部署单一:部署选项仅限Netlify,缺乏灵活性。

Bolt.diy:开源化重构,解锁无限可能

起源与发展

  • 社区起家:由开发者Cole Medin创建的社区项目“oTToDev”于2023年夏季萌芽,后更名为“Bolt.new ANY LLM”,旨在打破模型单一性限制。
  • 官方合作:因社区活跃度和功能潜力,StackBlitz(Bolt.new母公司)正式采纳该项目为官方开源分支,2023年12月更名为Bolt.diy
  • 定位清晰:保持与Bolt.new互补——开源版提供极致灵活性,而Bolt.new聚焦企业级服务与付费特性。

功能亮点与优势

维度

Bolt.new(商业版)

Bolt.diy(开源版)

LLM选择

固定使用官方模型

支持30+模型(OpenAI、Anthropic、Ollama、HuggingFace、DeepSeek等)

模型定制

无法替换或添加自定义模型

通过插件扩展,甚至集成本地私有模型(如自训练的LLM)

部署选项

仅支持Netlify

支持多云部署(Netlify、Vercel、AWS、Docker等)

可扩展性

功能有限,依赖官方更新

模块化架构,开发者可自定义Docker服务、集成第三方工具

代码安全

完全托管,数据可能离开本地

本地部署,数据完全控制,适合隐私敏感项目

二者的页面比较

Bolt.new的官网应用界面:

image.png

Bolt.diy的运行界面

image.png

image.png

可以看到,两者大体的布局非常像,功能上主要的区别如下:

  • Bolt.diy支持各种模型的选择,并且支持每句提示都选择不同的大模型。Bolt.new只能使用官方默认的模型。
  • Bolt.diy的输入框功能更丰富,支持语音输入,支持本地文件同步
  • Bolt.diy的编辑器功能丰富:
  • 支持直接Push到GitHub
  • 支持同步本地文件
  • 支持将代码下载到本地
  • Bolt.new支持一键部署到Netlify,Bolt.diy在Roadmap上计划支持一键部署到Vercel和Cloudflare

Bolt.diy的应用场景

  • 快速原型设计:对于需要快速验证想法的开发者,Bolt.diy 提供了一种极具性价比的解决方案。用户可以通过简单的自然语言提示生成代码,并在浏览器中直接运行,从而快速完成原型设计和验证。
  • 教育与培训:Bolt.diy 的开源项目属性和它的灵活可扩展性使其成为教学和培训的理想工具。通过该平台,学生和初学者可以快速上手并学习全栈开发的基本概念。
  • 企业级开发:对于企业团队,Bolt.diy 的开源架构和多语言模型支持提供了高度的灵活性。团队可以根据自身需求定制平台功能,从而提高开发效率并降低成本

快速部署自己的Bolt.diy

通过计算巢一键部署

  1. 访问计算巢Bolt.diy社区版部署链接 按提示填写部署参数,配置ECS实例规格和密码

image.png

  1. 配置专有网络和可用区 image.png
  2. 配置百炼模型服务,Bolt.diy支持多种大模型,如果想使用百炼的模型服务,请配置百炼模型服务的API-KEY。请参考: 获取百炼API-KEY image.png
  3. 服务实例创建成功后,可以在页面上获取到访问地址,注意:Bolt.diy页面加载较慢,请耐心等待。

image.png

配置使用百炼的模型

前提:在部署时已经配置过了百炼的API-KEY

  1. 打开侧边栏,点击左下角的设置 image.png
  2. 设置中点击"Local Providers" image.png
  3. 打开"OpenAILike"的开关 image.png
  4. 在首页选择OpenAILike,即可使用百炼上的大模型服务 image.png

配置浏览器的安全策略

如果使用Bolt.diy的过程中,页面有如下报错, image.png

原因:bolt.diy 底层依赖 WebAssembly,WebAssembly中使用到了 SharedArrayBuffer。浏览器出于安全考虑,对 SharedArrayBuffer 的有一定的安全策略限制,要求使用 SharedArrayBuffer 或多线程通信(如 postMessage 传输 SharedArrayBuffer)的页面必须满足跨域隔离(Cross-Origin Isolation) 的条件,此条件包括:

  • 确保使用HTTPS或者使用localhost 或者127.0.0.1 访问
  • 添加必要的HTTP响应头

通过配置了Nginx反向代理和自签名证书满足上述条件后,发现代码生成页面白屏,后来发现是启用跨域隔离后应用内的CDN资源也会被隔离,导致无法获取到一些静态资源,这里涉及到Bolt.diy的底层了,所以这里采用了trick的方案。

解决方案:为了绕开此安全限制限制,可以修改浏览器的设置。

  1. 在Chrome浏览器中,访问标志页:在地址栏输入 chrome://flags/#allow-insecure-localhost。
  2. 启用配置:将 Insecure origins treated as secure 的选项设为 Enabled, 在下方输入框中添加Bolt.diy的访问地址 image.png
  3. 修改完配置后,重新启动浏览器即可。

修改此配置的核心效果是允许将 HTTP 资源视为 HTTPS,会将指定的不安全起源(HTTP) 视为安全的 HTTPS 起源,从而

1.绕过混合内容(Mixed Content)警告:

 当网页通过 HTTPS 加载时,如果它引用了 HTTP 协议的资源(如图片、脚本、API 接口等),浏览器会默认阻止这些资源并报错(如 Mixed Content 错误)。开启此配置后,指定的 HTTP 起源会被视为安全,从而允许加载。

2.支持需要 HTTPS 的功能:

 部分 Web API(如 Fetch API、WebAuthn、WebSockets 等)在 HTTP 环境下可能无法使用,但通过此设置,指定的 HTTP 起源可以绕过这一限制。


目录
相关文章
|
3月前
|
人工智能 Ubuntu 前端开发
Dify部署全栈指南:AI从Ubuntu配置到HTTPS自动化的10倍秘籍
本文档介绍如何部署Dify后端服务及前端界面,涵盖系统环境要求、依赖安装、代码拉取、环境变量配置、服务启动、数据库管理及常见问题解决方案,适用于开发与生产环境部署。
761 1
|
3月前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
本文讲解 Prompt 基本概念与 10 个优化技巧,结合学术分析 AI 应用的需求分析、设计方案,介绍 Spring AI 中 ChatClient 及 Advisors 的使用。
1351 133
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
|
3月前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段三:自定义 Advisor 与结构化输出实现以及对话记忆持久化开发
本文介绍如何在Spring AI中自定义Advisor实现日志记录、结构化输出、对话记忆持久化及多模态开发,结合阿里云灵积模型Qwen-Plus,提升AI应用的可维护性与功能性。
702 125
AI 超级智能体全栈项目阶段三:自定义 Advisor 与结构化输出实现以及对话记忆持久化开发
|
3月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1581 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
5月前
|
存储 机器学习/深度学习 人工智能
加速中企AI出海,阿里云提供全栈能力支持!
AI出海正成为中企拓展海外市场的新趋势。在2025阿里云中企出海峰会上,Vidu、LiblibAI等头部AI应用展示了与阿里云合作的最新成果。阿里云加速构建全球云计算“一张网”,部署全栈AI能力,助力中企高效出海。Vidu依托阿里云基础设施,已覆盖200多个国家,服务增长显著;LiblibAI通过阿里云全栈AI能力,实现全球统一架构,提升上线与运维效率。MiniMax也在阿里云支持下,强化模型训练与推理能力,拓展全球市场。阿里云持续深化全球布局,满足日益增长的AI出海需求。
284 0
|
3月前
|
存储 机器学习/深度学习 人工智能
云栖 2025|阿里云 Qwen3 系列领衔:AI 模型全栈突破与开发者落地指南
阿里云发布Qwen3全栈AI体系,七大模型升级、性能全球领先,开源生态稳居第一。从底层基建到开发工具链全面优化,助力企业高效落地AI应用,共建超级AI云生态。
1530 11
|
3月前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
阿里云 Qwen3 全栈 AI 模型:技术解析、开发者实操指南与 100 万企业落地案例
阿里云发布Qwen3全栈AI体系,推出Qwen3-Max、Qwen3-Next等七大模型,性能全球领先,开源生态超6亿次下载。支持百万级上下文、多模态理解,训练成本降90%,助力企业高效落地AI。覆盖制造、金融、创作等场景,提供无代码与代码级开发工具,共建超级AI云生态。
878 6
|
3月前
|
人工智能 安全 架构师
开放、协同,2025 云栖大会“操作系统开源与 AI 进化分论坛”精彩回顾
唯有通过生态开放与技术共享,才能加速 AI 技术的普惠与产业化落地。
|
3月前
|
人工智能 安全 网络安全
阿里云亮相2025国家网安周 | 首次提出AI全栈安全
了解阿里云最新的AI安全产品技术
1360 1
|
4月前
|
人工智能 自然语言处理 JavaScript
Github又一AI黑科技项目,打造全栈架构,只需一个统一框架?
Motia 是一款现代化后端框架,融合 API 接口、后台任务、事件系统与 AI Agent,支持 JavaScript、TypeScript、Python 多语言协同开发。它提供可视化 Workbench、自动观测追踪、零配置部署等功能,帮助开发者高效构建事件驱动的工作流,显著降低部署与运维成本,提升 AI 项目落地效率。
395 0