官方博客-第16页-阿里云开发者社区

  • 2024-05-15
    1350

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,350
  • 2024-07-30
    2126

    阿里云百炼应用实践系列-AI助手快速搭建

    本文主要介绍如何基于阿里云百炼平台快速在10分钟为您的网站添加一个 AI 助手。我们基于阿里云百炼平台的能力,以官方帮助文档为参考,搭建了一个以便全天候(7x24)回应客户咨询的AI助手,介绍了相关技术方案和主要代码,供开发者参考。

    2,126
  • 916

    云+AI时代下,Alibaba Cloud Linux 进一步演进思考

    用好开源、做深开源、自研创新,打造全方位安全可信的服务器操作系统。

  • 2024-11-15
    1358

    AI经营|多Agent择优生成商品标题

    商品标题中关键词的好坏是商品能否被主搜检索到的关键因素,使用大模型自动优化标题成为【AI经营】中的核心能力之一,本文讲述大模型如何帮助商家优化商品素材,提升商品竞争力。

    1,358
  • 2025-04-07
    599

    Nacos托管LangChain应用Prompts和配置,助力你的AI助手快速进化

    AI 应用开发中,总有一些让人头疼的问题:敏感信息(比如 API-KEY)怎么安全存储?模型参数需要频繁调整怎么办?Prompt 模板改来改去,每次都得重启服务,太麻烦了!别急,今天我们就来聊聊如何用 Nacos 解决这些问题。

  • 2025-04-15
    739

    Nacos-Controller 2.0:使用 Nacos 高效管理你的 K8s 配置

    无论是使用 Nacos-Controller 实现配置的双向同步,还是直接在应用中接入 Nacos SDK 以获得更高级的配置管理特性,都能显著提升配置管理的灵活性、安全性和可维护性。使用 Nacos,您能够更好地管理和优化您的应用配置,从而提高系统的稳定性和可靠性。

  • 2025-07-21
    969

    通义灵码保姆级教程:从数据读取、清洗、结合大模型分析、可视化、生成报告全链路

    本课程通过通义灵码实现零代码数据分析全流程,涵盖数据读取、清洗、可视化、报告生成及内容仿写,无需编程基础,轻松掌握从CSV导入到PDF报告输出的实战技能。

  • 2024-05-15
    44222

    得物 ZooKeeper SLA 也可以 99.99%丨最佳实践

    在本文中,作者探讨了ZooKeeper(ZK)的一个内存占用问题,特别是当有大量的Watcher和ZNode时,导致的内存消耗。

  • 1
    ...
    15
    16
    17
    ...
    43
    到第