官方博客-第9页-阿里云开发者社区

  • 2024-10-18
    521

    海量大模型如何一键部署上云,函数计算 x ModelScope 社区给出答案

    得益于阿里云函数计算的产品能力,魔搭 SwingDeploy 后的模型推理 API 服务默认具备极致弹性伸缩(缩零能力)、GPU 虚拟化(最小 1GB 显存粒度)、异步调用能力、按用付费、闲置计费等能力,这些能力帮助算法工程师大大加快了魔搭开源模型投入生产的生命周期。

  • 2025-01-22
    182

    两步构建 AI 总结助手,实现智能文档摘要

    本方案将运用函数计算 FC,构建一套高可用性的 Web 服务,以满足用户多样化的需求。当用户发起请求时,系统内部会自动将包含文本和提示词的信息传递给百炼模型服务,百炼平台将根据后台配置调用相应的大模型服务,对文本数据进行智能识别与解析,最终将总结结果返回给用户。

  • 2021-08-13
    2166

    用SLS配置日志关键字告警的N种方法

    本文主要介绍一种免运维,高性能,支持灵活配置的方案,使用SLS接入日志和告警。

    2,166
  • 2024-05-15
    642

    Modelscope结合α-UMi:基于Modelscope的多模型协作Agent

    基于单个开源小模型的工具调用Agent,由于模型容量和预训练能力获取的限制,无法在推理和规划、工具调用、回复生成等任务上同时获得比肩大模型等性能。

  • 2024-05-15
    2064

    Multi-Agent实践第5期:RAG智能体的应用:让AgentScope介绍一下自己吧

    本期文章,我们将向大家展示如何使用AgentScope中构建和使用具有RAG功能的智能体,创造AgentScope助手群,为大家解答和AgentScope相关的问题。

    2,064
  • 2024-12-05
    564

    我的程序突然罢工了|深入探究HSF调用异常,从死锁到活锁的全面分析与解决

    本文详细记录了作者在处理HSF调用异常问题的过程中,从初步怀疑死锁到最终发现并解决活锁问题的全过程。

    564
  • 2024-05-15
    723

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

  • 2024-05-15
    638

    从零构建现代深度学习框架(TinyDL-0.01)

    本文主要以一个Java工程师视角,阐述如何从零(无任何二三方依赖)构建一个极简(麻雀虽小五脏俱全)现代深度学习框架(类比AI的操作系统)。

    638
  • 2024-08-21
    1042

    阿里云百炼应用实践系列-10分钟构建能主动提问的智能导购

    通过使用“百炼”平台,您可以快速构建一个多代理(Multi-Agent)架构的智能导购助手。该助手能够通过多轮互动了解顾客的具体需求,收集详细信息后,利用“百炼”的知识检索增强功能或已有的商品数据库进行商品搜索,为顾客推荐最合适的产品。

    1,042
  • 1
    ...
    8
    9
    10
    ...
    23
    到第
    9/23