官方博客-第17页-阿里云开发者社区

  • 2024-05-15
    1189

    人人都是AI大师 - Prompt工程

    prompt工程不需要复杂的编程知识,人人都可以使用prompt工程成为AI大师。本文只探讨prompt工程,不涉及模型训练等内容。只讨论文本生成,不涉及图像等领域。

    1,189
  • 2025-02-21
    1020

    基于LLM打造沉浸式3D世界

    阿里云数据可视化产品DataV团队一直在三维交互领域进行前沿探索,为了解决LLMs与3D结合的问题,近期在虚幻引擎内结合通义千问大模型家族打造了一套基于LLM的实时可交互3D世界方案,通过自然语言来与引擎内的3D世界进行交互。

    1,020
  • 2025-04-18
    637

    AI 时代,为什么编程能力≠ 开发门槛

    在 2.0 阶段,我们目标是实现面向任务的协同编码模式,人的主要职责转变为任务的下发、干预以及最后结果的审查。在这个过程中,人的实际工作量开始减轻,AI 工作的占比显著提升。目前的 2.0 版本是我们最近上线的。

  • 2025-06-27
    567

    如何用通义灵码实现文本分析:以《红楼梦》人物出场统计为例

    我们将分析一部红楼梦中关键角色出场次数前10位有哪些,并生成一个饼图。

    567
  • 2023-09-08
    830

    MaxCompute半结构化数据思考与创新

    本文将介绍MaxCompute在半结构化数据方面的一些思考与创新,围绕半结构化数据简析、传统方案优劣对比、MaxCompute半结构化数据解决方案、收益分析。

    830
  • 2024-05-15
    1340

    快来与 CodeQwen1.5 结对编程

    今天,来自 Qwen1.5 开源家族的新成员,代码专家模型 CodeQwen1.5开源!CodeQwen1.5 基于 Qwen 语言模型初始化,拥有 7B 参数的模型,其拥有 GQA 架构,经过了 ~3T tokens 代码相关的数据进行预训练,共计支持 92 种编程语言、且最长支持 64K 的上下文输入。效果方面,CodeQwen1.5 展现出了优秀的代码生成、长序列建模、代码修改、SQL 能力等,该模型可以大大提高开发人员的工作效率,并在不同的技术环境中简化软件开发工作流程。

    1,340
  • 2024-05-15
    1219

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,219
  • 2024-08-21
    1114

    用好通义灵码,让这款 AI 编码助手帮你做更多工作

    通义灵码提供了一系列快捷键和配置选项以增强开发体验。

  • 2024-11-01
    881

    告别头文件,编译效率提升 42%!C++ Modules 实战解析 | 干货推荐

    本文中,阿里云智能集团开发工程师李泽政以 Alinux 为操作环境,讲解模块相比传统头文件有哪些优势,并通过若干个例子,学习如何组织一个 C++ 模块工程并使用模块封装第三方库或是改造现有的项目。

    881
  • 1
    ...
    16
    17
    18
    ...
    24
    到第
    17/24