加入我们,一起定义「Data x AI」的未来

简介: 我们在杭州、上海开放岗位。如果你准备好了,请加入我们,一起建造 AI 时代最重要的数据基础设施。

在阿里云,我们正站在一个技术转折点上。


今天的大模型不再只是“聊天”——它开始查故障、做决策、自动修复系统。而这一切的前提是:AI 必须真正“看见”这个世界。不是通过摄像头,而是通过千万服务器、百万容器、亿级请求中持续涌出的日志、指标、追踪、eBPF 事件和 Agent 行为数据。这些数据,是系统最真实的脉搏,也是智能演进的原始燃料。


我们正在构建一条从数据到智能的闭环通路:把海量、异构、高速的数据汇聚成一条实时、高质量、可计算的“数据飞轮”,喂给 AI,训练 Agent,驱动自动化决策。这就是“Data + AI”的新范式。我们不再被动告警,而是让系统自己“诊断 + 治疗”;不再靠人翻日志,而是由 AI 实时推理根因;不再手工调参,而是让 Agent 在持续反馈中越用越聪明。而支撑这一切的,是一个日增百 PB 级数据的实时处理平台。它必须扛住流量洪峰,支撑千亿级数据的秒级查询,为 AI 提供干净、结构化、低延迟的数据燃料,成为云原生时代的“感知神经”。这不是简单的数据管道,而是 AI 时代的操作系统级数据基座。


阿里云日志服务 SLS 团队每天处理超百 PB 数据,覆盖阿里集团全系业务与数百万云上客户。我们研发的 LoongCollector(原 iLogtail)作为国内广泛使用的开源云原生可观测采集器,已在千万级实例上稳定运行。我们深度服务于大模型训练、RAG、Agent 反馈、智能运维等前沿场景。我们不只做旁路监控与观测,我们做的是基础设施本身。现在,我们正在寻找三位真正的系统建筑师,加入这场超大规模系统的极限挑战。如果你曾在 Linux 内核层优化内存与网络,曾让 SQL 在千亿数据上毫秒响应,曾用向量检索与倒排索引支撑 AI 的语义理解,或亲手构建过一个会自我进化的 Agent 数据闭环——那么这里就是你的战场。


岗位一:云原生应用平台 - AI Infra 研发工程师(P6~P8)- 杭州

职责概述

负责阿里集团、阿里云可观测数据处理基础设施建设,打造日增百 PB 级数据的实时数据分析平台。通过实时采集、索引、存储、压缩等技术,实时处理来自千万设备的海量日志数据,并针对 AI 应用场景进行特定优化,提供智能、自动化数据分析服务。


加入该岗位,您将有机会在国内超大规模的实时日志平台上,构建各种面向各类 AI 应用场景的数据存储和处理平台,打造新一代的 AI 基础设施。


主要职责

1. 参与阿里云战略级产品 SLS 研发,参与面向 AI 应用场景的数据采集、处理、查询分析等功能开发与设计;

2. 数据索引和查询分析引擎优化,通过数据编码、压缩、向量、倒排索引、SQL 执行优化、CodeGen 等各类技术,实现百~千亿数据实时查询秒级延时,提供极致查询体验;

3. 参与 Agent 数据飞轮的建设,研发稳定可靠的 Agent 运行时数据基础设施;


职位要求

1. 熟悉 AI 领域,对于 AI 应用数据特征,数据存储和查询需求有深入理解;

2. 深入理解 LLM 原理,了解上下文工程、KV Cache 机制及 Prompt 优化策略,熟悉 Agent Memory、RAG 相关技术,有实战经验更佳;

3. 在高性能数据结构、数据编码压缩、向量(Vector Search)、倒排索引(Inverted Index)、混合检索(Hybrid Search)算法上深入研究,熟悉分布式 SQL 优先;

4. 高性能网络服务器编程经验,熟悉异步 IO、内存管理、多线程同步等技术,有 Linux 内核研究经验更佳;

5. 对技术有强烈的进取心,有较强的学习能力,保持对前沿技术的关注和学习;

6. 具有良好的沟通能力和团队合作精神、优秀的问题分析和解决能力;

7. 优先:对 Lucene、LevelDB、Influxdb、TokuDB、kudu、LanceDB 源代码深入研究者;

8. 优先:有 TB~PB 级数据 OLTP/OLAP 经验者;大型系统自动化运维管理开发经验。


投递链接 A:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=100002183001&trace=qrcode_share

投递链接 B:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=2009283001&trace=qrcode_share


岗位二:云原生应用平台 - 可观测基础平台高级研发工程师 - 上海

职责概述

负责阿里集团、阿里云可观测数据处理基础设施建设,打造日增百 PB 级数据的实时数据分析平台。通过实时采集、索引、存储、压缩等技术,实时处理来自千万设备的海量日志数据,并针对 AI 应用场景进行特定优化,提供智能、自动化数据分析服务。

加入该岗位,您将有机会在国内超大规模的实时日志平台上,构建面向各类 AI 应用场景的数据存储和处理平台,打造新一代的 AI 基础设施。


主要职责

1. 参与阿里云战略级产品 SLS 研发,参与面向 AI 应用场景的数据采集、处理、查询分析等功能开发与设计。

2. 参与千万级实例、数百 PB 流量的云原生可观测采集器 LoongCollector/iLogtail 及管控系统开发,打造云上统一的 OneAgent 能力,服务于日志、指标、eBPF、主机监控、安全等多种场景;主导 LoongCollector 开源技术路线,推动采集行业标准建立。

3. 深度参与并打造高性能、高可靠的数据采集与管控系统,深入底层优化,提升网络、内存和 CPU 等关键资源的利用效率。

4. 面向 AI 应用构建高性能、安全的多模态数据处理与数据集管理平台,参与上下游 AI 生态建设。


职位要求

1. 扎实的算法基础和良好的编码习惯,精通 C++、Java、Go、Python 中任何一门语言。

2. 在高性能数据结构、数据编码压缩、向量构建等有深入研究;熟悉异步 IO、内存管理、多线程同步等技术,有 Linux 内核研究经验更佳。

3. 理解分布式系统,包括调度、分布式锁、负载均衡等。

4. 对技术有强烈的进取心,有较强的学习能力,保持对前沿技术的关注和学习。

5. 具有良好的沟通能力和团队合作精神、优秀的问题分析和解决能力。

6. 熟悉 LLM、Prompt 设计、Agent 框架(如 LangGraph、Dify、AutoGen、Google ADK、工具链集成等)者优先。

7. 对 LoongCollector、OpenTelemetry、Fluentbit、Vector、Tetragon、Falco 源代码有深入研究者优先。


投递链接:https://careers.aliyun.com/off-campus/position-detail?lang=zh&positionId=100002203001&trace=qrcode_share


这不只是一份普通的技术工作。你写的每一行代码,都将运行在最复杂的真实场景中,影响整个阿里云的稳定性,并通过云计算辐射千行百业。你参与定义的技术路径,可能成为下一代云原生标准;你打磨的数据基座,将成为中国 AI 自动化能力的起点。我们在杭州、上海开放岗位。如果你准备好了,请加入我们,一起建造 AI 时代最重要的数据基础设施。

相关实践学习
通过轻量消息队列(原MNS)主题HTTP订阅+ARMS实现自定义数据多渠道告警
本场景将自定义告警信息同时分发至多个通知渠道的需求,例如短信、电子邮件及钉钉群组等。通过采用轻量消息队列(原 MNS)的主题模型的HTTP订阅方式,并结合应用实时监控服务提供的自定义集成能力,使得您能够以简便的配置方式实现上述多渠道同步通知的功能。
相关文章
|
12天前
|
数据采集 人工智能 安全
|
7天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:七十、小树成林,聚沙成塔:随机森林与大模型的协同进化
随机森林是一种基于决策树的集成学习算法,通过构建多棵决策树并结合它们的预测结果来提高准确性和稳定性。其核心思想包括两个随机性:Bootstrap采样(每棵树使用不同的训练子集)和特征随机选择(每棵树分裂时只考虑部分特征)。这种方法能有效处理大规模高维数据,避免过拟合,并评估特征重要性。随机森林的超参数如树的数量、最大深度等可通过网格搜索优化。该算法兼具强大预测能力和工程化优势,是机器学习中的常用基础模型。
340 164
|
6天前
|
机器学习/深度学习 自然语言处理 机器人
阿里云百炼大模型赋能|打造企业级电话智能体与智能呼叫中心完整方案
畅信达基于阿里云百炼大模型推出MVB2000V5智能呼叫中心方案,融合LLM与MRCP+WebSocket技术,实现语音识别率超95%、低延迟交互。通过电话智能体与座席助手协同,自动化处理80%咨询,降本增效显著,适配金融、电商、医疗等多行业场景。
344 155
|
7天前
|
编解码 人工智能 自然语言处理
⚽阿里云百炼通义万相 2.6 视频生成玩法手册
通义万相Wan 2.6是全球首个支持角色扮演的AI视频生成模型,可基于参考视频形象与音色生成多角色合拍、多镜头叙事的15秒长视频,实现声画同步、智能分镜,适用于影视创作、营销展示等场景。
557 4
|
15天前
|
SQL 自然语言处理 调度
Agent Skills 的一次工程实践
**本文采用 Agent Skills 实现整体智能体**,开发框架采用 AgentScope,模型使用 **qwen3-max**。Agent Skills 是 Anthropic 新推出的一种有别于mcp server的一种开发方式,用于为 AI **引入可共享的专业技能**。经验封装到**可发现、可复用的能力单元**中,每个技能以文件夹形式存在,包含特定任务的指导性说明(SKILL.md 文件)、脚本代码和资源等 。大模型可以根据需要动态加载这些技能,从而扩展自身的功能。目前不少国内外的一些框架也开始支持此种的开发方式,详细介绍如下。
1009 7