GPU云服务器

首页 标签 GPU云服务器
# GPU云服务器 #
关注
8001内容
| |
来自: 云原生
基于阿里云容器服务监控 Kubernetes集群GPU指标
### 简介 当您在阿里云容器服务中使用GPU ECS主机构建Kubernetes集群进行AI训练时,经常需要知道每个Pod使用的GPU的使用情况,比如每块显存使用情况、GPU利用率,GPU卡温度等监控信息,本文介绍如何快速在阿里云上构建基于Prometheus + Grafana的GPU监控方案。
手把手教你如何部署深度学习模型
本文将讲解如何部署深度学习模型,让你不再对如何快速地将机器学习模型部署到生产中感到困扰
阿里第一颗芯片问世,平头哥发布最强AI芯片含光800
阿里巴巴第一颗自研芯片正式问世。9月25日的杭州云栖大会上,达摩院院长张建锋现场展示了这款全球最强的AI芯片——含光800。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。
H.265/HEVC视频编码:FPGA GPU QSV实现对比
相对于H.264,H.265有更好的压缩率和画质,更适应高分辨率视频流的压缩处理。随着视频素材分辨率、帧率的不断增加,如何高效、灵活、高质量、低成本地去实现H.265编码成为研究的热点。
阿里开源!轻量级深度学习端侧推理引擎 MNN
阿里妹导读:近日,阿里正式开源轻量级深度学习端侧推理引擎“MNN”。 AI科学家贾扬清如此评价道:“与 Tensorflow、Caffe2 等同时覆盖训练和推理的通用框架相比,MNN 更注重在推理时的加速和优化,解决在模型部署的阶段的效率问题,从而在移动端更高效地实现模型背后的业务。
浅析GPU通信技术(下)-GPUDirect RDMA
目录 浅析GPU通信技术(上)-GPUDirect P2P 浅析GPU通信技术(中)-NVLink 浅析GPU通信技术(下)-GPUDirect RDMA 1. 背景         前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
【合集】规模化落地云原生,阿里云亮相 KubeCon China(内含 KubeCon PPT )
相关文章一览 沉淀九年,一文看清阿里云原生大事件什么是 KubeCon? CNCF(Cloud Native Computing Foundation),即云原生计算基金会。CNCF 于 2015 年 7 月成立,隶属于Linux 基金会,旨在联合合作伙伴和开源社区推动云原生技术发展,如 Kubernetes、容器及微服务等。
浅析GPU通信技术(中)-NVLink
1.  背景 上一篇文章《浅析GPU通信技术(上)-GPUDirect P2P》中我们提到通过GPUDirect P2P技术可以大大提升GPU服务器单机的GPU通信性能,但是受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。
免费试用