硬蛋K-系统发布会召开 揭秘全志科技AI生态成果

简介:

OFweek电子工程网讯 5月25日北京,硬蛋实验室联合全志科技举行K-系统产品发布会,来自全志科技、硬蛋科技、科技部、海尔集团、华勤、微软亚洲研究院的六位行业大咖现场发表精彩演讲。全志科技VP李智出席并在演讲中指出,全志将将与行业领导者一起,为AI产品落地提供有力支撑!

 

K-系统是什么?

K-系统是完全开放的人工智能使能平台。第三方应用和第三方智能设备可以借助这个开放平台,利用平台的语音、图像等能力提供相应服务。它强调以开放的软硬件平台、开放的智能云服务、开放的智能交互、开放的数据来解决人工智能在智能硬件中的痛点。

硬蛋K-系统发布会召开 揭秘全志科技AI生态成果

其平台特点是可提供完整的解决方案帮助缺少人工智能人才的传统企业快速转型;提供快捷完整的开发平台,缩短人工智能初创公司进入市场的时间;提供硬件模组、中间件及云服务交换机填补人工智能服务和技术落地垂直应用的间隙;提出数据安全、隐私保护及数据交换、使用、授权模型的规范和标准,保证用户交互、数据、知识及服务的互通互联。

全志能为K-系统提供怎样的支持?

李智表示:“从去年开始,全志为实现企业整体经营战略目标进行了全局化和长期化的市场营销和产品布局,敏锐地观察公司内外部的变化,深入地分析行业的发展现况,为打造具备核心竞争力的‘SoC+’平台做足准备。”

硬蛋K-系统发布会召开 揭秘全志科技AI生态成果

芯片作为人工智能的底层核心,解决了AI高密度的计算和带宽需求。在技术层面,全志在传感/交互领域做了许多工作,整合了国内外主流的语音识别、图像等算法资源,而对于AI大数据所依赖的云服务,李智透露全志与亚马逊、谷歌、微软、阿里云等都建立了紧密的合作关系。此次硬蛋发布的k-系统采用了全志的R40,R40是非常出色的智能硬件开放系统。

“我们的战略目标,就是最终通过整合这些关键IP资源,为AI产品的落地以及产业智能化升级提供一个完整的解决方案,让AI智能硬件的开发更简单、高效。”李智谈到。

如今,AI的大生态还在紧锣密鼓的推进中,而AI的小生态已经有许多量产的应用。据李智介绍,在智能家居领域,全志科技与合作伙伴打造了小鱼在家、叮咚音箱等优秀产品,完成了在语音/视觉交互相关的技术方案积累。在白电领域,全志和美的、长虹等传统大厂的合作也取得了不错的AI成果,为千家万户带来了“更懂你”的智能家电产品。

硬蛋K-系统发布会召开 揭秘全志科技AI生态成果

AI的热门应用还有很多,如机器人和车联网。去年小米发布的米家扫地机器人,采用了基于全志R系列的SLAM算法,Roobo推出的布丁系列机器人打开了儿童教育和陪伴的广阔市场。在车联网领域,基于AI的ADAS应用非常多,全志芯片在行车记录仪、智能后视镜、车载中控等产品中都有应用。

R40,全能型智能硬件开放平台

随后,李智展示了全志最具扩展性的智能硬件开放平台R40系统,R40有远场语音交互、多显示接口和音视频编解码等优势,非常适用于语音助手、机器人、定制化的安卓多媒体系统产品开发。

“R40是一颗‘全能型’的应用处理器,我们不仅有谷歌认证的标准安卓SDK,同时也提供了系统开源的TinaOS,向开发者提供免费的代码下载、技术文档与支持服务。作为全志开放平台的重要产品,R40非常适合于广泛的行业应用,以及众多的差异化细分市场,我们将对R40进行长期的支持,为可靠性做出保证。” 李智总结道。

硬蛋K-系统发布会召开 揭秘全志科技AI生态成果

R40全能型的应用特点,为AI智能硬件的创新应用生态构建提供了一致化的开放平台选择,为产品的快速量产、AI技术的应用,以及个性化的产品形态发展提供助力。借助平台化的沉淀和发展,终端厂商和广大的中小开发者能够创造更多的价值。

本文转自d1net(转载)

相关文章
|
3天前
|
机器学习/深度学习 存储 人工智能
【AI系统】昇思MindSpore并行
本文介绍昇思MindSpore的并行训练技术,包括张量重排布、自动微分等,旨在简化并行策略搜索,提高大规模模型训练效率。文章探讨了大模型带来的挑战及现有框架的局限性,详细说明了MindSpore如何通过技术创新解决这些问题,实现高效的大模型训练。
46 20
【AI系统】昇思MindSpore并行
|
3天前
|
机器学习/深度学习 人工智能 分布式计算
【AI系统】混合并行
混合并行融合了数据并行、模型并行和流水线并行,旨在高效利用计算资源,尤其适合大规模深度学习模型训练。通过将模型和数据合理分配至多个设备,混合并行不仅提升了计算效率,还优化了内存使用,使得在有限的硬件条件下也能处理超大型模型。3D混合并行(DP+PP+TP)是最先进的形式,需至少8个GPU实现。此策略通过拓扑感知3D映射最大化计算效率,减少通信开销,是当前深度学习训练框架如Deepspeed和Colossal AI的核心技术之一。
42 15
【AI系统】混合并行
|
3天前
|
存储 人工智能 PyTorch
【AI系统】张量并行
在大模型训练中,单个设备难以满足需求,模型并行技术应运而生。其中,张量并行(Tensor Parallelism, TP)将模型内部的参数和计算任务拆分到不同设备上,特别适用于大规模模型。本文介绍了张量并行的基本概念、实现方法及其在矩阵乘法、Transformer、Embedding和Cross Entropy Loss等场景中的应用,以及通过PyTorch DeviceMesh实现TP的具体步骤。
30 11
【AI系统】张量并行
|
3天前
|
存储 机器学习/深度学习 人工智能
【AI系统】完全分片数据并行 FSDP
本文深入探讨了AI框架中针对权重数据、优化器数据和梯度数据的分布式并行实现,特别是在PyTorch框架下的具体方案。文章首先回顾了通用数据并行和分布式数据并行的概念,重点讨论了同步与异步数据并行的差异。接着,文章详细介绍了如何在PyTorch中实现弹性数据并行,特别是完全分片数据并行(FSDP)的机制,包括其如何通过分片模型状态和剩余状态来减少内存消耗,提高训练效率。此外,文章还探讨了混合精度训练、损失缩放和内存消耗估算等关键技术,为理解和实施高效的分布式训练提供了全面的指导。
21 9
【AI系统】完全分片数据并行 FSDP
|
3天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】数据并行
数据并行是一种在分布式AI系统中广泛应用的技术,通过将数据集划分成多个子集并在不同计算节点上并行处理,以提高计算效率和速度。在大规模机器学习和深度学习训练中,数据并行可以显著加快模型训练速度,减少训练时间,提升模型性能。每个计算节点接收完整的模型副本,但处理不同的数据子集,从而分摊计算任务,提高处理速度和效率。数据并行按同步方式可分为同步数据并行和异步数据并行,按实现方式包括数据并行、分布式数据并行、完全分片的数据并行等。其中,分布式数据并行(DDP)是当前应用最广泛的并行算法之一,通过高效的梯度聚合和参数同步机制,确保模型一致性,适用于大型NPU集群和AI系统。
39 7
【AI系统】数据并行
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
3天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
32 5
【AI系统】计算图挑战与未来
|
3天前
|
机器学习/深度学习 存储 人工智能
【AI系统】流水并行
在大模型训练中,单个设备难以满足计算和存储需求,分布式训练成为必要。模型并行是其中关键技术之一,通过将模型计算任务拆分至不同设备上执行,提高训练效率。模型并行主要包括朴素模型并行、张量并行和流水线并行。流水线并行通过将模型的不同层分配到不同设备上,采用微批次处理,提高设备利用率。Gpipe和PipeDream是两种流行的流水线并行方案,前者通过重叠前向和反向传播提升效率,后者则通过1F1B策略实现交错执行,最大化利用计算资源。
31 15
|
3天前
|
人工智能 PyTorch 测试技术
【AI系统】并行训练基本介绍
分布式训练通过将任务分配至多个节点,显著提升模型训练效率与精度。本文聚焦PyTorch2.0中的分布式训练技术,涵盖数据并行、模型并行及混合并行等策略,以及DDP、RPC等核心组件的应用,旨在帮助开发者针对不同场景选择最合适的训练方式,实现高效的大模型训练。
31 8
|
2天前
|
人工智能 搜索推荐 安全
数百名研发人员用通义灵码,33%新增代码由AI生成,信也科技研发模式焕新升级
目前,信也科技数百名研发人员正在使用通义灵码,周活跃用户占比70%,新增代码中有33%由通义灵码编写,整体研发效率提升了11%,真正实现了数百研发人员开发效能的全面提升。