系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

简介: 全新系统从容应对百万级图片及海量SKU识别

【阅读原文】戳:系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

 

 

客户介绍

 

 

自2015年成立以来,朗镜科技(Trax 中国)致力于为零售业提供领先的计算机视觉解决方案与数据分析服务,凭借卓越的技术实力,公司已为全球90多个市场中的众多知名品牌定制了高效解决方案。

 

朗镜科技(Trax中国)深度融合前沿的计算机视觉技术、机器学习算法与物联网(IoT)技术,将传统货架场景转化为“数字化货架”,客户能够实时掌握每家门店、每个货架的最新动态,显著加速了实体零售的数字化转型。

 

借助其店内执行工具、深度数据分析服务及先进的货架监测解决方案,众多全球顶级消费品品牌与零售商不仅提升了顾客购物体验,更挖掘出覆盖各个销售渠道的增长潜力。

 

凭借多年的技术积累,朗镜科技(Trax 中国)获得了国家高新技术企业认定,并被评为北京市专精特新企业。此外,公司也是中国乳制品工业协会、中国饮料工业协会、中国连锁经营协会、上海市人工智能行业协会和胡润百富广州市全球独角兽企业家联合会的成员。合作客户领域覆盖食品、饮料、啤酒、调味料、乳制品、母婴、日化、OTC、3C、汽车等多个行业,共同推动零售行业的数字孪生探索。


 

 

 

 

业务挑战

 

 

商品图片识别量级大,客户要求高

 

面对商品图片识别的庞大需求与客户的高标准期望,朗镜科技每日需处理数以百万计的图片及海量SKU,借助先进的AI识别技术,朗镜科技能够精确且迅速地识别每一个唯一SKU,不仅满足了零售行业对于高效运营与成本控制的迫切需求,还确保了模型识别的高精度与实时性,以适应快消品市场快速迭代。

 

 

场景复杂,业务多变

 

实体零售场景的复杂多变进一步加剧了图片处理的难度。商品陈列的多样性与个性化需求,加之不同品类与客户特有的KPIs,使得图片尺寸与质量实施需精细化管理。为了显著提升用户体验,朗镜科技优化小文件处理能力,力求缩短下载延迟,实现即时响应,从而满足复杂陈列规则与商品图片高质量标准的双重需求。

 

 

成本高昂,迭代频繁

 

在快消品行业,新品迭代速度之快对朗镜科技的AI模型提出了更高要求——必须快速适应市场变化,实现高频次的模型更新。面对这一挑战,我们在确保模型高稳定性的基础上,加速迭代进程,确保与新品上市速度同步,同时严格控制存储成本,实现AI模型更新的高效与可靠。这不仅保障了业务的连续性,也进一步提升了用户体验,展现了朗镜科技在应对快消品市场快速变化中的卓越能力。

 

 

 

阿里云解决方案

 

 

高性能文件存储CPFS提升数据预处理速度

 

在图片预处理阶段,朗镜科技与阿里云携手合作,共同优化了客户端的数据写入方案。采用阿里云的高性能文件存储CPFS,利用其高吞吐、低延迟等特性,实现多机多进程并行文件写入。通过优化,小文件图片百ms以上写入延迟占比减少到5%以内,整体数据处理时间提升50%以上;同时通过OSS和CPFS双向流动能力,在确保高性能需求得到满足的同时,不仅有效地降低了存储成本,还进一步提升了整体的经济效益。

 

 

DeepGPU加速模型推理性能

 

朗镜科技面对每天数以百万的海量图片识别任务,需要满足97%以上的高精度标准,并确保95%以上复杂流程能在10秒内完成识别。为了满足高精度、低时延的推理需求,朗镜科技将上层模型算法推理能力与阿里云的DeepGPU工具包紧密结合,利用朗镜科技自研的高性能算子库,成功实现了多个计算机视觉模型的推理加速,加速比区间达到1.12至4.60倍。

 

ACK云原生AI套件持续提升GPU利用率

 

针对在文本识别、图像识别等计算密集型场景GPU算力需求大、模型更迭速度快等特点,朗镜科技携手阿里云团队,基于现有的容器化架构,共同打造了一套云原生AI产品解决方案。该方案深度融合了GPU共享调度、显存隔离、灵活的调度策略等技术,将现有GPU集群利用率整体提升了30%,显著简化了AI集群的运维复杂度并有效保障推理任务的连续性和稳定性。

 

 

 

业务价值

 

 

经过阿里云与朗镜科技技术团队长达3个月的紧密合作与联合攻坚,朗镜科技AI商品识别平台成功完成了云原生架构升级。朗镜科技通过算法优化、自定义算子升级、云管理升级以及多端写入策略的实施,与阿里云的云原生AI产品解决方案深度融合,在保持成本不变的前提下,系统性能实现了超过40%的显著提升,大幅提升了工作效率和用户满意度。这一成果充分展示了阿里云与朗镜科技技术团队在AI商品识别领域的深厚实力。




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
医疗行业的语音识别技术解析:AI多模态能力平台的应用与架构
AI多模态能力平台通过语音识别技术,实现实时转录医患对话,自动生成结构化数据,提高医疗效率。平台具备强大的环境降噪、语音分离及自然语言处理能力,支持与医院系统无缝集成,广泛应用于门诊记录、多学科会诊和急诊场景,显著提升工作效率和数据准确性。
|
3月前
|
人工智能 Cloud Native Java
新趋势、新开源、新实践|云栖大会 AI 原生应用架构专场邀您参会
新趋势、新开源、新实践|云栖大会 AI 原生应用架构专场邀您参会
206 18
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
AI人工智能大模型的架构演进
随着深度学习的发展,AI大模型(Large Language Models, LLMs)在自然语言处理、计算机视觉等领域取得了革命性的进展。本文将详细探讨AI大模型的架构演进,包括从Transformer的提出到GPT、BERT、T5等模型的历史演变,并探讨这些模型的技术细节及其在现代人工智能中的核心作用。
145 9
|
2月前
|
机器学习/深度学习 人工智能
【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
【AI大模型】BERT模型:揭秘LLM主要类别架构(上)
|
7月前
|
存储 人工智能 缓存
AI 提示词模板相关的架构设计
现在很多企业纷纷研发大语言模型以解决业务问题。提示词在与模型交互中起到关键作用。为优化提示词模板的修改、提高渲染效率及确保安全性,架构设计注重可修改性、安全性、可靠性和性能。设计包括:将提示词存储在OSS以方便修改和版本控制;使用本地缓存提升读取性能;模板引擎增强灵活性;秘钥安全存储在加密系统中;并通过配置中心动态调整。此设计旨在提供高效、安全且可靠的AI交互体验等。
717 78
AI 提示词模板相关的架构设计
|
5月前
|
人工智能 Cloud Native 开发者
开发者们,AI 原生应用架构专场 ·上海站来啦
云原生开源开发者沙龙 AI 原生应用架构专场,邀您一起交流,探索 AI 原生应用的工程化落地!
372 16
|
5月前
|
人工智能 自然语言处理 Cloud Native
阿里云 AI 原生应用架构开放日上线 CommunityOverCode Asia 2024
诚挚邀请您参加阿帕奇软件基金会亚洲大会——CommunityOverCode Asia 2024。本次活动将汇聚来自世界各地的开发者和科技爱好者,共同探索开源技术的最新进展和未来趋势。我们将在大会期间举办《阿里云 AI 原生应用架构开放日》,欢迎您来现场和我们交流。
308 14
|
6月前
|
人工智能 Cloud Native Java
从云原生视角看 AI 原生应用架构的实践
本文核心观点: • 基于大模型的 AI 原生应用将越来越多,容器和微服务为代表的云原生技术将加速渗透传统业务。 • API 是 AI 原生应用的一等公民,并引入了更多流量,催生企业新的生命力和想象空间。 • AI 原生应用对网关的需求超越了传统的路由和负载均衡功能,承载了更大的 AI 工程化使命。 • AI Infra 的一致性架构至关重要,API 网关、消息队列、可观测是 AI Infra 的重要组成。
51246 24
|
6月前
|
人工智能 容器 运维
活动回顾丨AI 原生应用架构专场·北京站 PPT 下载
5 月 24 日,飞天技术沙龙首个 AI 原生应用架构专场在北京举办。
466 15