2017年五大关键云趋势:容器、AI等

简介:

不可否认,云计算已经改变了大小型企业的运营模式。

一项来自思科的最新市场分析表明,未来5年内全球云IP流量将以2015年至2020年间30%的年复合增长率增长,预计增长近四倍(3.7倍)。

随着云市场的不断壮大,人们开始广泛使用云资源,2017年云市场主要呈现出以下几个趋势:

云迁移

大多数企业仍然面临一个难题,当云提供商不断更新其服务时,企业必须将服务迁移到云,不仅是小型企业正在将其服务转移到云,大型商业组织也在这样做。

来自McKinsey’sSilicon Valley集团的一份最新报告显示,云迁移将为目前排斥新技术的大型企业提供加速的机会。在2015年有近77%的公司依赖传统IT基础设施,但是报告最后提到,由于大型企业将服务迁移到基于云的基础设施,这一数字很可能在2018年下降到43%。

云安全

虽然越来越多的企业将他们的服务转移到云中,但是少数公司仍然对使用部分技术有所保留,因为安全始终是他们最为关心的问题。随着越来越多制造和医疗保健行业的组织把服务迁移到云,数据的安全性需要被优先考虑。

关于云安全如何去保障的内容一直没有达成共识,但是包括ScottChasin在内的几位IT专家认为云计算可以在未来几年提供强大的安全性。

Scott Chasin说:“人们越来越多的要求把安全视为一种最基本的功能,而云恰好具有存储选项,可扩展性和易部署性等优点,因此,它是实现安全的关键。”

容器

容器因为操作便捷、高效,而被人们广泛使用,使用率在最近几年更是迎来峰值,这种趋势折射出企业对于灵活性和降低成本这两方面越来越重视,并且这两者也是开发和部署微服务的良好手段,尤其是对基于云的应用程序。

据Canonical公司云计算部门的执行副总裁兼总经理AnandKrishnan介绍,“容器将用于部署解决现实业务问题,公司将使用其提供的安全、高效、灵活及可扩展性服务。

AI与机器学习

人工智能和机器学习是云计算行业的热点,Google、Microsoft、Amazon Web Services和IBM四大厂商已经推出了基于机器学习和人工智能的云服务。

微软拥有20种以上的认知服务,IBM在去年9月也推出了第一个基于云计算的平台ProjectDataWorks,用于人工智能决策。该平台使用机器学习和ApacheSpark自动化在IBMCloud上智能部署数据产品。此外,Google也在去年发布了一系列云计算服务。

虽然人工智能和机器学习在行业中的使用仍处于起步阶段,但它将塑造云计算平台的未来。

混合云

虽然中小企业可以将其服务转移到云,但却不可能成为大型企业认同的经济可行的解决方案。因为他们通常在内部IT基础设施上进行重大投资,将其部分业务转移到云中。

混合云解决方案让企业能够利用云计算的可扩展性,但不会将关键数据漏洞暴露给第三方。然而混合云开发过程中也会遇到一些挑战,包括集成和应用程序的不可兼容性。缺乏管理工具和通用API是公共云提供商的首要关注点,但根据Gartner研究副总裁Ed Anderson 的说法,这些热门问题也体现出云提供商潜在的一些机遇。我们知道公共云和私有云服务(各种类型)将被广泛地使用,因此,提供商必须要专注于顶级混合云挑战,来满足不断增长的混合云解决方案的需求。

结论

几年前,一些企业将自身服务迁移到云端来获得竞争优势,如今,企业使用云计算服务却成为了一种必然。为什么这样讲?因为它的灵活性、可扩展性等优势已经开始吸引各行业的消费者,包括航空、医疗、汽车等领域。在2017年,越来越多的大商业组织也将会更多的利用云服务,进一步提升云采用率。 


原文发布时间为:2017-03-30 

本文作者:安海燕

本文来自云栖社区合作伙伴“51CTO”,了解相关信息可以关注。

相关文章
|
人工智能 运维 Kubernetes
阿里云容器服务ACK AI助手正式上线带来的便利性
作为开发者想必大家都知道,云原生容器技术的优势,尤其是近两年的随着容器技术的迅猛发展,Kubernetes(K8s)已成为广泛应用于容器编排和管理的领先解决方案,但是K8s的运维复杂度一直是挑战之一。为了应对这一问题,就在最近,阿里云容器服务团队正式发布了ACK AI助手,这是一款旨在通过大模型增强智能诊断的产品,旨在帮助企业和开发者降低Kubernetes(K8s)的运维复杂度。那么本文就来详细讲讲关于这款产品,让我们结合实际案例分享一下K8s的运维经验,探讨ACK AI助手能否有效降低K8s的运维复杂度,并展望ACK AI助手正式版上线后的新功能。
880 2
阿里云容器服务ACK AI助手正式上线带来的便利性
|
10月前
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
10月前
|
人工智能 边缘计算 运维
容器化浪潮下的AI赋能:智能化运维与创新应用
近年来,容器技术以其轻量、高效、可移植的特性成为云原生时代的基石,推动应用开发和部署方式革新。随着容器化应用规模扩大,传统运维手段逐渐力不从心。AI技术的引入为容器化生态带来新活力,实现智能监控、自动化故障诊断与修复及智能资源调度,提升运维效率和可靠性。同时,AI驱动容器化创新应用,如模型训练、边缘计算和Serverless AI服务,带来更多可能性。未来,AI与容器技术的融合将更加紧密,推动更智能、高效的运维平台和丰富的创新应用场景,助力数字化转型。
|
10月前
|
人工智能 安全 API
容器化AI模型的安全防护实战:代码示例与最佳实践
本文基于前文探讨的容器化AI模型安全威胁,通过代码示例展示如何在实际项目中实现多层次的安全防护措施。以一个基于TensorFlow的图像分类模型为例,介绍了输入验证、模型加密、API认证和日志记录的具体实现方法,并结合最佳实践,如使用安全容器镜像、限制权限、网络隔离等,帮助构建更安全的AI服务。
|
10月前
|
人工智能 监控 安全
容器化AI模型的安全防护:构建可信的AI服务
在AI模型广泛应用的背景下,容器化AI模型的安全防护至关重要。主要安全威胁包括数据窃取、模型窃取、对抗样本攻击和模型后门攻击等。为应对这些威胁,需采取多层次防护措施:容器安全(如使用可信镜像、限制权限)、模型安全(如加密、水印)、数据安全(如加密、脱敏)和推理安全(如输入验证、异常检测)。此外,利用开源工具如Anchore Engine、Falco和ART等,可进一步加强防护。遵循安全开发生命周期、最小权限原则和深度防御等最佳实践,确保AI服务的安全性和可信度。
|
10月前
|
机器学习/深度学习 人工智能 Kubernetes
容器化AI模型部署实战:从训练到推理
在上一篇中,我们探讨了AI技术如何赋能容器化生态。本篇聚焦于AI模型的容器化部署,通过图像分类任务实例,详细介绍了从模型训练到推理服务的完整流程。使用PyTorch训练CNN模型,Docker打包镜像,并借助Kubernetes进行编排和部署,最终通过FastAPI提供推理服务。容器化技术极大提升了AI模型部署的便利性和管理效率,未来将成为主流趋势。
|
10月前
|
机器学习/深度学习 数据采集 人工智能
容器化机器学习流水线:构建可复用的AI工作流
本文介绍了如何构建容器化的机器学习流水线,以提高AI模型开发和部署的效率与可重复性。首先,我们探讨了机器学习流水线的概念及其优势,包括自动化任务、确保一致性、简化协作和实现CI/CD。接着,详细说明了使用Kubeflow Pipelines在Kubernetes上构建流水线的步骤,涵盖安装、定义流水线、构建组件镜像及上传运行。容器化流水线不仅提升了环境一致性和可移植性,还通过资源隔离和扩展性支持更大规模的数据处理。
|
10月前
|
人工智能 Prometheus 监控
容器化AI模型的监控与治理:确保模型持续稳定运行
在前几篇文章中,我们探讨了AI模型的容器化部署及构建容器化机器学习流水线。然而,将模型部署到生产环境只是第一步,更重要的是确保其持续稳定运行并保持性能。为此,必须关注容器化AI模型的监控与治理。 监控和治理至关重要,因为AI模型在生产环境中面临数据漂移、概念漂移、模型退化和安全风险等挑战。全面的监控涵盖模型性能、数据质量、解释性、安全性和版本管理等方面。使用Prometheus和Grafana可有效监控性能指标,而遵循模型治理最佳实践(如建立治理框架、定期评估、持续改进和加强安全)则能进一步提升模型的可信度和可靠性。总之,容器化AI模型的监控与治理是确保其长期稳定运行的关键。
|
12月前
|
人工智能 运维 Kubernetes
阿里云容器服务AI助手2.0 - 新一代容器智能运维能力
2024年11月,阿里云容器服务团队进一步深度融合现有运维可观测体系,在场景上覆盖了K8s用户的全生命周期,正式推出升级版AI助手2.0,旨在更好地为用户使用和运维K8S保驾护航。
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。