| 导语
Apache Spark社区最大的技术峰会,SPARK + AI 峰会(SAIC),于4月23-25日,在美国旧金山落下帷幕。
数据与人工智能需要结合:最佳的人工智能应用,需要有大量大规模持续更新的训练数据,方能构建其最佳的数据模型,时至今日,Apache Spark已成为独特的一体化数据分析引擎,它集成了大规模数据处理和领先的机器学习与人工智能算法。
本次SAIC含盖了数据工程与数据科学的内容,包括AI产品化的最佳实践案例分享:超大数据规模下,利用流数据处理确保训练数据更新的时效性,完成数据质量监控,测试以及数据模型服务。也有对流行的软件框架如TensorFlow,SciKit-Learn,Keras,PyTorch,DeepLearning4J,BigDL以及Deep Learning Pipelines等,分别进行深入的主题分享探讨。
除了Spark + AI主题外,本次峰会,为开发者,数据科学家以及探寻最佳数据与人工智能工具来构架创新型产品的技术实践者们,提供了一站式交流的独特体验,超过了5000名来自世界各地的工程师,数据科学家,人工智能专家,研究学者以及商务人士,加入到了这3天的深度交流与学习中。
| SAIC主题分享包括了如下内容:
- Apache Spark的下一步计划
- 机器学习产品化的最佳实践
- 用MLflow来管理机器学习生命周期
- 最新的机器学习与深度学习框架进展
- 数据与人工智能一体化数据分析平台
- 人工智能应用实践案例分享
- Apache Spark的应用案例分享
- 结构化与持续流数据处理应用
| 分论坛也提供为来自不同技术背景人士提供了多样化的议题选择:
- 人工智能
- 数据科学
- 深度学习技术
- 机器学习产品
- 开发者
- 企业专场
- Python与高级数据分析
- 前沿学术研究
- 技术实现深入探讨
- Apache Spark应用与生态
| PPT下载地址
https://www.slidestalk.com/x/3623/saic_2019_na
原文链接
https://mp.weixin.qq.com/s/CSTqXHCpJPvlkVAeaY1mIw