蚂蚁金服徐达峰:关于前端的那些事儿!

简介:

在各种新事物层出不穷的今天,IT互联网技术圈更是日新月异,技术的更新换代周期是越来越短。按说技术的更新发展是一件好事情,然而对于工程们来说,他们做的原有技术架构、技术程序会不会又要重新更改,面临重做的问题?IT工程师们是怎样看待技术的更新换代呢?带着这样的疑问,51CTO记者在APMCon2016的大会现场专访了蚂蚁金服的高级前端工程师徐达峰,下面我们就来听听他告诉我们的关于工程师们的那些事儿,关于前端的那些事儿!

徐达峰,蚂蚁金服高级前端工程师。曾就职于天猫,现在主要负责蚂蚁国际业务的开发和测试工具链的开发工作。

首先,徐达峰明确表示了他对前端技术不断更新换代的看法。他认为,我们应该以一个开放的心态来看待Web的不断演进,不能有“新的技术、架构一定是最好的”这样的想法,而要根据业务的具体需求来做抉择,看它是不是能最优地解决业务上的问题。如果它合适,并且比原来的方式好,我们又有合适的机遇改进我们的技术架构,对于工程化有很大裨益,那么我们就可以采用新的最优的技术架构,但是并不是说一个新的东西来了,我们就一定会摒弃掉原来的架构,工程师的职责是依靠专业技能解决问题而不是追新。

达峰长期从事测试方案研发的相关工作,那么我们的问题来了,蚂蚁金服目前采用什么样的前端测试方案呢?相信这也是很多人都好奇的问题。

徐达峰告诉我们,蚂蚁金服在今年3月份的时候,他们团队开源了一套自动化测试的解决方案Macaca,是支持传统的PC端、iOS、Android多平台的自动化的技术解决方案。它不仅能完成HTML5、混合应用,还可以支持Native端上产品和框架上的测试。

据悉,Macaca架构从底层驱动模块到工具层,以及配合使用的CI系统,都是蚂蚁金服团队自主研发的。用户在使用过程中,不需要关心设备上的配置差异性,它会帮忙找寻找可用端口,自动帮忙连接设备。不管是在PC端、Android还是iOS上的体验是一样的。目前在解决三端问题上,能够同时解决所有的问题理念和架构的产品中,Macaca架构在市场上应该是全新的。

另外,徐达峰告诉记者,社区是非常重要的,目前团队正在积极建设和完善国内社区

谈到当下比较火的H5时,H5是前端主要技术的领域,目前的应用很多都是混合式应用,在浏览器里面,通过扩展浏览器的微内核,对于紧随市场产品变化比较快的,发布要求比较频繁的,会用HTML5的方式来做。而Native端最大的优势,原生的体验比较好。Web和ative并没有说谁要比谁好,他们都是在解决各自最适合解决的问题。从去年看,各大中型或者小团队,也在ReactNative上面做尝试,把他们的应用很多模块Native化渲染,我们可以看到Web和Native的融合在不断的自我突破。

如何成为一名优秀的前端工程师?

最后,徐达峰给我们分享了他认为作为一名优秀的前端工程师所需要具备的因素,主要有以下三点:

一、技术驱动业务。作为工程师,是用技术解决工程和业务上的问题,而且技术是可以驱动业务的,我们的技术应该深度结合在业务上面,为业务创造价值。蚂蚁金服国际事业部目前正处在业务高速增长期,有兴趣加入的欢迎联系我。

二、帮助他人。给予新人或者还不熟悉的人更多的帮助,在帮助别人的时候,对自己也是一个提升。

三、分享与总结。分享其实就是对学习更进一步的深化,如果将一些知识拿出来分享的话,说明你对它一定特别的熟悉和了解。

除了需要具备以上因素外,他还认为技术人员需要有自主学习能力。首先,可以主动利用检索工具,通过互联网学习解决所遇到的问题,把当前的问题梳理起来,把遗留的问题整理起来,形成自己的知识体系;其次可以多去一些开放的社区,在社区和同行们进行技术沟通与交流。

本文作者:谭盼雨

来源:51CTO

相关文章
|
前端开发
《蚂蚁金服玉伯:我们是如何从前端技术进化到体验科技的?》电子版地址
蚂蚁金服玉伯:我们是如何从前端技术进化到体验科技的?
153 0
《蚂蚁金服玉伯:我们是如何从前端技术进化到体验科技的?》电子版地址
|
前端开发 JavaScript Java
干货分享:蚂蚁金服前端框架和工程化实践
蚂蚁金服高级技术专家陈成《蚂蚁金服前端框架和工程化实践》的演讲摘要。
839735 0
|
前端开发 数据可视化 物联网
观点|蚂蚁金服玉伯:我们是如何从前端技术进化到体验科技的?
小蚂蚁说: 王保平,花名玉伯。熟悉前端和SeaJS的人一定对这个名字不陌生。作为前端领域的一枚大大大牛,他现在担任蚂蚁金服体验技术部负责人。本文,他分享了他从前端一路进阶升级到体验科技的个人思考,并详细介绍了体验科技的历史及未来发展,以及本次体验科技开放的愿景。
10552 0
|
机器学习/深度学习 算法 前端开发
|
2月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
162 2
|
2月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
45 0
|
2月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
2月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
2月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
114 1