英特尔研发神经元AI处理器,模仿大脑功能,无需训练数据集

简介:
本文来自AI新媒体量子位(QbitAI)

0d2ecf44c7c3bfbf956aed1e5f23cfcbc005e50e

刚刚,黄仁勋在北京跑步上台演讲,庄严宣布:CPU的时代结束了。

好巧,英特尔说:不单CPU不行了,GPU也不行了。

这位CPU霸主表示,随着高度动态和非结构既然数据的相关需求逐渐增加,未来计算的需求将超越经典的CPU和GPU体系结构。

那怎么办?

英特尔这么说,肯定有办法。英特尔实验室今天宣布,正在研发出代号“Loihi”的自学习神经元芯片,模仿了大脑的功能,能从环境反馈中直接学习。

所谓自学习、模仿大脑,意思是Loihi内部由128个计算核心组成,每个核心有1024个“神经元”,总计超过13万个神经元和1.3亿个突触链接,和大脑的神经元一样,它们可以调整相互之间的联系,以适应新的任务。

从神经元数量上讲,Loihi比龙虾的大脑还要复杂一点。不过与人脑相比还相去甚远,人脑由超过800亿个神经元组成。

Loihi不需要通过传统的方式进行训练,而且会随着时间的增加变得越来越智能,而且功耗极低,这款处理器使用异步脉冲方式进行计算。

“大脑内部的沟通没有想象中的频繁”,英特尔实验室资深首席工程师兼首席科学家Narayan Srinivasa表示:“这款芯片只有脉冲出现时才消耗能量”。

90ceda711d376e4c5485e239c381fb9ec23a9891

下面是英特尔对Loihi芯片的详细说明。

Loihi简介

Loihi芯片包含模拟大脑基本机制的数字电路,使机器学习更快、更高效,同时降低对计算资源的需求。

神经形态芯片模型的灵感来自于神经元通信和学习的方式,利用了可根据时间调节的脉冲和塑料触突。基于模式和关联,这将帮助计算机实现自组织,做出决策。

Loihi芯片提供了非常灵活的片上学习能力,将训练和推理整合至同一块芯片上。这帮助机器实现自动化,实时调整,而无需等待来自云计算平台的下一次信息更新。

研究人员已证明,与其他典型的脉冲神经网络相比,在解决MNIST数字识别问题时,以实现一定准确率所需要的总操作数来看,Loihi芯片学习速度提高了100万倍。

与卷积神经网络和深度学习神经网络相比,Loihi芯片在同样的任务中需要更少的资源。

在优化汽车和工业应用,以及个人机器人方面,这款测试芯片的自学能力带来了巨大潜力,例如识别汽车或自行车的运动。在非结构化环境中,这些应用可以受益于自动化操作和持续学习。

此外,与通常用于训练人工智能系统的芯片相比,Loihi芯片的能效提升了1000倍。

参数

  • 全异步神经形态多核心网络,支持多种稀疏、分层和循环神经网络拓扑结构。每个神经元可以与成千上万个其他神经元通信。
  • 每个神经形态核心都包含一个学习引擎,在操作中可以通过编程去适配网络参数,支持监督学习、无监督学习、强化学习和其他学习范式。
  • 芯片的制造采用了英特尔14纳米工艺。
  • 总共提供了13万个神经元和1.3亿个触突。
  • 对于多种算法的开发和测试,实现了极高的算法效率。这些算法包括路径规划、约束满足、稀疏编码、字典学习,以及动态模式学习和适配。

f38b05cbd2feaee7644b6038e4908493a8c70b28

下一步

英特尔表示,在计算机和算法创新的推动下,人工智能的变革性力量预计将给社会带来重大影响。这家芯片巨头正通过多种产品,解决从网络边缘到数据中心和云计算平台,人工智能计算任务的独特需求。

随着人工智能计算任务越来越多多样化,越来越复杂,研究者将关注当前主流计算架构的局限性,提出新的颠覆性方法。展望未来,英特尔认为,神经形态计算带来了一种方式,以类似大脑的结构提供超大规模的计算性能。

但英特尔不是第一家使用神经科学指导芯片设计的公司。

IBM已经构建了两代神经形态处理器,称为TrueNorth,这个芯片同样基于脉冲神经元模式。TrueNorth芯片包括4096个核心和540万个晶体管,功耗70毫瓦,模拟了一百万个神经元和2.56亿个突触,这个数字在Loihi之上。

TrueNorth相当于一个蜜蜂的大脑。

不过与英特尔的芯片不同,TrueNorth芯片无法基于输入数据进行学习。IBM的研究得到了DARPA的资助,并且与两家实验室合作,但目前也没有商业可用性的进展。

不少AI专家对神经元芯片心存疑虑。IBM在2014年发表TrueNorth的第一篇论文时,Yann LeCun就曾指出,这类芯片很难运行卷积神经网络进行图像识别计算。Srinivasa也证实Loihi在某些深度学习模型上表现不佳。

无论英特尔神经元芯片最终结果如何,这都显示出英特尔已经意识到CPU不是唯一。随着AI的重要性日益增加,英特尔正不断拥抱其他芯片。2015年,英特尔亿167亿美元收购FPGA厂商Altera。去年,英特尔4亿美元收购AI芯片商Nervana。

至于Loihi,2018年上半年,英特尔将与部分大学和研究机构分享Loihi测试芯片。


最后,专门提一个人

2a94cec30c41bb18651189c3b8834e6533660441

加州理工的Carver Mead教授,现年已经83岁。他是现代微电子学的先驱,为半导体、数字芯片和硅编译器的开发和设计做出贡献,这些技术构成现代大规模集成芯片设计的基础。

上个世纪80年代以来,Mead专注于人类神经和生物学的电子建模,创造了神经电子系统。英特尔Loihi芯片也是建立在这一研究的基础之上。

本文作者:陈桦 问耕
原文发布时间:2017-09-26 
相关文章
|
20天前
|
人工智能 自然语言处理 算法
企业内训|AI/大模型/智能体的测评/评估技术-某电信运营商互联网研发中心
本课程是TsingtaoAI专为某电信运营商的互联网研发中心的AI算法工程师设计,已于近日在广州对客户团队完成交付。课程聚焦AI算法工程师在AI、大模型和智能体的测评/评估技术中的关键能力建设,深入探讨如何基于当前先进的AI、大模型与智能体技术,构建符合实际场景需求的科学测评体系。课程内容涵盖大模型及智能体的基础理论、测评集构建、评分标准、自动化与人工测评方法,以及特定垂直场景下的测评实战等方面。
74 4
|
4天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
12 0
|
2月前
|
Python 机器学习/深度学习 人工智能
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
【10月更文挑战第1天】本文通过构建一个简单的强化学习环境,演示了如何创建和训练智能体以完成特定任务。我们使用Python、OpenAI Gym和PyTorch搭建了一个基础的智能体,使其学会在CartPole-v1环境中保持杆子不倒。文中详细介绍了环境设置、神经网络构建及训练过程。此实战案例有助于理解智能体的工作原理及基本训练方法,为更复杂应用奠定基础。首先需安装必要库: ```bash pip install gym torch ``` 接着定义环境并与之交互,实现智能体的训练。通过多个回合的试错学习,智能体逐步优化其策略。这一过程虽从基础做起,但为后续研究提供了良好起点。
147 4
手把手教你从零开始构建并训练你的第一个强化学习智能体:深入浅出Agent项目实战,带你体验编程与AI结合的乐趣
|
2月前
|
人工智能 自动驾驶 搜索推荐
【通义】AI视界|苹果AI本周正式上线,将引入四大功能
本文由【通义】自动生成,涵盖苹果AI上线、特斯拉被华尔街重新评估、谷歌开发控制计算机的AI、Meta与路透社合作及Waymo获56亿美元融资等科技动态。点击链接或扫描二维码获取更多信息。
|
2月前
|
机器学习/深度学习 人工智能 算法
介绍一下AI在药物研发中的应用。
【10月更文挑战第16天】介绍一下AI在药物研发中的应用。
68 0
|
24天前
|
人工智能 自然语言处理 测试技术
通义千问AI来提高研发效率
【10月更文挑战第21天】
|
2月前
|
机器学习/深度学习 人工智能 算法
Nature子刊:AI模型测大脑年龄,究竟哪些因素会加速大脑衰老?
【10月更文挑战第7天】《自然医学》杂志近期发布了一项研究,介绍了一种名为BrainAge的人工智能模型,该模型可预测个体的大脑年龄并分析影响大脑衰老的因素。研究团队来自美国加州大学旧金山分校,利用英国生物银行的近50,000名参与者的数据,发现高血压、糖尿病、肥胖、吸烟、饮酒、缺乏运动及遗传因素均与大脑衰老有关。尽管存在数据集限制等局限性,BrainAge模型仍为研究大脑衰老和相关疾病提供了重要工具。
51 1
|
2月前
|
人工智能 IDE 开发工具
给IntelliJ IDEA添加AI功能
这篇文章讲解了如何在IntelliJ IDEA中安装和使用阿里云开发的通义灵码插件,以增强IDE的人工智能辅助编程功能。
403 0
给IntelliJ IDEA添加AI功能
|
2月前
|
机器学习/深度学习 人工智能 算法
AI在药物研发中还有哪些应用场景呢
【10月更文挑战第16天】AI在药物研发中还有哪些应用场景呢
314 0