声控门的工作原理与人工智能AI

简介: 声控门的工作原理与人工智能AI

声音采集(录音),重新采样生成标准波形声音格式的wav文件,把时间能量图转换成频谱图,按照卷积网络模型 —LeNet通过TensorFlow进行训练,实施,部署,进行图像识别与比对。

采用app和服务进行交互进行权限控制。采用声音采集和控制盒进行声音采集,让后由这个盒子把采集的声音文件发送到服务器,服务器处理完毕下发消息给这个盒子,它通过自身的电池继电器进行开门操作。图像对比可以使用开源的open cv库,app使用TensorFlow Lit。说几个字采样次数1000个足够了。

现在实现的产品是声控灯,说三声开灯或关灯就可以开开关房间的灯,这个控制的代码在电脑或手机的一个打开网页上(相当与一个简单服务器)。这样做的好处是方便,缺点是无法权限控制,无法做到有的人能开门,其它人不能开门。

这个网页是javascript写的,集成在goole chrome浏览器的网页中。频谱图像对比是他们自己写的一个图像对比控件。

声音的时间能量图不能识别一个人说话的特征,每个人说话的频率都不相同,特别是每个人说相同的开门,语速停顿都有自己的特点。

从实际实践上证明,时间能量图确实不能识别出是谁说的话,但是频谱图可以识别出具体人的开门声音。

可以使用声纹来识别出是谁说的开门。

声纹识别,生物识别技术的一种,也称为说话人识别,有两类,即说话人辨认和说话人确认。不同的任务和应用会使用不同的声纹识别技术,如缩小刑侦范围时可能需要辨认技术,而银行交易时则需要确认技术。声纹识别就是把声信号转换成电信号,再用计算机进行识别。

时间能量图

频谱图

卷积网络模型 —LeNet。声控灯的训练次数是三次。

已经实现,一个灯有一个控制盒子,能实现一次控制一个房间的所有灯。只是它没有对不同人进行选择控制灯。

概念模型未具体实现,就是把网页服务器换成了app,并增加后台服务器。数据通信可以通过局域网或4g网络也可以通过蓝牙。

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能包括四个过程:算法建模、训练、实施及部署。大部分AI开发大都不是框架的设计者,而是框架的使用者或改进者。

特朗普政府表态 必须保住美国在人工智能领域的优势。

人工智能是什么:就是想电影中终结者,像阿尔法狗这类的具有一定的和人类智慧同样本质的一类智能的物体。

人工智能和机器学习的关系:机器学习是实现人工智能的方法。

机器学习和深度学习的关系:深度学习是机器学习算法中的一种算法,一种实现机器学习的技术和学习方法。

人工智能(AI)、机器学习(ML)、深度学习(DL)之间的关系。

我觉得机器学习有一个显著的特点,也是最机器学习最基本的做法,就是使用一个算法从大量的数据中解析并得到有用的信息,并从中学习,然后对之后真实世界中会发生的事情进行预测或作出判断。

机器学习需要海量的数据来进行训练,并从这些数据中得到要用的信息,然后反馈到真实世界的用户中。我们传统的软件开发都是为了实现自动化,被称为算法工程师。

TensorFlow是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief 。

Tensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于谷歌内部的产品开发和各领域的科学研究 。

TensorFlow由谷歌人工智能团队谷歌大脑(Google Brain)开发和维护,拥有包括TensorFlow Hub、TensorFlow Lit使用e、TensorFlow Research Cloud在内的多个项目以及各类应用程序接口(Application Programming Interface, API)。

自2015年11月9日起,TensorFlow依据阿帕奇授权协议(Apache 2.0 open source license)开放源代码 。TensorFlow是一个单机版的库,它不支持分布式系统,阿里巴巴把它进行改进,让它可以

可以在分布式系统上运行,由于进行大数据的训练,服务器之间进行万兆以上的数据传输,就是现在的5g技术都不能完全解决,需要6g技术才能实现这么大的数据交互,还好这些数据交换可以进行局域控制。

今天人工智能取得的成就很大程度上要归功于2010年“深度学习”技术取得的历史性突破,但由于大部分学术界人才还在学校或者科研院所中,所以真正能够投入业界的人才非常少。这也是造成目前人工智能人才如此稀缺的原因之一。

在未来10年内,50%以上的人类工作将被取代,而人工智能的应用,更将在互联网、金融、医疗等领域率先实现商业化落地,取得极大的发展。

与美国相比,中国的AI技术人才在地域分布上高度集中,67.8%的人分布在北京、上海两地,两者旗鼓相当,深圳、广州则分别聚集了10%和5%的AI人才。相比之下,美国的AI人才东西海岸与南部各州分布均匀。旧金山湾区与纽约呈领先之势。


中国的本土科技及透正在不断提升对AI人才的吸引力,AI领域TOP10雇主中,本土企业占据半壁江山,前三位分别是华为、百度和阿里巴巴。

对比中美AI领域TOP10雇主我们发现,美国有两家金融机构(美国银行、美国富国银行)上榜,这说明在美国Fin-Tech已经成为趋势并形成规模。相比之下,中国的Fin-Tech浪潮尚未到来。

现在有实力的公司已经开始使用人工智能,像阿里的商品搜索,银行的远程开户。

人工智能将引起工业4.0的兴起。工业1.0:18世纪末期始于英国的第一次工业革命,19世纪中叶结束。这次工业革命的结果是机械生产代替了手工劳动,经济社会从以农业、手工业为基础转型到了以工业以及机械制造带动经济发展的模式。

工业2.0:第二次工业领域大变革发生在19世纪后期,形成生产线生产的方式。工业1.0和工业2.0这两次工业革命中,机械化替代传统手工作业,曾经造成大规模的“农民失业”。

工业3.0:第三次工业革命始于第二次工业革命过程中发生的生产过程的高度自动化。始于20世纪60年代并一直延续到现在,随着电子与信息技术的广泛应用,使得制造过程不断实现自动化。自此,机械能够逐步替代人类作业,也造成了一定程度的“工人失业”。

工业4.0:未来几十年,第四次工业革命将步入“智能化”生产的新时代。“工业4.0”通过决定生产制造过程等的网络技术,实现智能制造,进行实时管理。智能制造中的生产设备具有感知、分析、决策、控制等功能,是先进制造技术、信息技术的集成和深度融合。智能生产过程中,传感器、智能诊断和管理系统通过网络互联,使得由程序控制上升到智能控制,从而制造工艺能够根据制造环境和制造过程的变化,进行实时优化,提升产品的质量和生产效率。由此而来的“智能”会否引发第三波失业潮,造成“脑力劳动者失业”呢?

机器学习和深度学习是一个很复杂的过程,这个技术积累,建模,机器学习(人工智能专用语叫训练)的速度。现在一个机器人想让它学习一个新的操作流程需要几个月,显然以后这种大数据和长时间的学习随着人工智能的发展会不断优化和减少。但是这个改进的过程不可能是只几年就能实现的。


目录
相关文章
|
1月前
|
人工智能 前端开发 编译器
【AI系统】LLVM 架构设计和原理
本文介绍了LLVM的诞生背景及其与GCC的区别,重点阐述了LLVM的架构特点,包括其组件独立性、中间表示(IR)的优势及整体架构。通过Clang+LLVM的实际编译案例,展示了从C代码到可执行文件的全过程,突显了LLVM在编译器领域的创新与优势。
62 3
|
6天前
|
人工智能 自动驾驶 机器人
AI元年:2024年人工智能发展大事纪
3分钟了解2024年人工智能AI领域都发生了哪些改变我们生活和生产方式的大事儿。
71 2
AI元年:2024年人工智能发展大事纪
|
6天前
|
人工智能 自然语言处理 算法
打破AI信息差:2024年20款好用的人工智能工具大盘点
本文带你了解20款值得一试的AI工具,帮助你在内容创作、图像设计、音频视频编辑等领域提高效率、激发创意。
56 1
打破AI信息差:2024年20款好用的人工智能工具大盘点
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与情感计算:AI如何理解人类情感
人工智能与情感计算:AI如何理解人类情感
37 20
|
10天前
|
人工智能 安全 搜索推荐
新手指南:人工智能poe ai 怎么用?国内使用poe记住这个方法就够了!
由于国内网络限制,许多用户在尝试访问Poe AI时面临障碍。幸运的是,现在国内用户也能轻松畅玩Poe AI,告别繁琐的设置,直接开启AI创作之旅!🎉
60 13
|
28天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI系统】知识蒸馏原理
本文深入解析知识蒸馏(Knowledge Distillation, KD),一种将大型教师模型的知识高效转移至小型学生模型的技术,旨在减少模型复杂度和计算开销,同时保持高性能。文章涵盖知识蒸馏的基本原理、不同类型的知识(如响应、特征、关系知识)、蒸馏方式(离线、在线、自蒸馏)及Hinton的经典算法,为读者提供全面的理解。
61 2
【AI系统】知识蒸馏原理
|
1月前
|
存储 人工智能 JavaScript
【AI系统】公共表达式消除原理
公共子表达式消除(CSE)是编译器优化技术,旨在通过识别并消除重复计算的表达式,减少计算量,提升程序执行效率。CSE分为局部和全局两种,局部CSE仅在单个基本块内操作,而全局CSE跨越多个基本块。技术手段包括局部值编号和缓式代码移动等,广泛应用于传统编译器及AI编译器中,有效简化计算图,降低计算成本。
45 4
|
1月前
|
存储 人工智能 缓存
【AI系统】布局转换原理与算法
数据布局转换技术通过优化内存中数据的排布,提升程序执行效率,特别是对于缓存性能的影响显著。本文介绍了数据在内存中的排布方式,包括内存对齐、大小端存储等概念,并详细探讨了张量数据在内存中的排布,如行优先与列优先排布,以及在深度学习中常见的NCHW与NHWC两种数据布局方式。这些布局方式的选择直接影响到程序的性能,尤其是在GPU和CPU上的表现。此外,还讨论了连续与非连续张量的概念及其对性能的影响。
56 3
|
1月前
|
机器学习/深度学习 人工智能 编译器
【AI系统】Auto-Tuning 原理
本文探讨了在多样化硬件平台上部署深度神经网络(DNN)时,传统算子库面临的挑战及解决方案。随着硬件平台的多样化和快速迭代,手动编写高性能算子库变得日益困难。文中介绍了基于TVM的三种自动调优系统——AutoTVM、Ansor和Meta Scheduler,它们通过自动生成高性能算子,有效解决了传统方法的局限性,提高了DNN在不同硬件平台上的执行效率。
28 1