LabVIEW将视觉生成器AI用作OPC服务器

简介: LabVIEW将视觉生成器AI用作OPC服务器

LabVIEW将视觉生成器AI用作OPC服务器


介绍如何将视觉生成器AI配置为OPC服务器,并使用共享变量共享视觉生成器AI生成的结果。OPC是一系列标准规范,定义了来自不同制造商的控制设备之间的实时数据通信。OPC数据访问通信是基于客户端服务器的通信。


共享系统变量允许开发人员与视觉生成器AI共享数据。用户可以使用共享系统变量通过OPC发布数据。


创建共享变量


1.      完成以下步骤以创建共享系统变量。


2.      选择工具»变量管理器。


3.      选择“系统变量”选项卡。


4.      单击添加。


5.      输入变量的名称,然后选择“类型”和“初始值”。


6.      启用“在网络上发布”复选框。


7.      单击“确定”。


8.      单击“确定”退出变量管理器



设置共享变量的值


使用“设置变量”步骤设置共享变量的值。“设置变量”步骤位于“使用其他工具”选项板上。完成以下步骤以设置共享变量的值。


1.      将“设置变量”步骤添加到检查。将打开该步骤的属性页。


2.      在“变量”列表中选择一个变量。


3.      使用“操作”控件可以更改共享变量的值或将共享变量的值设置为度量值。


创建要由OPC服务器共享的标记


仅当视觉生成器AI在远程目标上运行时,本节才适用。如果Vision Builder AI在Windows上运行,请继续下一部分。


如果视觉生成器AI在远程目标上运行,则必须使用Windows计算机创建标记并将其链接到共享系统变量。例如,用户可能使用用于配置远程目标的同一台计算机。Windows计算机必须满足以下要求:


l 安装视觉构建器AI或NI LabVIEW。


l 安装了分布式系统管理器2010或更高版本。


l 计算机必须在网络上保持可用,才能使用OPC客户端访问远程目标上运行的Vision Builder AI发布的数据。


完成以下步骤以创建要由OPC服务器共享的标记。


1.     启动NI分布式系统管理器。从“开始”菜单中,选择“所有程序”»“NI”»“分布式系统管理器”。


2.     展开我的系统。


3.     右键单击本地主机,然后选择添加进程。



1.     输入进程名称,例如VBAIOPC服务器。


2.     单击“确定”。VBAIOPC服务器进程列在本地主机下。


3.     右键单击“VBAIOPC服务器”,然后选择“添加变量”。




1.     启用启用别名复选框。


2.     单击浏览并展开运行检查的远程目标的IP地址。


3.     展开视觉生成器项目,然后选择要共享的变量。


4.     确保已启用“使属性与所选内容匹配?”复选框,然后单击“确定”。


5.     单击“确定”创建OPC标记并将标记链接到视觉生成器AI变量。


6.     在“名称”字段中,输入要创建的OPC标记的名称。为防止混淆,请使用所选变量的名称。


7.     创建完标记后,关闭分布式系统管理器。


当用户作为OPC服务器连接到视觉生成器AI时,用户创建的标记会列在OPC客户端中。分布式系统管理器只需要添加或删除标记。用户无需启动分布式系统管理器即可启用OPC通信。不要使用分布式系统管理器删除视觉生成器进程下列出的任何变量。


作为OPC服务器连接到视觉生成器AI


配置OPC客户端以连接到以下OPC服务器:NI Variable Engine。


使用OPC客户端查找共享变量标记:


l  在Windows上运行的Vision Builde rAI-共享变量标记列在Vision Builder文件夹中。


l  在远程目标上运行的视觉生成器AI-共享变量标记列在与用户在分布式系统管理器中创建的进程同名的文件夹中,例如VBAIOPC服务器


这是LabVIEW的一个功能介绍,更多的使用方法与开发案例,欢迎登录官网,了解更多信息。有需要LabVIEW项目合作开发,请与我们联系。

相关文章
|
26天前
|
存储 人工智能 运维
|
2月前
|
机器学习/深度学习 人工智能 算法
使用 NVIDIA TAO Toolkit 5.0 体验最新的视觉 AI 模型开发工作流程
NVIDIA TAO Toolkit 5.0 提供低代码框架,支持从新手到专家级别的用户快速开发视觉AI模型。新版本引入了开源架构、基于Transformer的预训练模型、AI辅助数据标注等功能,显著提升了模型开发效率和精度。TAO Toolkit 5.0 还支持多平台部署,包括GPU、CPU、MCU等,简化了模型训练和优化流程,适用于广泛的AI应用场景。
61 0
使用 NVIDIA TAO Toolkit 5.0 体验最新的视觉 AI 模型开发工作流程
|
25天前
|
机器学习/深度学习 人工智能 弹性计算
阿里云AI服务器价格表_GPU服务器租赁费用_AI人工智能高性能计算推理
阿里云AI服务器提供多种配置选项,包括CPU+GPU、CPU+FPGA等组合,支持高性能计算需求。本文汇总了阿里云GPU服务器的价格信息,涵盖NVIDIA A10、V100、T4、P4、P100等多款GPU卡,适用于人工智能、机器学习和深度学习等场景。详细价格表和实例规格见文内图表。
|
2月前
|
人工智能 运维 关系型数据库
携手UALink,阿里云磐久AI Infra 2.0服务器亮相2024 OCP全球峰会
阿里云服务器研发受邀和UALink联盟一起,在OCP全球峰会上重点阐述AI服务器Scale UP互连技术领域发展趋势
|
3月前
|
人工智能 运维 Cloud Native
专访阿里云:AI 时代服务器操作系统洗牌在即,生态合作重构未来
AI智算时代,服务器操作系统面临的挑战与机遇有哪些?
专访阿里云:AI 时代服务器操作系统洗牌在即,生态合作重构未来
|
3月前
|
人工智能 运维 安全
专访浪潮信息:AI 原生时代,浪潮信息引领服务器操作系统创新 全面贡献龙蜥社区
分享了关于 AI 原生化趋势下服务器操作系统进化的思考,以及浪潮信息在龙蜥社区开源贡献的思路、成果与未来技术发展规划。
专访浪潮信息:AI 原生时代,浪潮信息引领服务器操作系统创新 全面贡献龙蜥社区
|
3月前
|
人工智能 运维 Cloud Native
专访阿里云:AI 时代服务器操作系统洗牌在即,生态合作重构未来
AI智算时代,服务器操作系统面临的挑战与机遇有哪些?
|
3月前
|
人工智能 自然语言处理 Linux
Llama 3.2:开源可定制视觉模型,引领边缘AI革命
Llama 3.2 系列 11B 和 90B 视觉LLM,支持图像理解,例如文档级理解(包括图表和图形)、图像字幕以及视觉基础任务(例如基于自然语言描述在图像中精确定位对象)。
|
4月前
|
机器学习/深度学习 人工智能 弹性计算
阿里云AI服务器价格表_GPU服务器租赁费用_AI人工智能高性能计算推理
阿里云AI服务器提供多样化的选择,包括CPU+GPU、CPU+FPGA等多种配置,适用于人工智能、机器学习和深度学习等计算密集型任务。其中,GPU服务器整合高性能CPU平台,单实例可实现最高5PFLOPS的混合精度计算能力。根据不同GPU类型(如NVIDIA A10、V100、T4等)和应用场景(如AI训练、推理、科学计算等),价格从数百到数千元不等。详情及更多实例规格可见阿里云官方页面。
265 1
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
"揭秘AI绘画魔法:一键生成梦幻图像,稳定扩散模型带你开启视觉奇迹之旅!"
【8月更文挑战第21天】稳定扩散(Stable Diffusion)是基于深度学习的模型,能根据文本生成高质量图像,在AI领域备受瞩目,革新了创意产业。本文介绍稳定扩散模型原理及使用步骤:环境搭建需Python与PyTorch;获取并加载预训练模型;定义文本描述后编码成向量输入模型生成图像。此外,还可调整参数定制图像风格,或使用特定数据集进行微调。掌握这项技术将极大提升创意表现力。
59 0