TMR 齿轮编码器可支持高达256倍细分的数字增量式输出模式

简介:

专业的隧道磁阻 (TMR) 磁传感器领先供应商江苏多维科技有限公司 (MultiDimension Technology Co., Ltd., MDT) 日前推出 TMR 齿轮编码器 TMR-GE 系列。该系列产品包括 TMR-GE04、TMR-GE05 和 TMR-GE08 齿轮编码器,分别应用于0.4、0.5和0.8模数的齿轮,每个齿轮间距内支持高达256倍细分的数字增量式输出模式,可广泛适用于伺服电机、能源和发电系统、精密仪器、自动化设备和电梯等需要对旋转位置和速度进行精准测量的多种工业应用。

江苏多维科技推出TMR齿轮编码器

多维科技董事长兼首席执行官薛松生博士表示:“MDT 的 TMR-GE04/05/08 系列是市场上的首款基于 TMR 技术的齿轮编码器产品。根据我们在 TMR 传感器技术和磁铁设计上所具备的深厚的专业知识,并配备最先进的信号处理电路,TMR-GE 系列产品以先进的 TMR 传感器技术给用户带来了新的选项,通过高灵敏度、很低的谐波失真、较大的测量气隙容差,和高速响应等突出特点弥补了市场上现有产品的局限性。MDT 在现有的诸家 TMR 传感器供应商中处于领先地位,拥有独到的 TMR 传感器专业技术、强大的专利组合,以及大规模量产设备。凭借这些独特的优势,MDT 能够满足客户对产品的性能指标和上市时间的严格要求,从而极大地提升了客户的投资回报。MDT 精心打造了一个全方位的产品系列组合,以标准封装、定制封装,或者晶圆的方式提供 TMR 传感器芯片,同时也提供包括 TMR-GE04/05/08 齿轮编码器在内的具备完整功能、即时可用的传感器模组。”

TMR-GE04/05/08 齿轮编码器的主要特点:

- 增量式 A/B/Z 数字信号输出

- 每周期的细分倍数可编程至256细分

- 高达700kHz 的响应频率

- 对测量气隙和安装位置有较大容差

MDT 是首家将 TMR 技术的优势引入商用传感器市场的批量供应商。MDT 的 TMR 磁传感器具备超低功耗、超高灵敏度、超低噪声、大动态范围和卓越的温度稳定性等性能优点,弥补了霍尔效应、AMR 和 GMR 等现有磁传感器技术的局限性。MDT 在 TMR 开关传感器、TMR 角度传感器、TMR 线性传感器,和 TMR 齿轮传感器等产品系列提供 TMR 传感器芯片,同时在 TMR 磁图像传感器和新推出的 TMR 齿轮编码器产品系列提供完整的传感器模组。

目录
相关文章
|
2月前
|
人工智能 自然语言处理 异构计算
无问芯穹提出混合稀疏注意力方案MoA,加速长文本生成,实现最高8倍吞吐率提升
无问芯穹团队提出Mixture of Attention(MoA)方案,通过自动调整不同注意力头和层的稀疏注意力配置,解决大型语言模型(LLM)处理长文本时的内存和吞吐量需求问题。MoA能够显著增加有效上下文长度,提升检索准确性和解码吞吐量,减少GPU内存使用。实验结果表明,MoA在多个模型上表现出色,但构建和探索搜索空间仍需大量计算资源。
49 14
|
3月前
|
编解码 人工智能 开发者
长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx
【10月更文挑战第23天】Oryx 是一种新型多模态架构,能够灵活处理各种分辨率的图像和视频数据。其核心创新在于能够对图像和视频进行任意分辨率编码,并通过动态压缩器模块提高处理效率。Oryx 在处理长视觉上下文(如视频)时表现出色,同时在图像、视频和3D多模态理解方面也展现了强大能力。该模型的开源性质为多模态研究社区提供了宝贵资源,但同时也面临一些挑战,如选择合适的分辨率和压缩率以及计算资源的需求。
46 3
|
4月前
|
机器学习/深度学习 人工智能 文字识别
MMMU华人团队更新Pro版!多模态基准升至史诗级难度:过滤纯文本问题、引入纯视觉问答
【10月更文挑战第12天】多模态理解是人工智能的重要研究方向,华人团队改进了现有的MMMU基准,推出MMMU-Pro,以更严格地评估模型的多模态理解和推理能力。MMMU-Pro通过过滤纯文本问题、增加候选选项和引入纯视觉问答设置,提高了评估难度。实验结果显示,模型在MMMU-Pro上的性能明显下降,但CoT推理有助于提升表现。MMMU-Pro为多模态理解提供了更严格的评估工具,但也面临一些挑战。
60 1
|
6月前
|
数据采集 人工智能 算法
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
【8月更文挑战第31天】近日,谷歌发布了一项名为多模态对比学习联合示例选择(JEST)的研究成果,旨在优化大模型预训练过程中的数据筛选。JEST通过联合选择数据批次而非独立选择示例,利用多模态对比目标揭示数据间的依赖关系,提高了学习效率。实验表明,JEST能显著加速训练并降低计算成本,最多减少13倍迭代次数和10倍计算量。这一成果有望推动大模型预训练更加高效和经济。论文详情见:https://arxiv.org/abs/2406.17711。
91 2
|
9月前
|
存储 人工智能 异构计算
清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
【2月更文挑战第22天】清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
145 1
清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
|
9月前
|
机器学习/深度学习 算法 计算机视觉
图视觉模型崛起 | MobileViG同等精度比MobileNetv2快4倍,同等速度精度高4%!
图视觉模型崛起 | MobileViG同等精度比MobileNetv2快4倍,同等速度精度高4%!
128 0
|
缓存 算法 PyTorch
比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了
比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了
423 0
|
数据采集 数据可视化 数据挖掘
使用Sentieon BWA-Meth进行WGBS甲基化分析,速度和精度双提升
在甲基化分析中,Sentieon软件可以与其他工具结合使用以提高分析速度和准确性。在这种情况下,Sentieon BWA被用来替换原始的BWA-mem,与MethyDackel结合,建立起Sentieon BWA-Meth流程。 在这个流程中,Sentieon BWA首先负责处理亚硫酸盐转化后的测序数据进行高效的序列比对。由于Sentieon BWA的优化,比对速度和准确性得到了提高,同时减少了计算资源的消耗。
580 0
使用Sentieon BWA-Meth进行WGBS甲基化分析,速度和精度双提升
|
机器学习/深度学习 存储 自然语言处理
NeurIPS 2022 | 词嵌入表示参数占比太大?MorphTE方法20倍压缩效果不减
NeurIPS 2022 | 词嵌入表示参数占比太大?MorphTE方法20倍压缩效果不减
|
存储 机器学习/深度学习 自然语言处理
最高加速9倍!字节跳动开源8比特混合精度Transformer引擎(1)
最高加速9倍!字节跳动开源8比特混合精度Transformer引擎
154 0