AIT A6120 2A 低消耗线性稳压器

简介: AIT A6120 2A 低消耗线性稳压器

A6120 是一系列低功耗、低压差稳压器,在 2A 负载电流下的典型压差为 1.0V。

A6120 可提供 1.2V~5.0V 的输出值,步进为 0.1V。它还可以根据指令进行定制。

除每个电压版本外,A6120 还可用作可调电压版本,通过设置应用电路的两个外部电阻值,即可获得所需的电压。

A6120 具有良好的负载瞬态响应和温度特性,并采用微调技术保证输出电压精度在±2%以内。

A6120 采用 SOT-223 和 TO-252 封装。

特点

 低功耗:3.0uA(典型值)

 最大输出电流:2A

 最大输入电压:18V

 线路调节: 0.2%(典型值)

 输出电压范围:1.2V~5.0V(根据指令定制,步进为 0.1V)

 高精确度:±2%(±1% 可定制)

 典型压差电压:850mV@1.5A(VOUT=3.3V)

 工作环境温度:-40°C~85°C

 采用 SOT-223 和 TO-252 封装

应用

 电池充电器

 电池供电设备

 开关电源后置稳压器

 开关电源后基准电压源稳压器

详细信息
A6120 是一系列低压差、低功耗稳压器。其应用电路只需最少的外部元件。
固定电压和可调电压应用电路都需要输入和输出电容器,以确保输出电压的稳定性。

只需在应用电路中为两个外部电阻器分配适当的值,即可实现从固定电压到 18V 的任意所需输出电压(如图 2 所示,R1、R2 为两个外部电阻器)。

A6120 采用微调技术,确保输出值的精度在 ±2% 以内,同时该芯片还精心考虑了温度补偿,使 A6120 的温度系数在 100ppm/℃ 以内。

相关文章
|
14天前
|
机器学习/深度学习 PyTorch 测试技术
TurboAttention:基于多项式近似和渐进式量化的高效注意力机制优化方案,降低LLM计算成本70%
**TurboAttention**提出了一种全新的LLM信息处理方法。该方法通过一系列优化手段替代了传统的二次复杂度注意力机制,包括稀疏多项式软最大值近似和高效量化技术。
50 5
TurboAttention:基于多项式近似和渐进式量化的高效注意力机制优化方案,降低LLM计算成本70%
路径损耗计算模型 | 带你读《大规模天线波束赋形技术原理与设计 》之二十五
本小节介绍 3D 信道的路损模型,是以 ITU 信道为基础拓展得到的。
12722 0
路径损耗计算模型  | 带你读《大规模天线波束赋形技术原理与设计 》之二十五
|
8天前
|
机器学习/深度学习 存储
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
大型语言模型虽在各领域表现出色,但其核心的softmax注意力机制存在显著的计算资源消耗问题。本文探讨通过线性时间复杂度的替代方案突破这一瓶颈,介绍线性注意力机制、门控线性注意力及状态空间模型(SSM)等创新方法,旨在优化计算效率与内存容量之间的权衡,提升模型性能。
27 9
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
|
8月前
|
机器学习/深度学习 人工智能 算法
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
【5月更文挑战第23天】Meta和哈佛的研究发现Flash Attention,一种用于加速Transformer模型的优化技术,可能导致数值偏差,影响模型权重稳定性。实验显示Flash Attention在BF16精度下的偏差是基线的10倍,权重偏差是低精度训练的2-5倍。虽然能提升效率,但其引入的不稳定性对训练过程构成挑战。该研究提出新方法评估数值偏差对训练稳定性的影响,为未来优化技术的研究提供了方向。[论文链接:https://arxiv.org/pdf/2405.02803]
113 2
|
8月前
|
数据可视化 测试技术
R语言线性混合效应模型(固定效应&随机效应)和交互可视化3案例
R语言线性混合效应模型(固定效应&随机效应)和交互可视化3案例
|
8月前
|
机器学习/深度学习 编解码 计算机视觉
【OctaveConv】下降一个八度:用八度卷积减少卷积神经网络中的空间冗余
【OctaveConv】下降一个八度:用八度卷积减少卷积神经网络中的空间冗余
182 0
【OctaveConv】下降一个八度:用八度卷积减少卷积神经网络中的空间冗余
带你读《5G大规模天线增强技术》——2.4.3 LOS概率计算
带你读《5G大规模天线增强技术》——2.4.3 LOS概率计算
|
机器学习/深度学习 编解码 算法
引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力
引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力
127 0
|
机器学习/深度学习 算法 语音技术
自适应线性单元|学习笔记
快速学习自适应线性单元
自适应线性单元|学习笔记
|
机器学习/深度学习 算法 语音技术
自适应线性单元| 学习笔记
快速学习自适应线性单元。
自适应线性单元| 学习笔记