异构计算

首页 标签 异构计算
# 异构计算 #
关注
18610内容
代码性能优化:解锁应用潜能的关键策略
【10月更文挑战第20天】代码性能优化:解锁应用潜能的关键策略
|
15天前
|
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
|
15天前
| |
来自: 弹性计算
2024阿里云双11金秋云创季活动相关内容简介:云上盛惠,助力企业数字化转型
在这个金秋时节,阿里云迎来了盛大的2024年双11金秋云创季活动,为企业和个人用户带来了一场前所未有的云上盛惠。从新迁入云的5亿算力补贴,到AI 算力云产品的直降85%,再到金秋上云礼包的抢先领取,阿里云双11金秋云创季活动以一系列优惠政策,助力企业轻松上云,加速数字化转型。
缓存技术有哪些应用场景呢
【10月更文挑战第19天】缓存技术有哪些应用场景呢
|
16天前
|
首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理
【10月更文挑战第18天】《LongLLaVA: Scaling Multi-modal LLMs to 1000 Images Efficiently via Hybrid Architecture》提出了一种新型多模态大模型LongLLaVA,结合了Mamba和Transformer架构,通过系统优化实现在单张A100 80GB GPU上处理近千张图像的突破。该模型在视频理解、高分辨率图像分析和多模态智能体任务中表现出色,显著提升了计算效率。
|
19天前
| |
LLM-Mixer: 融合多尺度时间序列分解与预训练模型,可以精准捕捉短期波动与长期趋势
近年来,大型语言模型(LLMs)在自然语言处理领域取得显著进展,研究人员开始探索将其应用于时间序列预测。Jin等人提出了LLM-Mixer框架,通过多尺度时间序列分解和预训练的LLMs,有效捕捉时间序列数据中的短期波动和长期趋势,提高了预测精度。实验结果显示,LLM-Mixer在多个基准数据集上优于现有方法,展示了其在时间序列预测任务中的巨大潜力。
免费试用