2024-10-29
138

运用通义灵码有效管理遗留代码:提升代码质量与可维护性

本文首先介绍了遗留代码的概念,并对遗留代码进行了分类。针对不同类型的遗留代码,提供了相应的处理策略。此外,本文重点介绍了通义灵码在维护遗留代码过程中能提供哪些支持。

138
2024-05-15
476

Mistral 7B v0.2 基础模型开源,魔搭社区微调教程和评测来啦!

Mistral AI在3月24日突然发布并开源了 Mistral 7B v0.2模型,有如下几个特点

2024-05-15
179

元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了

近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

2024-05-16
88089

通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

88,089
2024-09-14
131

使用通义灵码,参与开源项目全程纪实

我借助通义灵码完成了 obdiag 项目的第一个 PR,成为了 obdiag 项目的 contributor,我知道通义灵码的能力还远没有发挥出来,今后继续探索,未来可期。

2024-05-15
95

实践总结|前端架构设计的一点考究(中)

本文总结了作者在日常/大促业务的“敏捷”开发过程中产生的疑惑,并尝试做出思考得到一些解决思路和方案。在前端开发和实践过程中,梳理了一些简单设计方案可以缓解当时 “头疼” 的几个敏捷迭代问题,并实践在项目迭代中。

2024-05-15
560

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

1
...
10
11
12
13
14
到第
1
2
3
4
5
6
7
8
9
10
11
12
13
14
11/14