清华大学ChatGLM大模型
ChatGLM-6B 是一个开源的中英双语对话模型,基于 GLM 架构,拥有 62 亿参数。它采用先进的量化技术,可在消费级显卡上本地部署,最低仅需 6GB 显存。该模型经过大规模中英双语训练,并针对中文问答和对话进行了优化。更多详情见我们的博客。模型权重对学术研究开放,并允许免费商业使用。安装依赖项使用 `pip install -r requirements.txt`。
计算机系统第三章程序的机械级表示笔记(1)
这篇文章是关于计算机系统第三章“程序的机械级表示”的笔记,解释了计算机如何执行机器代码,编译器如何生成机器代码,以及理解机器代码对于程序员在优化代码、分析程序运行时行为和安全性方面的重要意义。