多轮对话复用KV cache的策略是如何解决FTT变长问题的?
多轮对话复用KV cache的策略是通过保存上一轮对话产生的KV cache,供下一轮对话时复用。由于大部分自回归模型的Attention Mask都是下三角矩阵,即某一位置token的注意力与后续token无关,因此两轮对话公共前缀部分的KV cache是一致的。通过复用这些KV cache,可以减少下一轮需要生成KV cache的token数,从而减少FTT。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。