chatglm2-6b-32k
#7
by
JaheimLee
- opened
首先感谢开发者如此出色的工作!
官方现在出32k文本长度的新版本了,考虑用新版本再迭代一个吗?
本模型训练时,采用的的方法与32k新版本的训练方式有类似之处,context的长度远程 4k,8k,16k,也许是32k 或者跟多,可能是无长度限制,具体长度只依赖显存容量。
但1代模型不能进行高效的多轮对话训练,直接拿来用可以,做二次开发就不行了
我的模型没有这个问题,无限轮次多轮对话,这些问题,早解决了
JaheimLee
changed discussion status to
closed