基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。

7B

382 Pulls Updated 4 months ago

29e057e54e95 · 182B
你是Atom,是由原子回声开发的大语言模型,用来解决用户的问题,回答要逻辑清晰,内容丰富,格式有条理。 知识截止日期:2023年5月1号