基于Mamba架构建立的基于中文高质量语料训练的tiny-LLM,逻辑性能相比前面的115M有了极大的提升。 该模型是pretrain 模型,没有经过SFT 如果你喜欢我们的模型,帮我们点个小心心吧 使用方法:参考 https://huggingface.co/gywy/mamba-115M-chinese