收集整理开源LLMs,尤其是中文LLMs。持续更新中
TBD
- Yuan-2.0 (2023.11.26)
浪潮信息开源,支持2、51、102B。最大102B开源,提出了局部注意力过滤增强机制LFA
- Yi (2023.11.02)
零一万物开源,支持6、34B
- 仓库:01-ai/Yi
- 技术报告:暂无
- Baichuan2 (2023.09.06)
百川智能开源,支持7、13B
- Chinese-LLaMA-Alpaca (2023.08.14)
哈工大讯飞联合实验室开源,支持7、13、33B
- MiLM-6B (2023.08.11)
小米AI实验室大模型团队发布,支持1.3、6B,暂未开源
- 仓库:XiaoMi/MiLM-6B
- 技术报告:暂无
- Chinese LLaMA 2 (2023.07.28)
华东师范大学发布,支持7B的LoRA微调
- 仓库:Chinese-LlaMA2
- 技术报告:无
- LLaMA 2 (2023.07.19)
Meta开源,支持7、13、70B
- Baichuan (2023.06.15)
百川智能开源,支持7、13B
- 仓库:Baichuan-7B, Baichuan-13B
- 技术报告:无
- ChatGLM-6B (2023.03.14)
清华大学与智普AI联合开源,支持6B
- 仓库:ChatGLM-6B
- 技术报告:无
- LLaMa (2023.02.25)
Meta开源,支持7、13、34、65B