Qwen2.5 - 7B - chat - FP16 | 阿里开发的 70 亿参数规模的对话模型,使用 FP16 格式,能快速响应多种自然语言处理任务 | 11.2GB | 2025-02-13 | / | |
Qwen2.5 - 14B - chat - FP16 | 阿里推出的参数量达 140 亿的聊天模型,以 FP16 格式存储,在文本生成、知识问答等方面表现较好 | 21.8GB | 2025-02-13 | / | |
ChatGLM4 - 9B - chat - FP16 | 智谱AI研发的具有 90 亿参数的对话模型,采用 FP16 半精度格式,可进行多轮对话等任务。 | 8.4GB | 2025-02-13 | / | |
Qwen2-72B-int4 | 阿里的 Qwen2-72B 模型的 int4 量化版本。 | 32.6GB | 2024-11-28 | 7a9cd884fa61cb23533b5bf8de2dc539 | |
Qwen2-72B | 阿里开发的大语言模型,具备较大规模参数。 | 107GB | 2024-11-28 | ab683a80e3bd8a47f553885328d99941 | |
Yi1.5-34B | 零一万物公司推出的一款在性能表现、文本处理能力及开源社区反响等方面均有出色表现的开源预训练大模型,拥有较大参数规模且支持超长文本输入。 | 50.56GB | 2024-11-28 | ddbf6709020cc118b41a8d07498b0e90 | |
Baichuan2 13B | 百川智能的 130 亿参数开源大语言模型,性能在各榜单上表现出色。 | 20.5GB | 2024-11-28 | 5a32686acc1676f42ffdc4ca09bbbd06 | |
Baichuan2 7B | 百川智能的新一代开源大语言模型,具有 70 亿参数,在多个方面能力有提升。 | 11GB | 2024-11-28 | f4394409a4d57babed7b28b14c7621b1 | |
Llama2-13B-FP16-chat | Meta 的 130 亿参数的 Llama2 微调对话模型,使用 FP16 精度。 | 18.6GB | 2024-11-28 | d44684130977dc838e741cfda5817094 | |
Llama2-7B-FP16-chat | Meta 推出的基于 70 亿参数的 Llama2 微调后的对话模型,采用 FP16 精度。 | 9.6GB | 2024-11-28 | ab16af92886eadecc3110adf0707b0ba | |