建议使用Chrome浏览器访问!
技术支持
互动社区
学习培训
深信服官网
合作伙伴

AICP算力平台

关注
AICP面向用户提供一站式大模型开发和推理服务,覆盖大模型开发和部署的全流程,包括从数据接入、模型训练、模型管理、模型压缩、模型加密、模型推理的全流程。
按版本找软件
  • 1.0

    名称
    说明
    大小
    更新时间
    MD5
    Qwen2.5 - 7B - chat - FP16
    阿里开发的 70 亿参数规模的对话模型,使用 FP16 格式,能快速响应多种自然语言处理任务
    11.2GB
    2025-02-13
    /
    Qwen2.5 - 14B - chat - FP16
    阿里推出的参数量达 140 亿的聊天模型,以 FP16 格式存储,在文本生成、知识问答等方面表现较好
    21.8GB
    2025-02-13
    /
    ChatGLM4 - 9B - chat - FP16
    智谱AI研发的具有 90 亿参数的对话模型,采用 FP16 半精度格式,可进行多轮对话等任务。
    8.4GB
    2025-02-13
    /
    Qwen2-72B-int4
    阿里的 Qwen2-72B 模型的 int4 量化版本。
    32.6GB
    2024-11-28
    7a9cd884fa61cb23533b5bf8de2dc539
    Qwen2-72B
    阿里开发的大语言模型,具备较大规模参数。
    107GB
    2024-11-28
    ab683a80e3bd8a47f553885328d99941
    Yi1.5-34B
    零一万物公司推出的一款在性能表现、文本处理能力及开源社区反响等方面均有出色表现的开源预训练大模型,拥有较大参数规模且支持超长文本输入。
    50.56GB
    2024-11-28
    ddbf6709020cc118b41a8d07498b0e90
    Baichuan2 13B
    百川智能的 130 亿参数开源大语言模型,性能在各榜单上表现出色。
    20.5GB
    2024-11-28
    5a32686acc1676f42ffdc4ca09bbbd06
    Baichuan2 7B
    百川智能的新一代开源大语言模型,具有 70 亿参数,在多个方面能力有提升。
    11GB
    2024-11-28
    f4394409a4d57babed7b28b14c7621b1
    Llama2-13B-FP16-chat
    Meta 的 130 亿参数的 Llama2 微调对话模型,使用 FP16 精度。
    18.6GB
    2024-11-28
    d44684130977dc838e741cfda5817094
    Llama2-7B-FP16-chat
    Meta 推出的基于 70 亿参数的 Llama2 微调后的对话模型,采用 FP16 精度。
    9.6GB
    2024-11-28
    ab16af92886eadecc3110adf0707b0ba
    操作
在线客服
您当前处于未登录状态,资料搜索或查找可能会不全面,请登录后以查找更全面的内容注册登录