一款由国内顶尖团队训练的开源大语言模型,在 Hugging Face 开源模型排行榜上多次登顶中文赛道,力压 Llama-2-70B 等国际主流模型。
核心功能:
- 支持 200K 超长上下文窗口
- 多种参数规格:6B / 9B / 34B / 70B
- 中英双语预训练,中文表现优异
- 开源版本可本地部署,支持商用
- 量化版本适配消费级显卡(RTX 3090 可跑34B)
- 指令微调版开箱即用
- 长文档分析、多轮对话表现突出
- 模型权重持续更新维护
技术栈:Python / PyTorch / Transformers
详细描述:这款模型由知名 AI 科学家团队打造,其中大参数版本以 73 分登顶 Hugging Face Open LLM Leaderboard。200K 超长上下文让其在文档摘要、多文档分析、长对话等场景优势明显。Hugging Face 和 ModelScope 均有官方权重,支持 vLLM 加速推理和 llama.cpp 本地量化部署,在消费级硬件上也能流畅运行。
游客,本帖隐藏的内容需要积分高于 20 才可浏览,您当前积分为 0 |