通义千问Qwen1.5

7个月前更新 93 0 0

阿里巴巴推出的大型语言模型,具备从0.5B到72B等多种参数规模,支持多语言处理、长文本理解,并在多个基准测试中表现优异。

所在地:
中国
语言:
zh,en
收录时间:
2024-06-02
通义千问Qwen1.5通义千问Qwen1.5
通义千问Qwen1.5

通义千问Qwen1.5是阿里巴巴集团推出的一个大型语言模型,该模型在多个方面进行了显著更新和优化。

1. 模型概览

  • 参数规模:Qwen1.5系列模型提供了从0.5B到72B,甚至包括超过1000亿参数的Qwen1.5-110B模型,满足不同计算需求。
  • 模型类型:包括Base和Chat等多种版本的开源模型,为全球开发者提供了前所未有的便利和机遇。

2. 核心特性

  • 多语言能力提升:Qwen1.5在多语言处理能力上进行了显著优化,支持更广泛的语言类型和更复杂的语言场景。例如,它支持包括英语、中文、法语、西班牙语等在内的多种语言,并在涵盖学科知识考试、语义理解、翻译任务和数学问题解决四个维度的公开数据集评测中表现优异。
  • 人类偏好对齐:通过采用直接策略优化(DPO)和近端策略优化(PPO)等技术,增强了模型与人类偏好的对齐度。
  • 长序列支持:所有规模的Qwen1.5模型均支持高达32768个tokens的上下文长度,大幅提升了处理长文本的能力。

3. 性能评测

  • 基础能力评估:Qwen1.5在MMLU(5-shot)、C-Eval、Humaneval、GS8K、BBH等多个数据集上均有显著进步,尤其是72B版本,在所有测试中全面超越了Llama2-70B。
  • 多语言能力验证:通过对来自欧洲、东亚和东南亚的12种主要语言的全面评估,Qwen1.5展示了在全球多语言环境下的强大适应能力。
  • 人类偏好对齐测试:在MT-Bench和Alpaca-Eval等基准上,Qwen1.5展现了与人类偏好高度一致的回复质量。

4. 开发者体验

  • 模型易用性:阿里巴巴将Qwen1.5的代码正式合并到Hugging Face transformers代码库中,极大地简化了模型的使用流程。现在,开发者可以直接使用transformers>=4.37.0原生代码,无需指定额外选项即可开发和部署。
  • 合作伙伴与框架:Qwen1.5还与多个知名的第三方框架建立了合作关系,如vLLM、SGLang、AutoAWQ、AutoGPTQ等,确保了其全球范围内的可访问性和易用性。

5. 部署与应用

  • PAI-QuickStart支持:通过阿里云人工智能平台PAI的PAI-QuickStart产品组件,用户可以轻松实现Qwen1.5系列模型的微调和快速部署。
  • 应用场景:Qwen1.5的强大性能和多语言支持使其适用于多种应用场景,如智能客服、文本生成、知识问答等。

通义千问Qwen1.5是一个功能强大、易于使用的大型语言模型,其在多语言处理、长文本支持以及基础能力等方面均展现出显著优势,为人工智能领域的发展带来了新的突破。

数据统计

相关导航

暂无评论

none
暂无评论...