TeleChat 中国电信推出的基于Transformer架构的70亿参数语义大模型,具备强大的自然语言理解和生成能力,适用于智能对话、文本生成等多个AI应用场景。 02780 开源项目# TeleChat# 开源
Skywork-13B 由昆仑万维开发的开源大模型,拥有130亿参数和3.2万亿高质量多语言训练数据,在中文及其他语言上展现出卓越的自然语言处理能力,尤其在中文环境下表现突出,适用于多个领域。 03240 开源项目# Skywork# Skywork-13B# 开源
Mistral 7B 一款拥有约73亿参数的强大大型语言模型,由Mistral.AI公司开发,展现出卓越的多语言处理能力和推理性能。 02970 开源项目# Mistral 7B# Mistral.AI# 开源
Gemma 谷歌推出的轻量级、先进的开源模型,包括Gemma 2B和Gemma 7B两种规模,每种规模都有预训练和指令微调版本,旨在通过其强大的语言理解和生成能力,支持开发者创新、促进协作,并引导对模型的负责任使用。 03270 开源项目# Gemma# 开源
BERT 由Google开发的基于Transformer架构的预训练语言模型,通过在大规模文本数据上学习双向上下文信息,为多种NLP任务提供强大基础,拥有最多达数百亿个参数,并在多个任务中取得显著性能提升。 03190 开源项目
BLOOM 由超过1000名来自60多个国家和250多个机构的研究人员参与开发的大型开源多语言语言模型,拥有176B参数,并在ROOTS语料库上训练,支持46种自然语言和13种编程语言,旨在推动学术界和小型公司对大型语言模型的研究和使用。 02870 开源项目