编组
控制台用户中心

开源模型

文档中心

开源模型

产品简介

产品介绍#

孟子预训练模型是基于澜舟团队自研的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种理解和生成任务,能快速满足不同领域、不同应用场景的需求。 目前孟子已对外发布多个开源模型,并在持续扩充中。

产品功能#

Mengzi-BERT-base#

采用遮蔽语言建模(MLM)、词性标注和句子顺序预测(SOP)作为训练任务。这个模型可以用来完成多种中文自然语言处理任务,包括文本分类、情感分析、实体识别、自动摘要等。

  • 详情可见 mengzi-bert-base

Mengzi-BERT-base-fin#

基于财经新闻和研报数据进行训练,能够更好的完成金融场景的任务。

Mengzi-T5-base#

300G 中文语料库上的预训练模型。适用于文案生成、新闻生成等可控文本生成任务。

Mengzi-T5-base-MT#

基于 Mengzi-T5-base 的多任务模型,使用 27 个数据集和 301 个提示进行混合训练,可通过 prompt 完成各种任务。

Mengzi-GPT-neo-base#

基于中文语料从头训练,适用于文本续写、小说生成等任务。

Guohua Diffusion#

国画风格的文图生成模型,可以完成电影海报、专辑封面、风景画等不同生成任务。

更多...#

还有更多孟子开源模型可见 孟子开源模型

产品服务

商务合作邮箱

bd@langboat.com

ewm

公司地址

北京市海淀区北四环西路(街)52 号方正国际大厦 16 层 1603


gongan京公网安备 11010802035393号京ICP备 2021021087号

经营许可证编号:合字 B2-20220333

大模型备案号:Beijing-MengZiGPT-20231205


合作:

bd@langboat.com

地址:

北京市海淀区北四环西路(街)52 号方正国际大厦 16 层 1603

公众号:

ewm

support
business