北京商报讯(记者 魏蔚)4月19日,阿里达摩院发布了超大规模语言模型PLUG,该模型参数规模达270亿,是中文纯文本预训练语言模型。PLUG采用1TB以上高质量中文文本训练数据,涵盖新闻、小说、诗歌、问答等类型及领域。接下来,PLUG将扩大参数规模至2000亿级,并进一步提升文本生成质量。此外,达摩院、阿里云计算平台团队还联合智源研究院、清华大学发布了面向认知的超大规模新型预训练模型“文汇”,以及联合清华大学发布了超大规模多模态预训练模型“M6”。
【以上内容转自“北京商报网”,不代表本网站观点。 如需转载请取得北京商报网站许可,如有侵权请联系删除。】