(资料图片仅供参考)
【ITBEAR科技资讯】6月25日消息,AI 创业公司MosaicML近日发布了一款名为MPT-30B的语言模型,该模型拥有300亿参数,训练成本远低于其他竞争对手,有望推动AI模型在更广泛领域的应用并逐步降低训练成本。
MosaicML首席执行官兼联合创始人Naveen Rao表示,MPT-30B的训练成本仅为70万美元(约502.44万元人民币),远低于类似产品如GPT-3所需的数千万美元训练成本。该模型由于成本低、体积小,可以更快速地进行训练,并且更适合在本地硬件上部署。
据ITBEAR科技资讯了解,MosaicML采用了Alibi和FlashAttention技术来优化模型,这些技术可以实现更长的文本长度和更高的GPU计算利用率。MosaicML还是少数几个能够使用Nvidia H100 GPU的实验室之一,相较于以往的成果,他们的每块GPU吞吐量提高了2.4倍以上,从而可以更快地完成训练过程。
除了使AI技术更易获取外,MosaicML还专注于提高数据质量并提升模型性能。他们目前正在开发一款工具,可以在预训练过程中逐步引入特定领域的数据,以确保训练中包含多样化且高质量的数据组合。
MosaicML表示,将模型参数扩展到300亿只是第一步,接下来他们将以降低成本为前提,推出更大体积、更高质量的模型。
需要注意的是,开发者可以从Hugging Face下载并使用开源的MPT-30B基础模型,还可以使用自己的数据在本地硬件上进行微调。
关键词:
【ITBEAR科技资讯】6月25日消息,AI创业公司MosaicML近日发布了一款名
华瓷股份董秘回复:我司生产的部分产品使用智能彩绘3D喷墨打印技术_当前热点
2022-12-30康众医疗董秘回复:公司当前各项经营业务运行良好,主要股东持股情况详见公开披露的定期报告_环球聚焦
2022-12-30嘉必优(688089.SH):副总经理汪志明拟减持不超5.67万股 全球快讯
2022-12-29