当前位置: 首页 > 行业

​谷歌新版PaLM2训练数据量为前一代5倍|天天看热讯

来源:鞭牛士 发布时间:2023-05-17 17:57:30 分享至:


【资料图】

据《科创板日报》消息,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

关键词:

Copyright   2015-2022 中公礼仪网 版权所有  备案号:沪ICP备2022005074号-18   联系邮箱:5855973@qq.com