当前位置:活动

谷歌PaLM 2在训练中使用的文本数据是其前身的近五倍

2023-05-17 13:56:44 来源:互联网


(资料图片仅供参考)

据外媒报道,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。(界面)

关键词:


航行警告!南海部分海域军事训练

2023-05-17

活动来源:中国海事局网站

天开园:天津的新创业热土

2023-05-16

活动来源:光明日报

理想汽车在佛山成立销售公司

2023-05-16

活动来源:金融界天眼查

教育