新模型对标GPT-4,为缩短性能差距,Meta正在加速AI开发。
AIBetas消息,2023年9月11日,据《华尔街日报》报道,为缩小与谷歌、微软、OpenAI等竞争对手的差距,Meta将于明年开始训练新模型,可能开源。为建设该项目工作所需的数据中心,Meta正在购入更多的H100。根据知情人士透露,尽管Meta与微软合作,在微软的云计算平台Azure上提供Llama 2,但它计划在自己的基础设施上训练新模型。
Meta计划于明年年初开始训练这款人工智能模型,目标是比两个月前发布的Llama 2模型强大数倍。今年7月,为打破OpenAI在大语言模型(LLM)市场的主导地位,Meta发布了Llama 2模型。但在关于Llama 2的论文中,Meta自己指出,Llama 2与GPT-4和谷歌的PaLM-2等闭源模型之间仍存在巨大的性能差距。
Meta的Llama 2模型的最强大版本已经接受了700亿个参数的训练,参数是用于测量尺寸的人工智能系统中的变量的术语。OpenAI尚未透露GPT-4的大小,但估计大约是该大小的20倍,参数为1.5万亿个。一些人工智能专家表示,可能还有其他方法可以实现GPT-4的功能,而不必达到这种规模。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容