当前位置:静雅生活网 > 数码百科 >

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

导读:Meta" 羊驼 "(LLaMA)的开源可商用复现品 OpenLLaMA 发布重大更新:  在1T token上训练出来的130 亿参数版本现已正式上线。  至此,这一训练

  Meta" 羊驼 "(LLaMA)的开源可商用复现品 OpenLLaMA 发布重大更新:

  在1T token上训练出来的130 亿参数版本现已正式上线。

  至此,这一训练量和原版羊驼已完全一致。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  与此同时,之前发布的 70 亿以及 30 亿参数版本也完成了 1T token 的训练,并发布 PyTorch 和 JAX 权重。

  可谓 " 一家人整整齐齐 "。

  性能测试显示,OpenLLaMA 在多项任务中的表现都与原始 LLaMA 相当,并且不乏超越的情况。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  一个彻底开源且供商用的 LLaMA 竞品家族就此诞生了。

  目前,OpenLLaMA 在 GitHub 上的标星数已近 5k。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  重训 " 羊驼 ",最香替代品全面开放商用

  OpenLLaMA 是 UC 伯克利的博士生Hao Liu发起的项目(Xinyang Geng 拥有同等贡献,也是该校博士生)。

  它在 Together 公司发布的 RedPajama 数据集上训练,该数据集其实也是 LLaMA 训练集的复制品,一共包含 1.2T token。

  除了数据集不太一样之外,OpenLLaMA 使用了与原始 LLaMA完全相同的预处理步骤和训练超参数,包括模型架构、上下文长度、训练步骤、学习率时间表和优化器,可以说是 " 重训 " 了一把。

  今年 5 月,该团队率先发布了 70 亿参数版本,不过当时训练 token 还是 3000 亿。

  按照计划,如今和原 LLaMA 训练数据量一致的 130 亿参数版本和 70 亿、30 亿版本一同发布。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  据介绍,130 亿版本是与Stability AI合作训练的,后者主要提供计算资源(当初 Stable Diffusion 也是这么与 Stability AI 合作)。

  和另外两个版本一样,OpenLLaMA-13B 也以两种格式发布权重:

  一是用于 Hugging Face transformer 的 PyTorch 格式。

  使用该格式时需要注意先避免使用 Hugging Face 快速分词器(tokenizer),因为它的自动转换功能有时会给出不正确的 tokenization。

  所以可以先直接使用 LlamaTokenizer class 来实现,或者用 AutoTokenizer class,将 use_fast 赋为 False。

  二是用于 EasyLM 框架的 EasyLM 格式。

  在此请注意,与原始 LLaMA 不同,该 OpenLLaMA 的分词器和权重是完全从头开始训练的,因此不再需要获取原始 LLaMA 的这俩信息。

  接下来,在训练量已达成一致的情况下,看 OpenLLaMA 各规模模型的性能表现如何。

  在这里,作者使用 EleutherAI 发布的自回归语言模型 few-shot 评估框架(lm-evaluation-harness)对两只 " 羊驼 " 进行评估,以及还加入了 " 第三者 ":

  EleutherAI 在 Pile 数据集上训练的 60 亿参数模型GPT-J,它的训练 token 数是 5000 亿。

  需要注意的是,可能是因为不同的评估协议,作者跑出来的 LLaMA 结果与原始 LLaMA 略有不同。

  以下是结果:

  红色小方框为 OpenLLaMA 超过或者与原 LLaMA 表现一样的情况。

  在红框之外,两者的差距也不大。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  而从平均表现来看,OpenLLaMA-7B 和 LLaMA-7B 得分都是 0.55,OpenLLaMA-13B 和 LLaMA-13B 也都一样,为 0.57,主打一个势均力敌

  与此同时,只有 30 亿参数的 OpenLLaMA 平均性能超越 60 亿参数的 GPT-J。

  Meta 也要发可商用大模型了

  特斯拉前 AI 高级总监 Andrej Karpathy 在上个月的微软 Build 大会的演讲上,曾多次表达一个意思:

  LLaMA-65b 就是目前最好的开源基础模型,可惜没能商用。

重训「羊驼」大模型并彻底开放商用,UC 伯克利博士生:Meta 不愿做就自己做

  现在,650 亿的商用平替羊驼虽然还没出现,130 亿和 70 亿是已经妥妥安排好了。

  不过,也有一则好消息。

  就在几天前,据 The Information 爆料,Meta AI 正计划发布一个新的 LLM,并且免费供大家商用

  有观点指出,在如今行业大佬如谷歌 Bard 和 OpenAI ChatGPT 都 " 紧闭大门 " 的情况下,Meta 这一做法可能会引发连锁反应,并且开源模型和闭源模型的差距会越来越小。

  就且拭目以待。

  关于 OpenLLaMA 的所有相关链接:

  https://github.com/openlm-research/open_llama

  https://huggingface.co/openlm-research/open_llama_13b

  本文参考链接还包括:

  https://www.artisana.ai/articles/metas-plan-to-offer-free-commercial-ai-models-puts-pressure-on-google-and

版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/91869.html,如需转载,请注明出处!

联系我们

在线咨询:点击这里给我发消息

微信号:weixin888

工作日:9:30-18:30,节假日休息