最近metaAI“不小心”泄露了自身的大语言模型LLaMA,本着好奇的心火速下载了LLaMA的权重,来试玩一下这个baby版的ChatGPT,为什么称作是baby版,是因为该权重还没有像ChatGPT那般Finetune过。

LLaMA各参数版本与GPT-3的性能对比如下:

LLaMA:7B参数量的Baby版ChatGPT窥探

本文将使用7B的参数权重,尽可能的造一些能让baby版的LLaMA读懂的prompt,生成一些结果与ChatGPT进行对比,并在一张A100GPU上推理“窥探”:

代码生成

prompts:[“The code for converting pdf into pictures using python is as follows:”]

**LLaMA结果:**差点意思

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

公式解释

prompts:[“The meaning of F=ma is”]

LLaMA结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

续写

prompts:[“On a dark and windy night,”]

LLaMA结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

写故事

prompts:[“The story of an alchemist”]

LLaMA结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

差点意思,换个提示:Prompt: [‘The story of the alchemist is’]

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

QA

prompts:[“There are seven steps to install anaconda3 under windows:”]

**LLaMA结果:**超过了输出 长度,但能看到有这能力

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

言语理解

prompts:[“There is a sentence, “China’s economic aggregate is the second largest in the world”. In this sentence, “China” is an organizational entity. Then the sentence, “America’s economic aggregate is the first in the world”, the organizational entity in this sentence is”]

**LLaMA结果:**能理解到,就是有点啰嗦了…

LLaMA:7B参数量的Baby版ChatGPT窥探

ChatGPT结果:

LLaMA:7B参数量的Baby版ChatGPT窥探

总结

本文通过造一些prompt初步窥探了7B版本的LLaMA,所生成的结果比较依赖于prompt的质量,有资源可以尝试65B参数量的版本。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。