1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4

2023-11-07

来源:新智元

【导读】一经发布,地表最强开源模型Falcon 180B直接霸榜HF。3.5万亿token训练,性能直接碾压Llama 2。

一夜之间,世界最强开源大模型Falcon 180B引爆全网!

1800亿参数,Falcon在3.5万亿token完成训练,直接登顶Hugging Face排行榜。

基准测试中,Falcon 180B在推理、编码、熟练度和知识测试各种任务中,一举击败Llama 2。

750e244ad452f41240b182d58868585b.png

甚至,Falcon 180B能够与谷歌PaLM 2不差上下,性能直逼GPT-4。

不过,英伟达高级科学家Jim Fan对此表示质疑,

- Falcon-180B的训练数据中,代码只占5%。

而代码是迄今为止对提高推理能力、掌握工具使用和增强AI智能体最有用的数据。事实上,GPT-3.5是在Codex的基础上进行微调的。

- 没有编码基准数据。

没有代码能力,就不能声称「优于GPT-3.5」或「接近GPT-4」。它本应是预训练配方中不可或缺的一部分,而不是事后的微调。

- 对于参数大于30B的语言模型,是时候采用混合专家系统(MoE)了。到目前为止,我们只看到OSS MoE LLM < 10B。

2b26c1bcc8fc093647174056c6427d9b.png

一起来看看,Falcon 180B究竟是什么来头?

1f73aea715c89c4d7c442082af488f0f.png

世界最强开源大模型


此前,Falcon已经推出了三种模型大小,分别是1.3B、7.5B、40B。

官方介绍,Falcon 180B是40B的升级版本,由阿布扎比的全球领先技术研究中心TII推出,可免费商用。

668ca96b7de46ffebd46f478a27b2677.png

这次,研究人员在基底模型上技术上进行了创新,比如利用Multi-Query Attention等来提高模型的可扩展性。

e922e19f45846e613fd0ede93963e07d.gif

对于训练过程,Falcon 180B基于亚马逊云机器学习平台Amazon SageMaker,在多达4096个GPU上完成了对3.5万亿token的训练。

总GPU计算时,大约7,000,000个。

Falcon 180B的参数规模是Llama 2(70B)的2.5倍,而训练所需的计算量是Llama 2的4倍。

具体训练数据中,Falcon 180B主要是RefinedWe数据集(大约占85%) 。

此外,它还在对话、技术论文,以及一小部分代码等经过整理的混合数据的基础上进行了训练。

这个预训练数据集足够大,即使是3.5万亿个token也只占不到一个epoch。

83630e063d7e3e08eb3ec3aef8965863.png

官方自称,Falcon 180B是当前「最好」的开源大模型,具体表现如下:

在MMLU基准上,Falcon 180B的性能超过了Llama 2 70B和GPT-3.5。

在HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及ReCoRD上,与谷歌的PaLM 2-Large不相上下。

9cc4864ced7968251009b354ed682f9d.png

另外,它在Hugging Face开源大模型榜单上,是当前评分最高(68.74分)的开放式大模型,超越了LlaMA 2(67.35)。

1c597ffcb76779383d8247682d4e6c60.png

Falcon 180B上手可用


与此同时,研究人员还发布了聊天对话模型Falcon-180B-Chat。该模型在对话和指令数据集上进行了微调,数据集涵盖了Open-Platypus、UltraChat和Airoboros。

3b8f586dcdfa9f7bc5e14725c8208769.png

现在,每个人都可以进行demo体验。

078a22fe230ea797aa7f2ebb7b2029b9.png

地址:https://huggingface.co/tiiuae/falcon-180B-chat

Prompt 格式

基础模型没有Prompt格式,因为它并不是一个对话型大模型,也不是通过指令进行的训练,所以它并不会以对话形式回应。

预训练模型是微调的绝佳平台,但或许你不该直接使用。其对话模型则设有一个简单的对话模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on


Transformers

从Transfomers 4.33开始,Falcon 180B可以在Hugging Face生态中使用和下载。

确保已经登录Hugging Face账号,并安装了最新版本的transformers:

 
 
pip install --upgrade transformers
huggingface-cli login

bfloat16

以下是如何在 bfloat16 中使用基础模型的方法。Falcon 180B是一个大模型,所以请注意它的硬件要求。

对此,硬件要求如下:

可以看出,若想对Falcon 180B进行全面微调,至少需要8X8X A100 80G,如果仅是推理的话,也得需要8XA100 80G的GPU。

e94742525a5e497bf9dce3efb6b8836d.png

 
 
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch


model_id = "tiiuae/falcon-180B"


tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)


prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")


output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

可能会产生如下输出结果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.

使用8位和4位的bitsandbytes

此外,Falcon 180B的8位和4位量化版本在评估方面与bfloat16几乎没有差别!

这对推理来说是个好消息,因为用户可以放心地使用量化版本来降低硬件要求。

注意,在8位版本进行推理要比4位版本快得多。要使用量化,你需要安装「bitsandbytes」库,并在加载模型时启用相应的标志:

model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)

对话模型

如上所述,为跟踪对话而微调的模型版本,使用了非常直接的训练模板。我们必须遵循同样的模式才能运行聊天式推理。

作为参考,你可以看看聊天演示中的 [format_prompt] 函数:

def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}\n"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}\n"
        prompt += f"Falcon: {bot_response}\n"
        prompt += f"User: {message}\nFalcon:"
    return prompt

从上可见,用户的交互和模型的回应前面都有 User: 和 Falcon: 分隔符。我们将它们连接在一起,形成一个包含整个对话历史的提示。这样,就可以提供一个系统提示来调整生成风格。

网友热评


对于Falcon 180B的真正实力,许多网友对此展开热议。

绝对难以置信。它击败了GPT-3.5,与谷歌的PaLM-2 Large不相上下。这简直改变游戏规则!

477f49688f220b3a270d3205087fbedc.png

一位创业公司的CEO表示,我测试了Falcon-180B对话机器人,它并不比Llama2-70B聊天系统好。HF OpenLLM排行榜也显示了好坏参半的结果。考虑到它的规模更大,训练集也更多,这种情况令人惊讶。

d4aa51831863a757f0bb48ddca2c121a.png

举个栗子:

给出一些条目,让Falcon-180B和Llama2-70B分别回答,看看效果如何?

Falcon-180B误将马鞍算作动物。而Llama2-70B回答简洁,还给出了正确答案。

7b53134cfba12889498912eb5ca90251.png

f8f156acd3e6b16a1893a4d805dd4097.png

参考资料:

https://twitter.com/TIIuae/status/1699380904404103245

https://twitter.com/DrJimFan/status/1699459647592403236

https://huggingface.co/blog/zh/falcon-180b

https://huggingface.co/tiiuae/falcon-180B

52884012aea3601a1783480fa3c7e3af.gif

分享

收藏

点赞

在看

347ea7a4019a10a408184100b7233ea6.gif

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4 的相关文章

随机推荐

  • 采编系统服务器架构,遂宁日报新闻采编系统的设计与实现

    摘要 新闻稿件采编系统是现今报社现代化办公的必备工具 它对于提高新闻报社工作效率和网络接轨有着重要的意义 随着现代社会中网络化 数字化的不断进步 单凭传统的系统加上纯手工的劳动已经越来越难以满足日报社新闻采编管理工作的需求 1 新闻稿件采编
  • python中csv、json文件的写入和读取

    txt文本文件读取 txt文本文件读取 def txt writter 写文件 函数说明文档 with open data txt w encoding utf 8 as f f write hi n 写一行 lines hello n w
  • Python 爬虫入门的教程(1小时快速入门、简单易懂、快速上手)

    这是一篇详细介绍 Python爬虫入门的教程 从实战出发 适合初学者 读者只需在阅读过程紧跟文章思路 理清相应的实现代码 30 分钟即可学会编写简单的 Python 爬虫 这篇 Python 爬虫教程主要讲解以下 5 部分内容 了解网页 使
  • Velodyne VLP16 激光雷达使用(遇到问题要学会看文档)

    VLP 16激光雷达是Velodyne公司出品的最小型的3维激光雷达 保留了电机转速可调节的功能 实时上传周围距离和反射率的测量值 VLP 16具有100米的远量程测量距离 精巧的外观设计使得安装非常方便 重量轻 只有830g 非常适合安装
  • ChatGPT帮助一名儿童确诊病因,之前17位医生无法确诊

    9月13日 Today消息 一位名叫Alex的4岁儿童得了一种浑身疼痛的怪病 每天需要服用Motrin 美林 才能止痛 3年的时间 看了17名医生无法确诊病因 新闻地址 https www today com health mom chat
  • C++ vector容器

    1 vector基本概念 vector 的数据结构和数组非常相似 也称为单端数组 不同之处在于数组是静态空间 而 vector 可以动态扩展 动态扩展 不是在原空间之后续接新空间 而是找更大的内存空间 然后将原数据拷贝新空间 释放原空间 使
  • 四位数码管3641AS的FPGA实现

    一 数码管介绍 四位数码管3641AS为一款共阴极的四位八段数码管 其具体的每一段为单个二极管 可通过压降实现点亮 通过控制单位多段二极管的点亮实现数字或字母等字符 共阴极 八段发光二极管的阴极端连接在一起 阳极端分开控制 使用时候公共端接
  • 这几款能制作思维导图的软件分享给你

    思维导图工具的优势在于它可以大大提高思考效率 使用思维导图工具 可以更好地组织和理解复杂的信息 并从中提取出重要的要素 此外 思维导图也可以帮助人们更好地记忆信息 接下来这篇文章 我将会介绍几款好用的思维导图软件 一起来看看吧 软件一 简道
  • Linux时间操作(time、gettimeofday)

    自 http blog chinaunix net space php uid 24148050 do blog id 320294 一 time函数 include
  • idea使用Markdown流程图

    环境 Windows10 idea2021 1 社区版 方法 其实主要就是让Markdown的mermaid生效 如何设置mermaid CTRL ALT S调出设置 搜索 Markdown 找到enable extend name 勾选后
  • Spark(30) -- Spark SQL中更多Parquet文件读写(scala)

    什么时候会用到 Parquet 在 ETL 中 Spark 经常扮演 T 的职务 也就是进行数据清洗和数据转换 为了能够保存比较复杂的数据 并且保证性能和压缩率 通常使用 Parquet 是一个比较不错的选择 所以外部系统收集过来的数据 有
  • Mysql this is incompatible with sql_mode=only_full_group_by

    MySQL的sql mode合理设置 sql mode是个很容易被忽视的变量 默认值是空值 在这种设置下是可以允许一些非法操作的 比如允许一些非法数据的插入 在生产环境必须将这个值设置为严格模式 所以开发 测试环境的数据库也必须要设置 这样
  • 标准库函数

    aplay apply 函数可以看作一个配置函数 你可以传入一个接收者 然后调用一系列函数来配置它以便使用 调用一个个函数类配置接收者时 变量名就省掉了 apply 能让每一个配置函数 都做用于接收者 这种行为叫做 相关作用域 apply
  • 01-iOS如何集成OpenCV

    转自 https www jianshu com p 13a302dfd8f0 OpenCV 是什么 简述 OpenCV是开源计算机视觉库 是一个非常强大的库 可跨平台使用 其中包含了数百种计算机视觉算法 OpenCV 是由C 编写 最早是
  • Redis配置与优化

    文章目录 Redis配置 优化 1 关系型数据库与非关系型数据库 1 1 定义 1 2 区别 1 3 产生背景 2 Redis 2 1 Redis简介 2 2 Redis优点 2 3 Redis缺点 2 4 Redis使用场景 2 5 Re
  • MQTT.fx连接阿里云

    第一步 查看阿里云设备 MQTT 参数 点击 设备 点击 设备信息 点击mqtt连接参数 查看 第2步 打开 MQTT fx 软件 点击 齿轮 点击 新建项目 输入项目名称 MQTT test 01 复制mqtt连接参数 clientId
  • GDAL库简介以及在Windows下编译过程

    GDAL Geospatial Data Abstraction Library 地理空间数据抽象库 是一个在X MIT许可协议下的开源栅格空间数据转换库 官网http www gdal org index html 也可参考GitHub
  • Could not connect to ‘192.168.203.128‘ (port 22): Connection failed.

    问题展示 请在保证虚拟机和宿主机之间完美连接之后 再看此篇文章 如何保证呢 操作请看这篇 Linux虚拟机与Windows宿主机间的通信 如何验证呢 当然是 ping 啊 虚拟机 ping 主机 通 主机 ping 虚拟机 通 通常情况下
  • obj文件

    obj 文件是一种常用的 3D 模型文件格式 它由许多顶点坐标 法向量和纹理坐标组成 可以用来描述复杂的三维模型 obj 文件是一种文本文件 可以使用纯文本编辑器打开 也可以使用专门的 3D 模型软件来打开 编辑和渲染 obj 文件通常与
  • 1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4

    来源 新智元 导读 一经发布 地表最强开源模型Falcon 180B直接霸榜HF 3 5万亿token训练 性能直接碾压Llama 2 一夜之间 世界最强开源大模型Falcon 180B引爆全网 1800亿参数 Falcon在3 5万亿to