Redian新闻
>
1800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布

1800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布

公众号新闻

出品 | OSC开源社区(ID:oschina2013)
世界最强开源大模型 Falcon 180B 忽然火爆全网,1800亿参数,Falcon 在 3.5 万亿 token 完成训练,性能碾压 Llama 2,登顶 Hugging Face 排行榜。

今年 5 月,TII(阿联酋阿布扎比技术创新研究所)推出了号称是 “史上最强的开源大语言模型”——Falcon(猎鹰)。虽然 Falcon 的参数比 LLaMA 小,但性能却更加强大。


此前,Falcon 已经推出了三种模型大小,分别是1.3B、7.5B、40B。据介绍,Falcon 180B 是 40B 的升级版本, Falcon 180B 的规模是 Llama 2 的 2.5 倍,且可免费商用。
Falcon 180B 在 Hugging Face 开源大模型榜单上被认为是当前评分最高的开放式大模型,其评分68.74,Meta 的 LlaMA 2 以 1.39 的分数差距排名第二 。
据官方介绍,Falcon 180B 是当前最好的开源大模型。
其在 MMLU 上 的表现超过了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上与谷歌的 PaLM 2-Large 不相上下。

目前大家可以通过以下地址进行Demo 体验:https://hf.co/spaces/HuggingFaceH4/falcon-chat

硬件要求


类型种类最低要求配置示例
Falcon 180BTrainingFull fine-tuning5120GB8x 8x A100 80GB
Falcon 180BTrainingLoRA with ZeRO-31280GB2x 8x A100 80GB
Falcon 180BTrainingQLoRA160GB2x A100 80GB
Falcon 180BInferenceBF16/FP16640GB8x A100 80GB
Falcon 180BInferenceGPTQ/int4320GB8x A100 40GB

Prompt 格式

其基础模型没有 Prompt 格式,因为它并不是一个对话型大模型也不是通过指令进行的训练,所以它并不会以对话形式回应。预训练模型是微调的绝佳平台,但或许你不该直接使用。其对话模型则设有一个简单的对话模式。
System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

从 Transfomers 4.33 开始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生态里的所有工具。但是前提是请确保你已经登录了自己的 Hugging Face 账号,并安装了最新版本的 transformers:
pip install --upgrade transformers
huggingface-cli login
bfloat16
以下是如何在 bfloat16 中使用基础模型的方法。Falcon 180B 是一个大型模型,所以请注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
input_ids=inputs["input_ids"],
attention_mask=inputs["attention_mask"],
do_sample=True,
temperature=0.6,
top_p=0.9,
max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

这可能会产生如下输出结果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes
Falcon 180B 的 8 位和 4 位量化版本在评估方面与 bfloat16 几乎没有差别!这对推理来说是个好消息,因为你可以放心地使用量化版本来降低硬件要求。请记住,在 8 位版本进行推理要比 4 位版本快得多。要使用量化,你需要安装 “bitsandbytes” 库,并在加载模型时启用相应的标志:
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
**load_in_8bit=True,**
device_map="auto",
)
对话模型
如上所述,为跟踪对话而微调的模型版本使用了非常直接的训练模板。我们必须遵循同样的模式才能运行聊天式推理。作为参考,你可以看看聊天演示中的 format_prompt 函数:
def format_prompt(message, history, system_prompt):
prompt = ""
if system_prompt:
prompt += f"System: {system_prompt}\n"
for user_prompt, bot_response in history:
prompt += f"User: {user_prompt}\n"
prompt += f"Falcon: {bot_response}\n"
prompt += f"User: {message}\nFalcon:"
return prompt
如你所见,用户的交互和模型的回应前面都有 User: 和 Falcon: 分隔符。我们将它们连接在一起,形成一个包含整个对话历史的提示。这样就可以提供一个系统提示来调整生成风格。
相关链接:https://huggingface.co/blog/zh/falcon-180b

往期推荐



 有奖问答 | LLM 到底能为广大图技术从业者带来什么
中国14岁初中生,开源Windows 12网页版,star数近2k
Mojo编程语言开放下载,声称比Python快68000倍



这里有最新开源资讯、软件更新、技术干货等内容

点这里 ↓↓↓ 记得 关注✔ 标星⭐ 哦


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
20B跨级挑战70B性能!国产开源大模型打造大模型新标杆20B量级大模型性能媲美Llama2-70B!完全开源,从基座到工具全安排明白了智源扔出大模型“全家桶”!推最强开源中英双语LLM,赶超Llama 2性能碾压Llama 2,全球下载量超500万,百川智能开源模型凭什么?1300亿参数,国内首个数学大模型MathGPT上线!多项基准赶超GPT-4nǚ hóng?nǚ gōng碾压Llama2!微软13亿参数phi-1.5,单个A100训练,刷新SOTA中文最强开源大模型来了!130亿参数,0门槛商用,来自昆仑万维从「最强2D」升维「最强3D」!智源联合清北重磅发布10亿参数Uni3D视觉大模型国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型传滴滴造车VP创业大模型;澜舟科技推出400亿参数通用大模型;商汤AIGC相关收入增长670.4%只是因为在桥上多看了一眼​参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4聊聊澤連斯基這個人Stability AI火速发布Llama 2微调模型FreeWilly,性能媲美ChatGPT!网友惊呼游戏规则已改变击败Llama 2,抗衡GPT-3.5,Stability AI新模型登顶开源大模型排行榜钮祜禄·Meta:发布最强开源新模型Llama 2,拉拢微软做盟友|最前线650亿参数,训练飙升38%!LLaMA基础大模型复刻最佳实践开源,GitHub已获30k星爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯小蜻蜓,轻轻飞翔推理1760亿参数的BLOOMZ,性能时延仅3.7秒 | 最“in”大模型650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完最强开源大模型刚刚易主!李开复率队问鼎全球多项榜单,40万文本处理破纪录咀外文嚼汉字(263)“生冷中华”,“菎蒻刺身”开源大模型FLM-101B:训练成本最低的超100B参数大模型入夏夜国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B昆仑万维开源130亿参数大模型!0门槛商用、多榜超Llama 2,预训练数据也开源阿里云通义千问140亿参数Qwen-14B发布;TCL中环签约首个绿电园区项目|绿研院日报十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4 | 最“in”大模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。