我试图在Google Colab(Python 3.10.12)中使用Llama 2 chat(通过拥抱脸)和7 B参数.我已经通过Meta获得了我的访问令牌.我只是使用拥抱脸的代码来了解如何实现该模型以及我的访问令牌.这是我的代码:
!pip install transformers
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
token = "---Token copied from Hugging Face and pasted here---"
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-chat-hf", token=token)
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-chat-hf", token=token)
它开始下载模型,但当它到达加载判断点碎片时:它只是停止运行并且没有错误: