要在 Hugging Face 上下载模型,首先需要进行登录。下面是使用 huggingface-cli 登录并下载模型的步骤:
1. 安装 huggingface_hub(如果尚未安装)
首先,确保你已经安装了 huggingface_hub 包:
pip install huggingface_hub
2. 登录 Hugging Face 账号
你需要在 Hugging Face 上创建一个账号并获取 API Token。
- 登录 Hugging Face 账号。
- 在右上角点击你的头像,选择 Settings。
- 在 Access Tokens 部分生成一个新的 token,复制它。
接下来,在终端运行以下命令:
huggingface-cli login
系统会提示你输入 API Token,将你从 Hugging Face 获取的 token 粘贴进去。
3. 下载模型
登录后,你可以使用 huggingface-cli 或者 Python 脚本下载模型。
使用 huggingface-cli 下载模型
你可以使用 huggingface-cli 来直接下载模型。例如,下载一个名为 stabilityai/stable-diffusion-2 的模型:
huggingface-cli download stabilityai/stable-diffusion-2
使用 Python 下载模型
在 Python 脚本中,使用 from_pretrained 方法下载并加载模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "gpt2" # 你要下载的模型名
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
这段代码将会下载指定模型并进行加载。
4. 访问私人模型
如果你要访问私有模型,在登录之后使用相同的 token,它会自动授权你访问。
5. 查看下载路径
默认情况下,模型会下载到 Hugging Face 的缓存目录。你可以通过以下代码查看模型的缓存目录:
from huggingface_hub import hf_hub_download
file_path = hf_hub_download(repo_id="gpt2", filename="pytorch_model.bin")
print(file_path)
这将打印出文件的实际存储路径。
6. 退出登录
如果你不再需要登录,可以使用以下命令退出:
huggingface-cli logout
通过这些步骤,你可以轻松登录 Hugging Face 并下载你所需要的模型。