Hugging Face 模型下载教程
Hugging Face 模型下载教程

Hugging Face 模型下载教程

要在 Hugging Face 上下载模型,首先需要进行登录。下面是使用 huggingface-cli 登录并下载模型的步骤:

1. 安装 huggingface_hub(如果尚未安装)

首先,确保你已经安装了 huggingface_hub 包:

pip install huggingface_hub

2. 登录 Hugging Face 账号

你需要在 Hugging Face 上创建一个账号并获取 API Token。

  1. 登录 Hugging Face 账号。
  2. 在右上角点击你的头像,选择 Settings
  3. Access Tokens 部分生成一个新的 token,复制它。

接下来,在终端运行以下命令:

huggingface-cli login

系统会提示你输入 API Token,将你从 Hugging Face 获取的 token 粘贴进去。

3. 下载模型

登录后,你可以使用 huggingface-cli 或者 Python 脚本下载模型。

使用 huggingface-cli 下载模型

你可以使用 huggingface-cli 来直接下载模型。例如,下载一个名为 stabilityai/stable-diffusion-2 的模型:

huggingface-cli download stabilityai/stable-diffusion-2

使用 Python 下载模型

在 Python 脚本中,使用 from_pretrained 方法下载并加载模型:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "gpt2" # 你要下载的模型名
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

这段代码将会下载指定模型并进行加载。

4. 访问私人模型

如果你要访问私有模型,在登录之后使用相同的 token,它会自动授权你访问。

5. 查看下载路径

默认情况下,模型会下载到 Hugging Face 的缓存目录。你可以通过以下代码查看模型的缓存目录:

from huggingface_hub import hf_hub_download

file_path = hf_hub_download(repo_id="gpt2", filename="pytorch_model.bin")
print(file_path)

这将打印出文件的实际存储路径。

6. 退出登录

如果你不再需要登录,可以使用以下命令退出:

huggingface-cli logout

通过这些步骤,你可以轻松登录 Hugging Face 并下载你所需要的模型。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Title - Artist
0:00