Hugging Face 社区 | 豆包MarsCode AI刷题

46 阅读2分钟

关于 GitHub CodeSpace

Github CodeSpace 是 Github 推出的线上代码平台,提供了一系列 templates(项目模板) ,供我们快速搭建项目,进行在线开发。

我们这里选择 Jupyter Notebook 进行创建环境。创建好环境后,可以进入网页版 VS Code 的界面,这就是 CodeSpace 提供给我们的在线编程环境。

每个 CodeSpace 都相当于一个虚拟机,它们是彼此独立的,因此可以单独配置对应环境。

🎯 任务1 - 模型下载

在 Hugging Face 社区下载模型

以下操作建议在 GitHub CodeSpace 中执行

  1. 进入模型页面: huggingface.co/internlm/in…

  1. 安装依赖
bash
 代码解读
复制代码
# 安装transformers
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0

3. 新建用于 下载模型部分文件 的操作文件 hf_download_josn.py

bash
 代码解读
复制代码
touch hf_download_josn.py
py
 代码解读
复制代码
# hf_download_josn.py
import os
from huggingface_hub import hf_hub_download

# 指定模型标识符
repo_id = "internlm/internlm2_5-7b"

# 指定要下载的文件列表
files_to_download = [
    {"filename": "config.json"},
    {"filename": "model.safetensors.index.json"}
]

# 创建一个目录来存放下载的文件
local_dir = f"{repo_id.split('/')[1]}"
os.makedirs(local_dir, exist_ok=True)

# 遍历文件列表并下载每个文件
for file_info in files_to_download:
    file_path = hf_hub_download(
        repo_id=repo_id,
        filename=file_info["filename"],
        local_dir=local_dir
    )
    print(f"{file_info['filename']} file downloaded to: {file_path}")

关于 huggingface_hub 库中 “文件下载” 相关的文档: Download Files from the Hub

由于 7B 模型相对较大,在上面的代码中,我们通过变量 files_to_download 指定了需要下载的文件(模型的 config.json 文件),没有完全下载 internlm2_5-7b-chat 模型。

使用 python hf_download_josn.py 执行脚本,便可以看到下载完毕的文件。

  1. 新建用于下载模型全部文件的操作文件 hf_download_1_8_demo.py
bash
 代码解读
复制代码
touch hf_download_1_8_demo.py
py
 代码解读
复制代码
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("internlm/internlm2_5-1_8b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("internlm/internlm2_5-1_8b", torch_dtype=torch.float16, trust_remote_code=True)
model = model.eval()

inputs = tokenizer(["A beautiful flower"], return_tensors="pt")
gen_kwargs = {
    "max_length": 128,
    "top_p": 0.8,
    "temperature": 0.8,
    "do_sample": True,
    "repetition_penalty": 1.0
}

# 以下内容可选,如果解除注释等待一段时间后可以看到模型输出
output = model.generate(**inputs, **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)

使用 python hf_download_1_8_demo.py 命令执行,可得到结果: