Skip to content
OpenInfoHub
Go back

Hugging Face Skills 完全指南:让 AI 编程助手掌握机器学习技能

Hugging Face Skills 是一套标准化的 AI/ML 任务定义包,它让 AI 编程助手(如 Claude Code、OpenAI Codex、Gemini CLI、Cursor)具备完成机器学习工作流的能力。通过安装 Skills,你可以用自然语言指示 AI 助手完成模型训练、数据集管理、应用部署等原本需要深入专业知识的任务。

目录

什么是 Hugging Face Skills?

在传统的 AI 编程助手中,你可能需要手动编写训练脚本、查阅 API 文档、配置基础设施。Hugging Face Skills 改变了这一切——它将这些专业知识打包成标准化的”技能包”,让 AI 助手能够像一位经验丰富的 ML 工程师一样工作。

核心设计理念

每个 Skill 都是一个自包含的文件夹,包含:

当你在对话中提到某个技能相关的任务时,AI 助手会自动加载对应的 SKILL.md 文件,获取操作指南和工具脚本,然后按照指南完成任务。

跨平台兼容

Hugging Face Skills 采用开放的 Agent Skills 规范,兼容所有主流 AI 编程助手:

平台术语安装方式
Claude CodePlugin / Skill通过 Plugin Marketplace 注册安装
OpenAI CodexAgent Skill复制到 .agents/skills 目录
Gemini CLIExtension通过 gemini extensions install 安装
CursorPlugin通过 .cursor-plugin/plugin.json 配置

完整技能列表

Hugging Face Skills 目前提供 13 个生产级技能,覆盖 ML 工作流的各个环节:

模型训练与微调

技能说明
hugging-face-model-trainer使用 TRL 在 HF Jobs 云 GPU 上训练/微调 LLM,支持 SFT、DPO、GRPO 和奖励模型训练
hugging-face-vision-trainer微调视觉模型,支持目标检测(D-FINE、RT-DETR)、图像分类(100+ timm 架构)和分割(SAM/SAM2)

数据集管理

技能说明
hugging-face-datasets创建和管理 Hub 数据集,支持多格式配置和 SQL 数据转换
hugging-face-dataset-viewer通过 REST API 查询任意数据集,零 Python 依赖

基础设施与运维

技能说明
hugging-face-jobs在 HF 托管基础设施上运行 Python 工作负载:批量推理、数据处理、ML 实验
hugging-face-trackio使用 Trackio 实时监控训练指标,支持仪表盘和告警
hf-cli通过命令行管理 Hub 仓库:下载、上传、认证、缓存管理

应用开发

技能说明
huggingface-gradio使用 Gradio 构建 Python Web UI 和交互式 ML 演示
transformers-js在 JavaScript/TypeScript 中直接运行 ML 模型,支持浏览器和 Node.js

研究与评估

技能说明
hugging-face-evaluation管理模型评估结果,导入外部 API 评分
hugging-face-paper-publisher将研究论文发布到 Hub
hugging-face-paper-pages访问论文元数据和内容
hugging-face-tool-builder构建可复用的 Hub API 自动化脚本

安装与配置

Claude Code 安装

Claude Code 使用 Plugin Marketplace 机制管理 Skills。

第一步:注册 Marketplace

/plugin marketplace add huggingface/skills

第二步:安装所需技能

# 安装单个技能
/plugin install hugging-face-model-trainer@huggingface/skills

# 安装多个常用技能
/plugin install huggingface-gradio@huggingface/skills
/plugin install hugging-face-datasets@huggingface/skills
/plugin install hugging-face-jobs@huggingface/skills

安装完成后,Claude Code 会在相关对话中自动加载对应技能。

OpenAI Codex 安装

Codex 遵循 Agent Skills 标准,自动发现 .agents/skills 目录下的技能:

# 克隆仓库
git clone https://github.com/huggingface/skills.git

# 复制或软链接技能到 Codex 技能目录
cp -r skills/hugging-face-model-trainer .agents/skills/
# 或使用软链接
ln -s $(pwd)/skills/hugging-face-model-trainer .agents/skills/

Gemini CLI 安装

# 从 GitHub 直接安装
gemini extensions install https://github.com/huggingface/skills.git --consent

Cursor 安装

Cursor 使用仓库中预配置的清单文件(.cursor-plugin/plugin.json.mcp.json),按 Cursor 官方文档将仓库添加为插件源即可。

核心技能详解

模型训练器(Model Trainer)

这是 Skills 中最强大的技能之一,让你通过自然语言在云 GPU 上训练和微调大语言模型。

支持的训练方法

硬件选择参考

模型规模推荐硬件参考费用
< 1B 参数T4 Small~$0.75/小时
1-3B 参数T4 Medium / L4x1~$1.50-2.50/小时
3-7B 参数A10G Small/Large~$3.50-5.00/小时
7-13B 参数A10G Large / A100 Large~$5-10/小时
13B+ 参数A100 Large / A10G Largex2~$10-20/小时

使用 LoRA/PEFT 可以显著降低大模型的显存需求。

使用示例

在 Claude Code 中,你可以这样使用模型训练器:

用 HF 模型训练器技能,使用 SFT 方法在 A10G 上微调 Qwen2.5-7B,
数据集用 my-org/my-dataset,训练 3 个 epoch,启用 LoRA。

AI 助手会自动完成以下工作:

  1. 验证你的 HF 账户权限和 Token
  2. 检查数据集格式是否兼容 SFT 训练
  3. 生成 UV 脚本(PEP 723 格式),内联所有依赖
  4. 配置 Trackio 实时监控
  5. 通过 hf_jobs() 提交训练任务
  6. 返回任务 ID 和监控链接

关键注意事项

视觉模型训练器(Vision Trainer)

专注于计算机视觉任务的云端微调。

支持的任务类型

目标检测

图像分类

图像分割

使用示例

用视觉训练器技能,在我的自定义数据集上微调 D-FINE Small 做目标检测,
数据集在 my-org/custom-detection-dataset。

Gradio 技能

让 AI 助手快速构建 Python Web UI 和交互式 ML 演示。

三种构建模式

Interface(高层级):最简单的方式,将一个函数包装为带输入/输出组件的 Web 界面。

import gradio as gr

def greet(name):
    return f"Hello {name}!"

demo = gr.Interface(fn=greet, inputs="text", outputs="text")
demo.launch()

Blocks(低层级):灵活的布局系统,支持复杂的事件绑定和自定义 UI。

import gradio as gr

with gr.Blocks() as demo:
    name = gr.Textbox(label="Name")
    output = gr.Textbox(label="Greeting")
    btn = gr.Button("Greet")
    btn.click(fn=lambda n: f"Hello {n}!", inputs=name, outputs=output)

demo.launch()

ChatInterface(聊天界面):专为聊天机器人设计的高层级封装。

使用示例

用 Gradio 技能,创建一个图像分类演示应用,
使用 ResNet50 模型,支持上传图片并显示 Top-5 预测结果。

Transformers.js 技能

在 JavaScript/TypeScript 环境中直接运行 ML 模型,无需后端服务器。

核心特点

使用示例

用 Transformers.js 技能,创建一个 Node.js 脚本,
使用 sentiment-analysis pipeline 分析用户评论的情感倾向。

数据集管理技能

核心能力

使用示例

用数据集技能,创建一个 SFT 格式的对话数据集,
包含中文问答对,发布到 my-org/chinese-qa-dataset。

实验监控(Trackio)

三大接口

  1. Python API(日志):通过 trackio.init()trackio.log()trackio.finish() 记录训练指标
  2. Python API(告警):使用 trackio.alert() 插入诊断告警,支持 INFO、WARN、ERROR 三个级别
  3. CLI(查询):通过命令行查询实验数据,支持 JSON 输出

自主 Agent 集成

Trackio 的告警机制是 AI Agent 自主迭代 ML 实验的关键:

实战工作流示例

从零开始训练一个聊天模型

以下是一个完整的工作流示例,展示如何组合多个 Skills 完成端到端的 ML 任务:

第一步:准备数据集

用数据集技能,查看 HuggingFaceFW/fineweb-edu 的数据结构和样本,
然后创建一个 SFT 格式的子集用于训练。

第二步:估算成本

用模型训练器技能,估算在 A10G Large 上微调 Qwen2.5-7B 的成本,
数据集约 10000 条,训练 3 个 epoch。

第三步:提交训练任务

用模型训练器技能,使用 SFT 方法微调 Qwen2.5-7B,
启用 LoRA(rank=16),配置 Trackio 监控,
硬件选择 A10G Large,超时设置 3 小时。

第四步:监控训练

查看刚才提交的训练任务状态,检查 Trackio 仪表盘上的 loss 曲线。

第五步:构建演示应用

用 Gradio 技能,为训练好的模型创建一个聊天演示界面,
部署为 Hugging Face Space。

构建一个目标检测应用

第一步:准备数据

用数据集查看器技能,检查 my-org/traffic-signs 数据集的标注格式和类别分布。

第二步:训练模型

用视觉训练器技能,使用 D-FINE Small 在 traffic-signs 数据集上训练目标检测模型,
硬件选择 A10G Small,训练 20 个 epoch。

第三步:创建演示

用 Gradio 技能,创建一个目标检测演示:用户上传图片,
模型标注出所有检测到的交通标志,显示类别和置信度。

SKILL.md 结构解析

理解 SKILL.md 的结构有助于你创建自定义技能或更好地使用现有技能。

基本结构

---
name: my-custom-skill
description: 这个技能用于...当用户需要...时触发
---

# 技能标题

## 关键指令
- 必须遵守的规则

## 使用方法
- 具体操作步骤

## 参考脚本
- scripts/helper.py:用于...

设计要点

创建自定义技能

你可以为自己的工作流创建自定义技能。

步骤

  1. 复制模板:从现有技能文件夹复制并重命名
cp -r skills/huggingface-gradio skills/my-custom-skill
  1. 编写 SKILL.md:更新名称、描述和操作指南
---
name: my-custom-skill
description: 这个技能用于在本地 GPU 上运行推理测试...
---
  1. 添加辅助脚本:如果需要,创建 AI 助手可以调用的 Python 脚本

  2. 注册到 Marketplace:在 .claude-plugin/marketplace.json 中添加条目

  3. 验证发布:运行 ./scripts/publish.sh 验证元数据一致性

最佳实践

与 MCP Server 的关系

Hugging Face Skills 与 Hugging Face MCP Server 是互补的:

维度SkillsMCP Server
定位操作指南和工作流编排工具接口和 API 调用
作用告诉 AI 怎么做提供 AI 做事的工具
内容Markdown 指令 + 脚本API endpoint 定义
示例”训练模型时必须配置 push_to_hub”hf_jobs() 工具调用

在实际使用中,Skills 提供操作流程和最佳实践,MCP Server 提供执行操作的具体工具。两者配合使用效果最佳。

常见问题

Skills 是免费的吗?

Skills 本身是开源免费的(Apache 2.0 许可证)。但某些技能依赖的 Hugging Face 基础设施(如 Jobs、Inference Endpoints)需要付费计划(Pro、Team 或 Enterprise)。

需要本地 GPU 吗?

大多数训练类技能通过 Hugging Face Jobs 在云端 GPU 上运行,不需要本地 GPU。Transformers.js 技能可以在 CPU 上运行推理。

如何查看已安装的技能?

在 Claude Code 中使用 /plugin list 命令查看已安装的技能列表。

训练结果会丢失吗?

HF Jobs 的执行环境是临时的。Skills 中的指令会强制 AI 助手配置 push_to_hub=True,将模型推送到 Hugging Face Hub 持久保存。如果没有正确配置,训练结果确实会在任务结束后丢失。

可以离线使用吗?

Skills 的安装和大多数操作需要网络连接。Gradio 应用在启动后可以在本地访问,Transformers.js 在下载模型后可以离线推理。

总结

Hugging Face Skills 将专业的 ML 知识封装为标准化的技能包,让 AI 编程助手能够胜任从数据准备到模型部署的完整工作流。它的核心价值在于:

如果你正在使用 AI 编程助手进行 ML 开发,强烈建议安装 Hugging Face Skills,让你的 AI 助手真正成为一名 ML 工程师。

参考资源


Share this post on:

Previous Post
把 AI 训成 S 级员工:高效训练 Skills 的 4 个真实翻车教训
Next Post
Claude Code 完全指南:AI 驱动的智能编程助手