Mapping-Skill介绍
链接
简介
Mapping-Skill 是一个面向 Claude Code / OpenClaw 的 AI 招聘与人才 Mapping 工作流技能,专门用于解决 AI/ML 人才搜索效率低、信息分散、整理成本高、触达内容难个性化 这些常见问题。它将原本需要人工分步完成的流程——例如搜索候选人、抓取实验室成员信息、提取 OpenReview / CVF 会议作者、挖掘 GitHub 研究者、整理主页/Scholar/GitHub/邮箱/研究方向、识别华人候选人、分类去重,以及生成个性化招聘邮件——整合成一套可复用、可扩展、可直接落地到飞书表格的完整工作流。
对于正在做 AI 人才招聘、学术人才 Mapping、实验室人才发现、论文作者线索收集 的团队来说,Mapping-Skill 不只是一个“爬取工具”,更像是一个可以协助完成从“发现候选人”到“生成触达材料”的智能工作助手。它的价值在于:不仅能帮你找到人,更能帮你把分散的信息整理成结构化结果,并进一步服务于后续筛选、协作与沟通。
配置Mapping-SKill
开通飞书相关权限
{
"scopes": {
"tenant": [
"contact:contact.base:readonly",
"docx:document:readonly",
"im:chat:read",
"im:chat:update",
"im:message.group_at_msg:readonly",
"im:message.p2p_msg:readonly",
"im:message.pins:read",
"im:message.pins:write_only",
"im:message.reactions:read",
"im:message.reactions:write_only",
"im:message:readonly",
"im:message:recall",
"im:message:send_as_bot",
"im:message:send_multi_users",
"im:message:send_sys_msg",
"im:message:update",
"im:resource",
"application:application:self_manage",
"cardkit:card:write",
"cardkit:card:read"
],
"user": [
"contact:user.employee_id:readonly",
"offline_access","base:app:copy",
"base:field:create",
"base:field:delete",
"base:field:read",
"base:field:update",
"base:record:create",
"base:record:delete",
"base:record:retrieve",
"base:record:update",
"base:table:create",
"base:table:delete",
"base:table:read",
"base:table:update",
"base:view:read",
"base:view:write_only",
"base:app:create",
"base:app:update",
"base:app:read",
"sheets:spreadsheet.meta:read",
"sheets:spreadsheet:read",
"sheets:spreadsheet:create",
"sheets:spreadsheet:write_only",
"docs:document:export",
"docs:document.media:upload",
"board:whiteboard:node:create",
"board:whiteboard:node:read",
"calendar:calendar:read",
"calendar:calendar.event:create",
"calendar:calendar.event:delete",
"calendar:calendar.event:read",
"calendar:calendar.event:reply",
"calendar:calendar.event:update",
"calendar:calendar.free_busy:read",
"contact:contact.base:readonly",
"contact:user.base:readonly",
"contact:user:search",
"docs:document.comment:create",
"docs:document.comment:read",
"docs:document.comment:update",
"docs:document.media:download",
"docs:document:copy",
"docx:document:create",
"docx:document:readonly",
"docx:document:write_only",
"drive:drive.metadata:readonly",
"drive:file:download",
"drive:file:upload",
"im:chat.members:read",
"im:chat:read",
"im:message",
"im:message.group_msg:get_as_user",
"im:message.p2p_msg:get_as_user",
"im:message:readonly",
"search:docs:read",
"search:message",
"space:document:delete",
"space:document:move",
"space:document:retrieve",
"task:comment:read",
"task:comment:write",
"task:task:read",
"task:task:write",
"task:task:writeonly",
"task:tasklist:read",
"task:tasklist:write",
"wiki:node:copy",
"wiki:node:create",
"wiki:node:move",
"wiki:node:read",
"wiki:node:retrieve",
"wiki:space:read",
"wiki:space:retrieve",
"wiki:space:write_only"
]
}
}
安装Mapping-Skill
https://github.com/16Miku/Mapping-Skill
安装这个skill
安装BrightData-MCP服务(可选)
- 使用企业邮箱,注册BrightData官网账号
https://www.bright.cn/ - 创建API KEY。
- 配置MCP服务链接,选择要用的工具。
- 复制链接。
- 发送下面内容给OpenClaw
"brightdata": {
"type": "sse",
"url": "https://mcp.brightdata.com/sse?token=<your_token>&groups=advanced_scraping,social,browser,research,app_stores"
},
配置下Brightdata的mcp服务
工作流演示
1、爬取OpenReview网站收录论文(如ICLR2025)
适用于 https://openreview.net/ 网站收录的所有国际学术会议。
重点干货:提示词(记着替换网站链接)
请执行 OpenReview 论文爬取任务:
1. 使用 /root/.openclaw/skills/Mapping-Skill/scripts/openreview_scraper.py 脚本
2. 初始化爬虫时使用 api2.openreview.net 端点:
scraper = OpenReviewScraper(
username='XXXXXXXX',
password='XXXXXXXX',
baseurl='https://api2.openreview.net'
)
3. 爬取 ICLR2025 的 5 篇论文(测试)+ https://openreview.net/group?id=ICLR.cc/2025/Conference#tab-accept-oral(记着替换链接)
4. 保存 CSV 到 /tmp/ 目录
5. 创建新的飞书多维表格,按照Mapping-Skill/scripts/openreview_scraper.py 脚本中爬取的数据来创建相应字段
6. 批量导入数据到多维表格
7. 返回多维表格链接和统计信息
演示效果
选一篇论文检验是否信息正确
2、爬取OpenAccess网站收录论文(如CVPR2025)
适用于https://openaccess.thecvf.com/ 网站收录的所有国际学术会议。
重点干货:提示词(记着替换网站链接)
请执行 CVF 论文爬取任务:
1. 使用 /root/.openclaw/skills/Mapping-Skill/scripts/cvf_paper_scraper.py 脚本
2. 严格按照脚本中的 extract_emails_from_text() 函数提取邮箱
3. 爬取 ICCV2025 的 5 篇论文(测试)+ https://openaccess.thecvf.com/ICCV2025?day=all(记着替换链接)
4. 保存 CSV 到 /tmp/ 目录
5. 创建新的飞书多维表格,按照Mapping-Skill/scripts/cvf_paper_scraper.py 脚本中爬取的数据来创建相应字段
6. 批量导入数据到多维表格
7. 返回多维表格链接和邮箱提取统计
演示效果
五个作者邮箱均提取到了。
一个邮箱提取到了
论文中无邮箱
论文中无邮箱
论文中无邮箱
3、在飞书表格批量写邮件
重点干货:提示词(记着替换表格链接)
请执行论文作者邮件生成任务:
【数据源】
表格链接:
【第一步:解析表格链接】
1. 从链接中提取 app_token(格式:/base/{app_token})
2. 调用 feishu_bitable_app_table 的 list 接口获取 table_id
3. 验证表格可访问性
【第二步:分批读取论文数据】
1. 使用 feishu_bitable_app_table_record 的 list 操作
2. 分批读取(每批50条),使用 page_token 分页
3. 只提取必要字段:记录ID、论文标题、作者、邮箱、机构
4. 过滤条件:只处理有邮箱的记录
【第三步:确定研究领域】
1. 读取 /root/.openclaw/skills/Mapping-Skill/references/field-mappings.md
2. 根据论文标题和关键词,使用映射规则确定研究领域
3. 示例:
- "Symmetry Understanding of 3D Shapes" → Computer Vision
- "Efficient Adaptation of Vision Transformer" → NLP
【第四步:生成个性化邮件】
1. 读取 /root/.openclaw/skills/Mapping-Skill/references/email-templates.md
2. 根据研究领域选择对应模板(共22个领域)
3. 填充占位符:
- {{researcher_name}} → 第一作者姓名
- {{context_affiliation}} → 机构
- {{research_field}} → 研究领域
- {{technical_hook}} → 基于论文标题生成
- {{talk_track_paragraph}} → 从 talk-tracks.md 选择
【第五步:批量更新多维表格】
1. 在多维表格中创建新字段:"推荐邮件"(多行文本)
2. 使用 batch_update 批量更新每条记录
3. 每批最多 500 条
【第六步:验证和统计】
1. 验证邮件内容个性化
2. 返回统计:总计 X 条 / 成功 Y 条 / 失败 Z 条
3. 列出失败原因
【输出】
- 多维表格链接
- 生成统计
- 失败原因列表
演示效果
4、给定某URL爬虫
重点干货:提示词(记着替换表格链接)
1、请你调用BrightData-MCP工具,或者编写爬虫脚本,爬取 <某网站URL> 页面中的所有人员信息。
2、提取信息包括中文名,英文名,个人介绍信息、学术方向、学校和专业信息、工作经历、近期论文著作信息(包含论文名和论文链接)、github链接、个人主页链接、谷歌学术链接、领英链接、知乎链接、B站链接、邮箱等。
3、当前页面缺少邮箱的话,需要进入学者主页或论文链接页面,从里面提取作者们的邮箱。
4、保存到csv文件,然后将csv导入飞书多维表格。