Mapping-Skill:把 AI/ML 人才搜索、作者挖掘与个性化触达整合成一条工作流

0 阅读6分钟

Mapping-Skill介绍

链接

github.com/16Miku/Mapp…

clawhub.ai/16Miku/mapp…

简介

Mapping-Skill 是一个面向 Claude Code / OpenClaw 的 AI 招聘与人才 Mapping 工作流技能,专门用于解决 AI/ML 人才搜索效率低、信息分散、整理成本高、触达内容难个性化 这些常见问题。它将原本需要人工分步完成的流程——例如搜索候选人、抓取实验室成员信息、提取 OpenReview / CVF 会议作者、挖掘 GitHub 研究者、整理主页/Scholar/GitHub/邮箱/研究方向、识别华人候选人、分类去重,以及生成个性化招聘邮件——整合成一套可复用、可扩展、可直接落地到飞书表格的完整工作流。

对于正在做 AI 人才招聘、学术人才 Mapping、实验室人才发现、论文作者线索收集 的团队来说,Mapping-Skill 不只是一个“爬取工具”,更像是一个可以协助完成从“发现候选人”到“生成触达材料”的智能工作助手。它的价值在于:不仅能帮你找到人,更能帮你把分散的信息整理成结构化结果,并进一步服务于后续筛选、协作与沟通。

配置Mapping-SKill

开通飞书相关权限

OpenClaw飞书官方插件使用指南(公开版)

{
  "scopes": {
    "tenant": [
      "contact:contact.base:readonly",
      "docx:document:readonly",
      "im:chat:read",
      "im:chat:update",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message.pins:read",
      "im:message.pins:write_only",
      "im:message.reactions:read",
      "im:message.reactions:write_only",
      "im:message:readonly",
      "im:message:recall",
      "im:message:send_as_bot",
      "im:message:send_multi_users",
      "im:message:send_sys_msg",
      "im:message:update",
      "im:resource",
      "application:application:self_manage",
      "cardkit:card:write",
      "cardkit:card:read"
    ],
    "user": [
      "contact:user.employee_id:readonly",
      "offline_access","base:app:copy",
      "base:field:create",
      "base:field:delete",
      "base:field:read",
      "base:field:update",
      "base:record:create",
      "base:record:delete",
      "base:record:retrieve",
      "base:record:update",
      "base:table:create",
      "base:table:delete",
      "base:table:read",
      "base:table:update",
      "base:view:read",
      "base:view:write_only",
      "base:app:create",
      "base:app:update",
      "base:app:read",
      "sheets:spreadsheet.meta:read",
      "sheets:spreadsheet:read",
      "sheets:spreadsheet:create",
      "sheets:spreadsheet:write_only",
      "docs:document:export",
      "docs:document.media:upload",
      "board:whiteboard:node:create",
      "board:whiteboard:node:read",
      "calendar:calendar:read",
      "calendar:calendar.event:create",
      "calendar:calendar.event:delete",
      "calendar:calendar.event:read",
      "calendar:calendar.event:reply",
      "calendar:calendar.event:update",
      "calendar:calendar.free_busy:read",
      "contact:contact.base:readonly",
      "contact:user.base:readonly",
      "contact:user:search",
      "docs:document.comment:create",
      "docs:document.comment:read",
      "docs:document.comment:update",
      "docs:document.media:download",
      "docs:document:copy",
      "docx:document:create",
      "docx:document:readonly",
      "docx:document:write_only",
      "drive:drive.metadata:readonly",
      "drive:file:download",
      "drive:file:upload",
      "im:chat.members:read",
      "im:chat:read",
      "im:message",
      "im:message.group_msg:get_as_user",
      "im:message.p2p_msg:get_as_user",
      "im:message:readonly",
      "search:docs:read",
      "search:message",
      "space:document:delete",
      "space:document:move",
      "space:document:retrieve",
      "task:comment:read",
      "task:comment:write",
      "task:task:read",
      "task:task:write",
      "task:task:writeonly",
      "task:tasklist:read",
      "task:tasklist:write",
      "wiki:node:copy",
      "wiki:node:create",
      "wiki:node:move",
      "wiki:node:read",
      "wiki:node:retrieve",
      "wiki:space:read",
      "wiki:space:retrieve",
      "wiki:space:write_only"
    ]
  }
}

安装Mapping-Skill

https://github.com/16Miku/Mapping-Skill
安装这个skill

安装BrightData-MCP服务(可选)

  1. 使用企业邮箱,注册BrightData官网账号 https://www.bright.cn/
  2. 创建API KEY。
  3. 配置MCP服务链接,选择要用的工具。
  4. 复制链接。
  5. 发送下面内容给OpenClaw
"brightdata": {
      "type": "sse",
      "url": "https://mcp.brightdata.com/sse?token=<your_token>&groups=advanced_scraping,social,browser,research,app_stores"
    },

配置下Brightdata的mcp服务

工作流演示

1、爬取OpenReview网站收录论文(如ICLR2025)

适用于 https://openreview.net/ 网站收录的所有国际学术会议。

重点干货:提示词(记着替换网站链接)

请执行 OpenReview 论文爬取任务:
1. 使用 /root/.openclaw/skills/Mapping-Skill/scripts/openreview_scraper.py 脚本
2. 初始化爬虫时使用 api2.openreview.net 端点:
   scraper = OpenReviewScraper(
       username='XXXXXXXX',
       password='XXXXXXXX',
       baseurl='https://api2.openreview.net'
   )
3. 爬取 ICLR2025 的 5 篇论文(测试)+ https://openreview.net/group?id=ICLR.cc/2025/Conference#tab-accept-oral(记着替换链接)
4. 保存 CSV 到 /tmp/ 目录
5. 创建新的飞书多维表格,按照Mapping-Skill/scripts/openreview_scraper.py 脚本中爬取的数据来创建相应字段
6. 批量导入数据到多维表格
7. 返回多维表格链接和统计信息

演示效果

选一篇论文检验是否信息正确

2、爬取OpenAccess网站收录论文(如CVPR2025)

适用于https://openaccess.thecvf.com/ 网站收录的所有国际学术会议。

重点干货:提示词(记着替换网站链接)

请执行 CVF 论文爬取任务:
1. 使用 /root/.openclaw/skills/Mapping-Skill/scripts/cvf_paper_scraper.py 脚本
2. 严格按照脚本中的 extract_emails_from_text() 函数提取邮箱
3. 爬取 ICCV2025 的 5 篇论文(测试)+ https://openaccess.thecvf.com/ICCV2025?day=all(记着替换链接)
4. 保存 CSV 到 /tmp/ 目录
5. 创建新的飞书多维表格,按照Mapping-Skill/scripts/cvf_paper_scraper.py 脚本中爬取的数据来创建相应字段
6. 批量导入数据到多维表格
7. 返回多维表格链接和邮箱提取统计

演示效果

五个作者邮箱均提取到了。

一个邮箱提取到了

论文中无邮箱

论文中无邮箱

论文中无邮箱

3、在飞书表格批量写邮件

重点干货:提示词(记着替换表格链接)

请执行论文作者邮件生成任务:
【数据源】
表格链接:
【第一步:解析表格链接】
1. 从链接中提取 app_token(格式:/base/{app_token})
2. 调用 feishu_bitable_app_table 的 list 接口获取 table_id
3. 验证表格可访问性
【第二步:分批读取论文数据】
1. 使用 feishu_bitable_app_table_record 的 list 操作
2. 分批读取(每批50条),使用 page_token 分页
3. 只提取必要字段:记录ID、论文标题、作者、邮箱、机构
4. 过滤条件:只处理有邮箱的记录
【第三步:确定研究领域】
1. 读取 /root/.openclaw/skills/Mapping-Skill/references/field-mappings.md
2. 根据论文标题和关键词,使用映射规则确定研究领域
3. 示例:
   - "Symmetry Understanding of 3D Shapes" → Computer Vision
   - "Efficient Adaptation of Vision Transformer" → NLP
【第四步:生成个性化邮件】
1. 读取 /root/.openclaw/skills/Mapping-Skill/references/email-templates.md
2. 根据研究领域选择对应模板(共22个领域)
3. 填充占位符:
   - {{researcher_name}} → 第一作者姓名
   - {{context_affiliation}} → 机构
   - {{research_field}} → 研究领域
   - {{technical_hook}} → 基于论文标题生成
   - {{talk_track_paragraph}} → 从 talk-tracks.md 选择
【第五步:批量更新多维表格】
1. 在多维表格中创建新字段:"推荐邮件"(多行文本)
2. 使用 batch_update 批量更新每条记录
3. 每批最多 500 条
【第六步:验证和统计】
1. 验证邮件内容个性化
2. 返回统计:总计 X 条 / 成功 Y 条 / 失败 Z 条
3. 列出失败原因
【输出】
- 多维表格链接
- 生成统计
- 失败原因列表

演示效果

4、给定某URL爬虫

重点干货:提示词(记着替换表格链接)

1、请你调用BrightData-MCP工具,或者编写爬虫脚本,爬取 <某网站URL> 页面中的所有人员信息。
2、提取信息包括中文名,英文名,个人介绍信息、学术方向、学校和专业信息、工作经历、近期论文著作信息(包含论文名和论文链接)、github链接、个人主页链接、谷歌学术链接、领英链接、知乎链接、B站链接、邮箱等。
3、当前页面缺少邮箱的话,需要进入学者主页或论文链接页面,从里面提取作者们的邮箱。
4、保存到csv文件,然后将csv导入飞书多维表格。

演示效果