Richard Mathenge在2021年开始为OpenAI的GPT模型进行训练时,感到自己找到了理想的工作。在肯尼亚内罗毕从事多年的客户服务工作后,他终于参与到了一项有意义且有前途的事业。然而,尽管这个岗位充满希望,但它也让他身心疲惫,留下了深深的创伤。
每天,Mathenge和他的团队会反复查看露骨的文本并为模型进行标记。他们可以将其分类为儿童性虐待材料、色情性内容、非法、非性别等多种选项。他们阅读的很多内容让他们感到惊恐。Mathenge说,其中一段描绘了一个父亲在孩子面前与动物发生性关系的场景;其他一些涉及儿童强奸的场景。有些内容如此冒犯,Mathenge拒绝谈论他们。他告诉我:“这是无法想象的。”
Mathenge所从事的工作类型对于ChatGPT和Bard等机器人的功能至关重要,但这种工作却被广泛忽视。在一个称为“RLHF”的过程中,机器人通过人类对内容的标记变得更聪明,教会它们如何根据这些反馈进行优化。包括OpenAI的Sam Altman在内的AI领导者们赞扬了这种实践的技术效果,但他们很少谈论某些人为了使AI系统与我们的价值观保持一致所付出的代价。Mathenge和他的同事们就是这个现实的接收端。
在得到这份工作后,Mathenge的第一份工作是自驾车的LiDAR图像进行标注。他会审查这些图像,并挑选出人、其他车辆和物体,帮助模型更好地理解他们在路上遇到的事物。当项目结束后,Mathenge被转移到了OpenAI的模型上。在那里,他遇到了那些令人不安的文本——
他们每天都沉浸在描绘乱伦、兽交和其他露骨场景的文字中,团队开始变得孤立。Mathenge说:“我可以看出我的团队不好,我可以看出他们对上班没有兴趣。我的团队就在传递这样的信号,他们不愿意与这样的文字打交道。”
Mathenge的团队成员Mophat Okinyi仍在处理这个问题的后果。他说,反复暴露于露骨的文本导致了他的失眠、焦虑、抑郁和恐慌症。Okinyi说,他的妻子看到他变了,于是在去年离开了他。“虽然我很高兴看到ChatGPT变得越来越出名,越来越多的人在全球范围内使用它,” Okinyi说,“但是确保它的安全性却摧毁了我的家庭。它摧毁了我的心理健康。说实话,我现在仍在与创伤作斗争。”
你可以在Apple Podcasts、Spotify或你选择的应用上听到原作者与Mathenge的完整对话。
OpenAI知道这些工人应该定期接受咨询,但Okinyi和Mathenge发现这是远远不够的。Mathenge说:“有一段时间,辅导员做了报告,但你可以看出他不是专业的。他没有资格,我很遗憾地说。他只问一些基本的问题,比如‘你叫什么名字?’和‘你觉得你的工作如何?’”
在一份声明中,OpenAI表示,它非常重视员工和承包商的心理健康。“我们首次与Sama接触的原因之一,就是因为他们对良好实践的承诺,”一位发言人说。“我们之前的理解是,Sama提供福利计划和一对一的咨询,工人可以选择退出任何工作而不受处罚,接触露骨内容的次数有限,敏感信息由专门接受过培训的工人处理。”
OpenAI的发言人表示,公司向Sama寻求了更多关于其工作条件的信息。然后,该发言人说,Sama告诉OpenAI,它将退出内容审查领域。Sama没有回应评论请求。
对于Mathenge来说,他在继续这项工作之前评估权衡的想法听起来像是一种奢侈。他只是很高兴能在肯尼亚的经济摇摇欲坠、全球经济关闭之际找到工作。“那是在新冠病毒流行的时期,”他说。“在发展中国家找到工作,本身就是一种福音。”
尽管经历了这一切,Mathenge和他的同事们仍为他们的工作感到自豪。并且,这项工作确实有效。如今,ChatGPT拒绝产出那些团队帮助筛选出的露骨场景,并对可能的非法性行为发出警告。“对我和我们来说,我们感到非常自豪,” Mathenge说。他们虽然自豪,但仍在痛苦中挣扎。
事实上,人工智能的发展与应用在世界范围内受到了广泛关注,尽管我们所看到的是AI技术给我们的生活带来的便利和魅力,但背后的劳动力却承受着沉重的压力和痛苦。许多AI技术,包括OpenAI的GPT模型,都依赖于人工进行内容审查和标注,而审查员需要查看并标记大量的令人震惊和不快的内容。他们的工作是艰苦的,有时甚至令人不堪忍受,却往往被大众所忽视。
这种情况亟需引起全球关注,我们需要为这些为AI发展做出贡献的人提供足够的支持和保护。职业伦理和职业健康是非常重要的,但却往往被人们忽视。即使是在数字化领域中,也同样需要考虑这些问题。我们需要寻找透明和合理的解决方案,以确保这个行业的健康发展和高效运转。
原文:He Helped Train ChatGPT. It Traumatized Him. (bigtechnology.com)