2023-08-13 19:12:03

根据一份新报告,构建ChatGPT的人工智能内容过滤器会破坏员工的心理健康

根据一份新报告,构建ChatGPT的人工智能内容过滤器会破坏员工的心理健康

内容审核是一项臭名昭著的肮脏工作,围绕它的蓬勃发展的劳务外包行业经常面临激烈的道德审查,因为它将人类员工置于互联网最黑暗的角落。周三,该公司发表了一篇新的深入调查Sama的文章,这家公司最近为OpenAI提供了一些专门负责阅读互联网上一些最糟糕内容的工人。

尽管这项努力的总体目标是为流行的、值得关注的ChatGPT程序开发有用和必要的内部人工智能过滤器,但根据这份新报告,前Sama员工表示,他们现在因为在工作期间筛选成千上万个描述性侵犯、**、**、虐待儿童、酷刑和**的可怕在线文本节选而患上了创伤后应激障碍。更不用说,该报告指出,这些员工主要在肯尼亚工作,每小时的工资不到2美元。

OpenAI的ChatGPT很快成为去年最受关注的技术突破之一,因为它能够从几乎任何人类提示中近乎即时地生成创造性文本。虽然类似的程序已经存在,但它们经常倾向于喷吐仇恨和彻头彻尾的辱骂内容,因为它们无法从内部识别被用作生成参考点的互联网写作中的有毒物质。

ChatGPT的用户已经超过了100万,基本上没有这些问题(尽管还有许多其他担忧),这主要归功于一个额外的内置人工智能过滤系统,该系统旨在省略大部分互联网的糟糕之处。但是,尽管它们很实用,目前的人工智能程序还没有足够的自我意识来注意到不合适的材料——它们首先需要经过人类的训练来标记各种上下文关键字和主题。

Sama是一家总部位于美国的数据标签公司,在其主页上被标榜为“人工智能发展的下一个时代”,该公司在肯尼亚、印度和乌干达为硅谷企业雇佣了工人,声称通过提供就业机会,已经帮助全球5万多人摆脱了贫困。然而,根据通过数百页的内部文件、合同和工人工资单进行的研究,几十名工人的每小时工资在1.32美元到2美元之间,他们的成本相当于自我描述的“折磨”。

员工们声称,他们的工作时间远远超过了规定的时间,每天要筛选150到250段令人不安的文本,并将内容标记为ChatGPT的人工智能过滤培训。尽管据报道提供健康咨询服务,但Sama的员工仍然经历了挥之不去的情感和精神创伤,超出了这些服务的能力。在提供给Sama的一份声明中,Sama对工作量提出了异议,并表示他们的承包商每班只需要审查大约70份文本。

科技文化评论家、《大众科学》(PopSci)的作者帕里斯·马克思(Paris Marx)在接受《大众科学》(PopSci)采访时解释说:“这些公司向我们展示的人工智能和自动化技术,好像它们会淘汰工人,但实际上情况并非如此。”“……这又是Facebook内容审核员的故事——其中一些人也受雇于肯尼亚的Sama。”

马克思认为,避免这种精神和身体剥削的唯一方法是在科技行业内进行大规模的文化改造,目前感觉这是不太可能的。“这是这些公司选择的人工智能开发模式,”他们写道,“改变它需要完全颠覆他们所做的目标和基本假设。”

Sama最初与OpenAI就该项目签订了价值20万美元的内容审核合同,但据报道,Sama很早就切断了联系,转而专注于“计算机视觉数据注释解决方案”。OpenAI目前正在与投资者谈判,以筹集290亿美元的估值,其中100亿美元可能来自微软。此前有报道称,OpenAI预计今年的收入将达到2亿美元,到2024年将超过10亿美元。正如最新的exposé再次揭示的那样,这些利润往往是以日常劳动者的重大幕后成本为代价的。