yao 发表于 1-20 22:53

AI 的剥削:肯尼亚工人训练 ChatGPT,看大量有害内容心理受伤

AI 的剥削:肯尼亚工人训练 ChatGPT,看大量有害内容心理受伤

1 月 18 日,美国《时代》杂志发布调查报道称,为了降低 ChatGPT 的危害性,其开发公司 OpenAI 以每小时不到 2 美元的价格雇佣肯尼亚工人打标签。

这项工作对 OpenAI 至关重要。ChatGPT 所依赖的 GPT 大型语言模型虽然已展示出令人印象深刻的文本能力,但目前的 GPT-3 还存在很多问题,总是脱口而出暴力、性别歧视和种族主义言论。

为了建立安全系统以控制这种危害,OpenAI 借鉴了 Facebook 等社交媒体的做法。通过给人工智能提供有关暴力、仇恨言论和性虐待的例子,让检测器就可以学会检测言论危害,再将检测器内置到 ChatGPT 中,就可以在仇恨言论到达用户之前将其过滤掉,还可以帮助从人工智能的训练数据集中清除有害文本。

这一切,是通过肯尼亚工人阅读大量仇恨言论并打上数据标签实现的,其中一些员工表示自己已经出现心理问题。这些数据标签工人的工作条件揭示了科技图景中的黑暗部分:虽然人工智能很有魅力,但它往往依赖于隐藏的人力劳动,具有破坏性和剥削性。
页: [1]
查看完整版本: AI 的剥削:肯尼亚工人训练 ChatGPT,看大量有害内容心理受伤

博一网
www.bo-yi.com
点击查看放大的二维码
订阅号:jc68com
点击查看放大的二维码
服务号:jc68-1
点击查看放大的二维码
移动端二维码
腾讯微博
腾讯微博
新浪微博
新浪微博