在当今时代,AI 的迅猛发展无疑是科技领域最耀眼的篇章。从惊艳世人的图像生成,到智能高效的语言交互,AI 正以超乎想象的速度重塑着我们的生活与未来。然而,在这看似光鲜亮丽、一路狂飙的 AI 浪潮背后,却隐藏着一段鲜为人知的故事,关乎一群 “隐形人” 的艰辛付出与无奈挣扎。

就在昨天,马斯克的 xAI 内部掀起了一场令人震惊的风暴 —— 大规模裁员。首当其冲的便是数据标注团队,500 名通用标注员在一夜之间失去了工作。原本热闹的 Slack 群聊,成员人数从 1500 人锐减至 1000 人,宛如一场突如其来的暴风雨,瞬间打破了许多人平静的工作生活。xAI 通过邮件向员工宣布了战略转型,直言不再需要大多数 “通用导师”,未来将全力扩充 “专家导师” 团队。这些被裁的员工,前一晚或许还在全神贯注地为 Grok 输入知识,试图让这个 AI 更加聪慧,可一觉醒来,便被无情地切断了系统权限,只能无奈等待着合同期末或 11 月底才能拿到的工资。
值得注意的是,在这场裁员风暴来临之前,团队管理层便已发生人事震荡。新领导上台后,要求员工临时完成一系列涵盖范围极广的测试,从严谨的 STEM 领域,到复杂的网络喷子与沉迷者相关内容,甚至要求员工通宵完成。这无疑给本就承受着高强度工作压力的数据标注员们雪上加霜,也让整个团队陷入了极度紧张与不安的氛围之中。而如今,只要 xAI 认为不再需要你,那么无论你曾经为公司付出过多少,都可能瞬间被踢出群聊,失去这份工作。
与此同时,谷歌的数据标注员们也正深陷困境。英国卫报的报道,将谷歌 AI 外包体系背后的问题曝光于大众视野。谷歌的 AI 外包体系宛如一张无形却又紧密的 “隐形的网”,困住了众多数据标注员。许多人在入职时,以为自己从事的是 “写作” 或 “分析” 等相对体面的工作,然而第一天到岗,便被现实狠狠打脸,直接被安排去审核 Gemini 生成的大量暴力、色情内容。而且,工作要求愈发严苛,原本每个任务还能有 30 分钟的处理时间,如今却被压缩到 15 分钟甚至更少,每天还要处理几百条回答。不仅如此,数据标注员们还被迫涉足自己并不熟悉的领域去处理问题,这不仅让他们对工作质量深感担忧,也极大地增加了工作难度与心理负担。
有数据标注员透露,他们审核过的内容中,包含了诸多关于强奸、杀戮、种族歧视等令人不适的 “轻描淡写” 问题,这些负面信息如同阴影一般,笼罩着他们的生活,导致许多人焦虑失眠,精神状态每况愈下。在美国,“AI 评估员” 的起薪仅为 16 美元 / 小时,虽说相较于非洲或南美的标注员已经高出不少,但与硅谷工程师的高薪相比,却有着天壤之别。正如一位工人所形容的那样:“AI 就是建立在一层层人类劳动之上的金字塔。” 数据标注员们处于这座金字塔的中间层,他们看似不可或缺,实则随时都可能被替代,成为 AI 发展进程中最容易被忽视却又默默承受着巨大压力的群体。
数据标注,作为训练 LLM 的核心环节,对于 Gemini、Llama 等大模型的迭代发展起着关键基石的作用。然而,在大模型一次次创造奇迹、霸榜各种测评的光鲜背后,数据标注员们的付出与遭遇却鲜有人问津。AI 企业一方面高喊着 “安全第一” 的口号,试图让公众相信他们对 AI 发展的谨慎态度;另一方面,却在利益的驱使下加速推出新功能,全然不顾背后可能隐藏的风险与问题。谷歌的 AI 曾在回答 “奶酪不粘披萨” 的问题时,给出让用户在面团上涂胶水这样荒谬的建议,甚至还推荐过 “吃石头”,而工人们对此却表示并不意外,因为他们在日常工作中,见到过太多比这更荒谬、更危险的回答。今年年初,谷歌更是悄悄修改规则,允许模型复述用户输入的仇恨或色情语言,只要不是 AI 主动生成,就被判定为 “不违规”。相关研究学者 Adio Dinika 尖锐地指出:“AI 安全只优先到影响速度的那一刻。一旦威胁到利润,安全承诺就立刻崩塌。” 在这场 AI 的竞赛中,企业为了追求速度与利润,选择了牺牲安全与工人的尊严,而数据标注员们则成为了这场博弈中的最大受害者。
当我们每一次惊叹于 AI 给出的 “神奇回答” 时,或许都应该静下心来想一想,在这背后,是无数数据标注员们在默默地 “替 AI 擦屁股”。他们用自己的时间、精力,甚至是身心健康,为 AI 的发展铺就了道路。而如今,他们却面临着失业、高压、低薪等诸多困境。我们不能仅仅看到 AI 带来的便捷与创新,更应该关注到那些为 AI 发展付出辛勤努力的人们,给予他们应有的尊重与保障。毕竟,没有这些 “隐形人” 的默默奉献,就不会有如今 AI 的辉煌成就。未来,希望 AI 的发展能够更加人性化,在追求技术进步的同时,也能兼顾到每一位劳动者的权益,让科技真正成为造福人类的力量,而不是带来伤痛与无奈的源头。