马斯克深夜挥刀:Grok 幕后 1/3 员工失业,AI 数据标注员困境浮出水面

日期:2025-09-15 15:53:44 / 人气:1


当大模型赛道还在为 “多轮对话能力”“行业落地突破” 欢呼时,马斯克旗下 xAI 的一场深夜裁员,撕开了 AI 产业光鲜表象下的 “底层裂痕”——500 名数据标注员一夜失业,占团队三分之一;与此同时,谷歌 Gemini 背后的标注员也正承受着 “高压、低薪、负面信息冲击” 的多重挤压。这些支撑大模型迭代的 “隐形基石”,正在被行业快速发展的车轮无情碾压。

一、xAI 裁员风暴:500 名通用标注员被弃,10 倍 “专家” 将上位

2025 年 9 月 13 日,据《Business Insider》报道,马斯克旗下 xAI 在周五深夜突然启动大规模裁员,约 500 名负责 Grok 模型训练的数据标注员被 “一刀切”,Slack 工作群人数从 1500 人骤降至 1000 人。这场裁员并非临时决定,而是 xAI “战略转型” 的直接结果,却以最冰冷的方式落地。

1. 裁员背后的 “战略转向”

xAI 在发给员工的邮件中明确表示,公司将放弃对 “通用导师”(即通用数据标注员)的依赖,转而重点扩充 “专家导师” 团队 —— 这些专家需具备 STEM(科学、技术、工程、数学)领域专业知识,或能应对 “网络喷子行为分析” 等细分场景。这意味着,过去负责教 Grok “理解基础世界” 的标注员,已被认定为 “低价值产能”。

2. 裁员前的 “残酷筛选”

更令人唏嘘的是,这场裁员并非毫无征兆。据离职员工透露,裁员前几天 xAI 管理层发生人事震荡,新领导上任后立刻要求所有标注员完成 “突击测试”,内容涵盖从高等数学、工程原理到 “如何识别网络极端言论” 等,甚至有员工被要求 “通宵赶工完成测试”。测试结果直接决定去留,不少前一天还在为 Grok 输入知识的员工,第二天就被切断系统权限,仅能拿到 “合同期末或 11 月底” 的工资补偿。

二、谷歌的 “隐形压榨”:高压、低薪与心理创伤

如果说 xAI 的裁员是 “快刀斩乱麻”,谷歌 Gemini 背后的数据标注体系则更像一张 “隐形的网”,将标注员困在 “高压、低薪、心理耗竭” 的循环中。2025 年 9 月,《英国卫报》曝光了谷歌外包标注员的生存现状,揭开了大模型 “霸榜” 背后的代价。

1. “名不副实” 的工作与不断压缩的时间

许多标注员在入职时以为自己从事的是 “AI 内容写作”“逻辑分析” 等光鲜工作,结果第一天就被分配去审核 Gemini 生成的 “暴力、色情、仇恨言论” 内容。最初每个审核任务有 30 分钟处理时间,后来被压缩到 15 分钟,甚至要求 “每天处理数百条违规内容”。更离谱的是,不少标注员被要求审核 “自己完全不了解的领域”—— 比如非医学背景的人要判断 AI 给出的 “疾病治疗建议是否合规”,这不仅让标注员压力倍增,也让他们对 Gemini 的内容质量产生怀疑。

2. 低薪与 “可替代” 的尴尬定位

即便承受如此高压,标注员的薪资却远低于行业平均水平。美国地区的谷歌外包标注员(称为 “AI 评估员”)起薪仅 16 美元 / 小时,虽高于非洲、南美等地的标注员(部分仅 3-5 美元 / 小时),却不足硅谷工程师薪资的 1/5。有标注员无奈表示:“AI 就像一座金字塔,我们是中间那层 —— 没有我们,模型无法迭代;但随时有人能替代我们,所以公司根本不重视。”

3. 负面信息带来的心理创伤

长期接触暴力、色情、仇恨言论,让不少标注员出现严重的心理问题。一名离职员工透露,自己曾审核过 “描述强奸、杀戮细节的 AI 回答”,这些内容让他 “连续几周失眠、焦虑,甚至不敢看新闻”。但谷歌并未提供相应的心理疏导服务,仅要求 “标注员自行调整心态”。

三、行业矛盾:速度压倒伦理,“AI 安全” 成口号

无论是 xAI 的裁员,还是谷歌的压榨,本质上都反映了当前 AI 行业的核心矛盾:在 “快速迭代” 与 “安全伦理” 之间,企业选择了前者;在 “效率提升” 与 “员工权益” 之间,员工成了牺牲者

1. “安全承诺” 的随时崩塌

几乎所有 AI 企业都将 “AI 安全” 作为核心宣传点,但实际操作中却屡屡突破底线。今年年初,谷歌悄悄修改了 Gemini 的内容审核规则:只要 AI 不 “主动生成” 仇恨言论或危险建议,“复述用户输入的违规内容” 就不算违规。这直接导致 Gemini 出现 “建议用户在披萨面团上涂胶水以防奶酪脱落”“推荐‘吃石头补充矿物质’” 等荒谬回答。有标注员直言:“我们每天都能看到比这些更离谱的内容,但公司只关心‘模型更新速度’,根本不管这些回答会不会误导用户。”

2. 学者的尖锐批评:“安全优先到影响速度为止”

对于这种矛盾,AI 伦理研究学者 Adio Dinika 一针见血地指出:“AI 企业的‘安全承诺’从来都是有条件的 —— 只要‘安全审核’不影响模型迭代速度、不拖累商业利润,企业会愿意做表面功夫;但一旦安全与速度冲突,安全承诺就会立刻崩塌。” 而数据标注员,正是这种 “速度优先” 战略的直接受害者 —— 他们用自己的时间、精力甚至心理健康,为 AI 的 “快速进化” 铺路,却随时可能被行业抛弃。

结语:当我们谈论 AI 时,不该忘记 “背后的人”

如今,当人们惊叹于 Grok 的 “多轮对话能力”、Gemini 的 “跨模态生成效果” 时,很少有人会想到,这些成果的背后,是成千上万数据标注员的 “逐字审核” 与 “反复修正”。xAI 的裁员与谷歌的压榨,并非个例,而是整个 AI 行业 “重技术、轻人力” 的缩影。
或许,下一次我们看到 AI 给出 “神奇回答” 时,不妨多问一句:这个回答背后,是谁在 “替 AI 擦屁股”?而 AI 企业在追逐技术突破与商业利润的同时,也该记住:没有 “底层标注员” 的支撑,再先进的大模型,也只是 “没有灵魂的代码集合”。

作者:恒达娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 恒达娱乐 版权所有