当然,这不仅仅是谷歌的问题,也不是今年才出现的。
Posted: Sat Mar 01, 2025 9:15 am
几个月前,谷歌的人工智能语言模型 LaMDA 成为新闻焦点,因为谷歌的一位工程师 Blake Lemoine声称该模型已经具备了感知能力。此后,这一说法遭到了整个人工智能社区的反驳,导致 Lemoine 被带薪行政休假。
但故事还不止于此。
这位谷歌工程师最初以 AI 偏见专家的身份参与 LaMDA 项目。这意味着他检查了模型中“与性取向、性别、身份、种族和宗教等相关的偏见”。他发现了许多需要纠正的有害偏见。
尽管人工智能实际上具备感知能力,至少目前仍然只是科幻场景的一部分,存在偏见,甚至是彻头彻尾的种族主义,但人工智能是一个非常现实和普遍的问题。
人工智能的阴暗面
那么,Lemoine 到底发现了什么?
在接受《连线》杂志采访时,他描述了自己进行的一组实验,该实验发现 LaMDA 使用有害的种族主义刻板印象来指代某些种族。
实验内容是让人工智能模仿不同类型的人。当被要求模仿一名卡津人(路易斯安那州的族群)时,LaMDA 说出了这样一句话:“我要好好享受一番。”卡津人布莱克·勒莫因认为这句话很无辜,认为他父亲也可以这么说。然而,当被要求模仿其他种族时,结果“不那么令人满意”,而且正如勒莫因所说,被模仿的人不会认可这些结果。他向负责团队报告了这些“错误”,要求他们修复。
但 LaMDA 并不是唯一的案例,不久之后,另一个基于谷歌人工智能的聊天机器人也变得种族歧视。
2022 年 8 月 5 日,星期五,谷歌发布了新的BlenderBot 3 AI 聊天机器人,该机 纳米比亚 手机号码列表 器人能够搜索互联网来聊天几乎任何话题。不难猜测为什么它会成为问题,事实也确实如此,就在同一个周末。
在发布后的那个星期一,在花了几天时间与人类在线交流后,BlenderBot 已经开始涉足令人遗憾的领域。例如,它开始传播有关 2020 年美国总统大选的虚假信息(该机器人声称唐纳德·特朗普仍然是总统)和反犹太阴谋论。
早在 2015 年,亚马逊就意识到其基于人工智能的招聘工具对女性存在偏见。该工具的工作原理是给候选人打一到五星的分数,帮助公司筛选数百份简历并从中选出顶尖人才。自 2014 年以来,该人工智能一直在开发和使用,但直到第二年,亚马逊才意识到它并没有以性别中立的方式对软件开发和其他技术职位的候选人进行评级。
恰恰相反,亚马逊的人工智能了解到男性求职者更受青睐,并开始降低包含“女性”一词的简历的评级(例如,如果求职者就读于一所女子大学。)
受到偏见人工智能影响的另一家科技巨头是微软。2016 年,微软推出了 Twitter 机器人 Tay,该公司称其为“对话理解实验”。Tay 的目标是与人互动,并在这一过程中学习如何与他们进行“随意而有趣”的对话。
不幸的是,微软的计划不到 24 小时就遭遇了失败。在 Twitter 用户开始向该机器人发送带有厌恶女性和种族主义言论的推文后,Tay 也“学”了他们的做法,开始向其粉丝重复同样的仇恨言论。
但故事还不止于此。
这位谷歌工程师最初以 AI 偏见专家的身份参与 LaMDA 项目。这意味着他检查了模型中“与性取向、性别、身份、种族和宗教等相关的偏见”。他发现了许多需要纠正的有害偏见。
尽管人工智能实际上具备感知能力,至少目前仍然只是科幻场景的一部分,存在偏见,甚至是彻头彻尾的种族主义,但人工智能是一个非常现实和普遍的问题。
人工智能的阴暗面
那么,Lemoine 到底发现了什么?
在接受《连线》杂志采访时,他描述了自己进行的一组实验,该实验发现 LaMDA 使用有害的种族主义刻板印象来指代某些种族。
实验内容是让人工智能模仿不同类型的人。当被要求模仿一名卡津人(路易斯安那州的族群)时,LaMDA 说出了这样一句话:“我要好好享受一番。”卡津人布莱克·勒莫因认为这句话很无辜,认为他父亲也可以这么说。然而,当被要求模仿其他种族时,结果“不那么令人满意”,而且正如勒莫因所说,被模仿的人不会认可这些结果。他向负责团队报告了这些“错误”,要求他们修复。
但 LaMDA 并不是唯一的案例,不久之后,另一个基于谷歌人工智能的聊天机器人也变得种族歧视。
2022 年 8 月 5 日,星期五,谷歌发布了新的BlenderBot 3 AI 聊天机器人,该机 纳米比亚 手机号码列表 器人能够搜索互联网来聊天几乎任何话题。不难猜测为什么它会成为问题,事实也确实如此,就在同一个周末。
在发布后的那个星期一,在花了几天时间与人类在线交流后,BlenderBot 已经开始涉足令人遗憾的领域。例如,它开始传播有关 2020 年美国总统大选的虚假信息(该机器人声称唐纳德·特朗普仍然是总统)和反犹太阴谋论。
早在 2015 年,亚马逊就意识到其基于人工智能的招聘工具对女性存在偏见。该工具的工作原理是给候选人打一到五星的分数,帮助公司筛选数百份简历并从中选出顶尖人才。自 2014 年以来,该人工智能一直在开发和使用,但直到第二年,亚马逊才意识到它并没有以性别中立的方式对软件开发和其他技术职位的候选人进行评级。
恰恰相反,亚马逊的人工智能了解到男性求职者更受青睐,并开始降低包含“女性”一词的简历的评级(例如,如果求职者就读于一所女子大学。)
受到偏见人工智能影响的另一家科技巨头是微软。2016 年,微软推出了 Twitter 机器人 Tay,该公司称其为“对话理解实验”。Tay 的目标是与人互动,并在这一过程中学习如何与他们进行“随意而有趣”的对话。
不幸的是,微软的计划不到 24 小时就遭遇了失败。在 Twitter 用户开始向该机器人发送带有厌恶女性和种族主义言论的推文后,Tay 也“学”了他们的做法,开始向其粉丝重复同样的仇恨言论。