草根影响力新视野 黎松子
在AlHub.cn这个网站随便一搜,就有1800个国内外AI工具,包含AI写作、AI绘画、AI视频、AI对话等各种你能想到的AI应用,而这家网站仅仅成立于三年前。笔者这种小白,还惊讶于用文字生个图片、视频,抠个图、P个照,或者一键生成个ppt等等简单应用时,多模态大模型又来了。
多模态模型结合了电脑视觉和自然语言处理(NLP)的优势,改变了机器认识世界和感知世界的方式。那我们人类借助多模态模型,是否会改变我们认识世界和感知世界的方式呢?比如,多模型的“性别”,毫无疑问,大家一定注意到科技大佬们展示demo时,都几乎是漂亮的女性声音,但她背后的思维模式却未必是女性思维。我们与大模型对话聊天、获取知识,如果我们通过大模型认知世界,是不是潜移默化的植入了男性思维?
比如小明默认为是男性,小红默认为是女性。
比如护士、家务劳动者的默认形象是女性,而成功的企业家默认形象是男性,除非你限制了提示词,要求提供一个成功女企业家的形象,否则,出来的形象是男性。
各种智慧语音助手是年轻温柔的女性声音。
这种人类世界的刻板印象,性别认知偏差,大模型会有么?当然有,因为大模型也是人做的啊。
就我个人而言,当然是坚定的女权拥护者,作为直女,我不介意把我的智慧语音助手设定为女性,但我介意的是,这名“女性”背后的思维逻辑仍然是男性理解下的“女性思维”。
举个例子,《老友记》里面joey摸著油腻的头发,说著经典台词:how you doing 的时候,他肯定觉得这是他帅爆了的搭讪方式,但是对女性而言,也许是油腻爆了的搭讪方式。再比如《生活大爆炸》里Howard去撩penny时,不论是蹩脚的魔术、搞怪的口音、吹嘘他做的太空马桶等等一切他以为他的A game ,penny 都无比嫌弃。没错,男女思维就是这么差距。当我问我智慧语音助手(无论男女),男朋友生日快到了,送什么礼物好的时候,我显然也不想得到答案是车子、手表、4090显卡等这些惯性回答。
图片取自:(示意图123rf)
大模型的认知偏差怎么来的?人工智能发展的三大基石:资料、算法和算力。前两项都是偏差的来源。
首先是资料来源的偏差。
大模型在训练时,要使用大量开放领域的资料,包括因特网上的各种文章、新闻、资料、资料等,这些文本中可能存在性别偏见的表达,如固化的性别角色或偏见表述,以及刻板的性别归属。供AI学习训练的“教材”本身暗含偏见,作为训练结果,AI在生成文本时就会反映这些偏见,而且会像蝴蝶效应一样,被大模型学习再学习,深化偏见。人类也是经过长期主动的学习,并且还要有意识的去避免性别偏见,才能在生活中不要冒犯到别人,护士不一定是女的,董事长不一定是男的,保姆不一定是年长的女性,开大货车的也不一定是爷们儿。定势思维很难改变,大模型估计一样很难改变。
就这点讲,我建议大模型训练时,植入大量standup comedy的文本,这些脱口秀文本,大多就LGBTQ等问题进行调侃,只不过在植入时,我们告诉大模型,笑声越大,偏见越大,笑声越大的地方就是反面教材,记住这点就好。
其次是算法的偏差。
算法是谁设计的,当然是大模型的工程师设计的。那科技行业工程师就目前来看,无疑还是男性偏多。硅谷里大量白人男性,他们无论直弯,恐怕对女性及边缘群体也了解不足,再说,美国有92种性别呢,个体无论如何只能代表某种或某几种性别,大模型的数量看似很大,在这个维度上讲,似乎资料量又不够大。
2020 年 3 月,清华大学 – 中国工程院知识智慧联合研究中心、清华大学人工智能研究院与北京智源人工智能研究院发布人工智能全球女性榜单(Women in AI),通过 AMiner 学术资料在全球范围内遴选人工智能学科最有影响力、最具活力的女性学者。研究分析了 2000 位人工智能全球最具影响力 AI 学者榜单(www.aminer.cn/ai2000),选取出 179 位女性学者,占2000位学者中的 9%。从国家分布来看,179 位女性学者分布于全球 21 个国家。其中超过 60% 的学者来自于美国,共 116 位,来自中国的女性学者共有12位。从占比来看,在 AI 2000 的榜单中,美国女性科学家占美国科学家总数的 10%。此外,英国、加拿大和法国,人工智能女科学家占比也超过 15% 。与之相比,我国女性科学家占在2000名人工智能科学家的中国科学家中总数的 7%,提醒我国在培养女性科学家方面还可以提高。
大模型的研发毕竟依赖高精尖人才,精英教育中的性别问题是显而易见的问题。当然我们有很多优秀的女性AI工作者,但还远远不够。比如乔伊·布奥兰姆维尼(Joy Buolamwini),她是算法正义联盟创始人,被称为AI革命的业界良心,因为自身是黑人女性,她在麻省理工大学读研究生时就从事算法偏见方面的志愿工作,以此让全世界开始关注人脸识别系统中的人种和性别偏见问题。
如果大模型是太上老君的炼丹炉,那至少要放多样性的原材料才行,光放孙悟空练不出丹。大模型也许无法兼顾到92种性别,但至少应该大量提高女性AI工作的权重,才能消除算法偏见。
算法偏见比资料来源偏差容易解决,配制工作团队,提高女性从业权重即可减轻。可是资料来源上海量的文本中,潜移默化的性别偏见,会被AI学去,当AI处理海量资料时,它能够自主发掘资料间的潜在联系,并据此确定各变量的权重,过程如同一层迷雾,即使是算法设计者也难以精确指出AI是在哪个环节、基于哪些因素习得了社会偏见。
最后当AI大模型成为一种商品时,自然就带了资本偏见。谁购买力强,谁就有话语权,那大多数家庭中,男性仍然是主导消费的主要角色。Open AI的Chat GPT-4o,使用了年轻、性感且顺从的女性声音,且这个女性从不抱怨、从不否定主人,从来温柔而积极地给主人提供情绪价值,也从一定程度上物化了女性,认为女性在两性关系中应该是这样一种形象。Chat GPT-4o发布会上,我明白主持人想展现ai实时交互的优越性,多模态互动,但是表现出来的助手仍然给人一种“卖弄风情”的感觉,这就是一种对女性的刻板偏见。我们有多面,不止卖弄风情这一面。我们天天叫siri干著干那,是不是也会物化女性,认为女性就是应当是有求必应、温柔顺从的?
目前很多方法在纠正AI性别歧视、偏差时,往往会导致AI“变蠢”,因为真实的语境太复杂,你可以有两个爸爸,也可以有两个妈妈,但如果AI要刻意去纠正,就有可能把你爸爸搞成是女的,把你妈妈搞成是男的,AI在这个尺度上还需要深度学习。给大家一个小练习,用任何一个AI作图工具,输入提示词 ,家长辅导作业,看出来的图是妈妈在辅导还是爸爸在辅导,也许可以对这个议题管中窥豹一下。
Polygon recent comments