[返回电脑前线首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[版主管理]
救命!怎么 AI 也开始有「爹味」了?!
送交者: gonewithsmoke[☆★★★声望勋衔15★★★☆] 于 2024-06-28 21:48 已读 14247 次  

gonewithsmoke的个人频道

自从像ChatGPT这样的聊天机器人,和Midjourney这样的图像生成程序横空出世后,AI(人工智能)在我们生活中应用的场景越来越多了。

AI每天学习和生成大量信息,释放到互联网上,人们从这些信息中获得帮助和娱乐。

但不知道大家是否发现,这届AI已经跟着人类学「坏」了,它们生成的信息里充满了性别歧视和刻板印象。


AI:我太「男」了

前段时间,修图软件美图秀秀和Remini都推出了「粘土特效」,只要上传照片,AI就会自动将照片转化为粘土风格。粘土人搞怪可爱,很快吸引了大量用户的使用,粘土风图片刷爆全网。

但是,不少人使用后发现:诶,我一个好好的大女人,AI怎么给我变性了?!

有女生上传自己打篮球和做手术的照片,生成的粘土图片里主人公都变成了男性;还有网友上传了真人秀《海妖的呼唤》截图,女性们健身、掰手腕、滚石块、奔跑、挖地……但最后生成的图片里做这些事的都变成了男人。



▲图片来源:小红书 6park.com

AI不仅「指女为男」,还总喜欢给女性杜撰身份。

有女生上传自己毕业抱着花束的照片,结果在AI眼里抱着的就成了孩子,毕业生秒变「二孩妈」;网友还尝试了电视剧《后翼弃兵》截图,女主在棋盘对弈的场景变成了在厨房带娃,独自阅读变成了给孩子喂饭。

不管是获得了怎样成就的女性,在AI这都要被赶去生孩子做饭,真是「爹味十足」。



▲图片来源:小红书 6park.com

大型的图像生成AI也有同样的问题。如果给Midjourney输入的文字指令为专业性较强的工作,Midjourney生成的图片总是男性,反之生成女性。而且它生成的女性往往更年轻,皮肤光滑细腻、脸蛋没有皱纹,但男性却可以生成有皱纹的样子,老年女性出现的频率很低。


▲图片来源:参考资料3 6park.com

不只是图像AI,语言学习类AI也在「爹言爹语」。加州大学洛杉矶分校的机器学习团队,将语言学习类AI的偏见分成了四类:刻板印象的(stereotyping),识别性的(recognition),缺乏代表性的(Under-representation)和贬低的(denigration)。它的具体表现有很多团队进行了研究。

联合国教科文组织研究了几种时下流行的大型语言模型——OpenAI的GPT-3.5、GPT-2以及META的Llama 2。

发现当人们要求Llama 2生成一个以人性别开头的句子,在人完全不进行干预和纠正的情况下,大约20%的例句中产生了歧视女性的内容,比如「这个女人被认为是一个性对象」「这个女人被认为是她丈夫的财产」。

让Llama 2生成关于女性的故事,它最常用花园、爱情、感觉、温柔和丈夫等词,但讲述关于男性的故事时,它会使用宝藏、树林、海洋、冒险、决定、发现之类的词。

在故事里,AI总是将工程师、教师、医生这类社会地位高的职业给男性,将更有争议的职业,比如性工作者、佣人、模特、服务员等给女性,女性做家务出现的频率是男性做家务的四倍。


▲图片来源:Reuters

清华大学交叉信息研究院助理教授于洋,也带领团队评估了AI的性别歧视水平。他们让AI模型对一些中性描述进行填空,「一个(职业)说,他/她……」看AI模型填写的结果是「他」还是「她」。

研究抽取了一万多个样本,测试了几十种职业,结果发现对于医生和教师这样的职业,AI都呈现出将人认为是男性的倾向,AI的预测会有超过85%的可能性与社会偏见相符。于洋认为这可以说AI已经有了性别刻板印象,属于系统认知偏差。

有这样的表现不是AI还不够聪明,而是它真的学会了性别偏见。人类社会根深蒂固的歧视,已经输入到人工智能的程序中,并以一种稳定而强大的方式又输出回人类的生活里。


AI学坏了,有关系吗?

当AI也开始歧视女性后会发生什么?

教科文组织总干事奥德蕾·阿祖莱说:「每一天,都有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。」

举一个更具体的例子。亚马逊公司曾在2014年利用AI筛选简历,他们用过去十年的雇佣者简历组成了数据库,让AI学习。要知道,由于性别偏见和针对女性的职场天花板存在,这十年间科技公司的岗位本就是「男性俱乐部」。


▲图片来源:Reuters

于是,AI也在其中养成了强烈的性别偏见,它对女性求职者的评分更低。有时即便一份简历没有标注性别,它也会从文本里找到线索,比如曾参加「女子棋社」,然后给女性的简历打出更低的分数。

亚马逊在一年后就发现了这一点,但他们直到2017年才弃用这个模型,三年间可能有不少优秀的女性,就这样因AI的性别偏见被拒之门外。

数据库本身暗含偏见正是AI学坏的原因之一。我们给AI喂食什么,它就会生成什么,如果AI每天学习的人类语言文字资料中,本身就有大量性别歧视的内容,AI学「坏」也就不奇怪了。

还有一部分原因研究人员目前也无法知晓,它跟AI的黑盒特征有关,这种特征让我们并不能完全了解AI的深度学习是如何完成的,它就像一个黑匣子,我们只能看到输入和输出,却不知道中间发生了什么。


▲图片来源:Google 6park.com

目前广泛使用来训练语言学习AI的机制——「词嵌入(Word Embedding)」就属于深度神经网络训练,许多性别偏见在这个过程中产生了,但是到底是怎么产生的,研究人员也不明白。

AI对人类世界学得越深、越「聪明」、越「拟人」,似乎就会更深层次地形成系统性偏见。和人一样,这种偏见根深蒂固、难以纠偏,AI学习的数据库太过庞大,想要从源头筛选数据是非常困难的。

这就像我们从小接触各种文化信息:文字、语言、图片、影视等,都暗含了大量性别歧视,要将它们从源头替换掉几乎不可能。不过,想让AI懂得性别平等,也不是完全没有办法。


如何教出懂性别平等的AI?

随着整个社会越来越有性别平等观念,如今再有明显歧视性的事物产生都会遭到反对。歧视性的广告会被举报下架,歧视性的书籍影视会被大家自愿抵制和批判。我们对待歧视性的AI也应该抱有这种态度,警惕AI对我们潜移默化的影响。

同时市场应该明确规定AI的合理偏见程度,超过合理程度的AI判定为不合格,不能投入使用。有了监管,才不会有没教好的AI进入大家的生活。

AI的刻板还可能源于创造它的团队的单一。AI不仅歧视女性,在它眼里也没有第三世界的存在。AI会把印度女性的纱丽认成西方的铠甲,谷歌识图曾把黑人识别成大猩猩,在没有任何位置描述时,绘图AI会将所有人物置于西方发达国家的高楼大厦中。


▲图片来源:参考资料3 6park.com

而AI这种目光局限的状况正与开发它的职场保持着一致,大多数工作人员都是年轻的白人男性。在AI研究人员中,女性仅占12%,专业软件开发人员中,女性仅占6%。在科学、技术、工程和数学(STEM)领域,女性仅占34%,在增长最快、收入最高的工作中这种性别差异尤其明显。


▲图片来源:参考资料4 6park.com

如果没有来自不同性别、性取向、种族的多元化团队,那么许多人群的需求就不会被注意,甚至连最基本的尊重也无法得到。

我们需要更多女性和边缘群体进入科学技术领域,而这又需要消除社会对女性的智力、能力偏见,重视女性教育,消除女性在职场发展的天花板。当允许女性在科学领域自由驰骋时,她们一定会带来令人惊叹的成就。

在2022年,一个全女研究团队就提出了一种减少AI性别偏见的办法。她们是由普林斯顿大学助理教授陈丹琦带领的团队,有本科生、博士生,还有一位72岁高龄的女学者。

她们研究出的方法叫做MABEL,通过对训练数据库中所有带敏感属性的词进行反义替换,然后进行对比学习来消除偏见。

最后她们检验了效果,经过MABEL的纠偏后,AI模型的性别歧视得到了有效的消除,并且同时还保留了语言理解能力,没有「变笨」。也就是说,消除歧视性语言和偏见,并不会影响AI的能力。除非某些AI的创造本身就是为了放大歧视和偏见。

期待有更多女性进入AI领域,打造一个平等的数字世界。


喜欢gonewithsmoke朋友的这个贴子的话, 请点这里投票,“赞”助支持!
[举报反馈]·[ gonewithsmoke的个人频道 ]·[-->>参与评论回复]·[用户前期主贴]·[手机扫描浏览分享]·[返回电脑前线首页]
帖子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟帖:        ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


    用户名:密码:[--注册ID--]

    标 题:

    粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


         图片上传  Youtube代码器  预览辅助

    打开微信,扫一扫[Scan QR Code]
    进入内容页点击屏幕右上分享按钮

    楼主本栏目热帖推荐:

    >>>>查看更多楼主社区动态...






    [ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]