分类筛选
分类筛选:

人工智能方面毕业论文格式模板范文 与当人工智能学会歧视相关硕士学位毕业论文范文

版权:原创标记原创 主题:人工智能范文 类别:毕业论文 2024-03-13

《当人工智能学会歧视》

本文是人工智能方面学术论文怎么写与人工智能和歧视和学会相关毕业论文格式模板范文。

  当各种标签被“天真”的人工智能习得后,人类“爸爸”的歧视成了“皇帝的新装”,昭然若揭.

文/本刊记者 宦菁

人工智能居然也会性别歧视了!

10月11日,路透社爆出亚马逊人工智能在招聘环节的性别歧视,引发全球哗然.报道称,早在2014年,亚马逊的这支团队一直在开发电脑程序用来筛选审查求职者的简历,核心的目的是将寻找顶尖人才的任务或者说招聘任务自动化.亚马逊的实验性招聘工具使用人工智能为求职者打分,分数从一星到五星不等.开发该程序的工程师曾表示,亚马逊想将这一程序打造成引擎,给该程序100份简历,程序会列出前五人,其就会聘用列出的人才.

原本是亚马逊探寻智能化的实验,却偏偏出了纰漏.人们发现,这套人工智能系统对女性求职者持有一定的偏见.该系统不仅对“女”这个词汇非常敏感,还下调了两所女子学院的毕业生评级.因此,亚马逊的高管对该项目感到非常失望,并与去年年初最终选择解散团队.

人们不免惊呼,人工智能竟然也作起恶了.

这不是人工智能第一次被发现陷入“性别歧视”的漩涡.

据报道,今年夏天,弗吉尼亚大学计算机系攻读人工智能机器学习方向的博士赵洁玉接到了导师Vicente Ordóez给她的一个课题.这个课题是关于图形识别的人工智能,但最后的结果却是人工智能经常将男人认成女人.这在计算机视觉技术发展较为成熟的今天,显得有些不可思议.有趣的是,人工智能发生认知错误有个共同点:这些被误认为女人的男人不是站在厨房就是在做家务.也就是说,人工智能很自然地将“家务”与“做饭”与女性相关联,就和人类的惯性思维一样,只不过更为明显、更加突出.

当年阿尔法狗击败人类围棋高手,引发人们对著名“点三三”招数进行讨论的时候,人们发现原本一张白纸的人工智能在没日没夜的深度学习之后,智能的宽度与深度都超乎想象.这个几乎不被人类棋手运用的招数,被阿尔法狗发挥得淋漓尽致,也成为出奇制胜的一招,在横扫人类棋手的路上无往而不利.人工智能从人类爸爸这里习得的东西总是能青出于蓝而胜于蓝,包括人类根深蒂固,但又常常被巧妙隐藏的各种歧视.在“单纯”的人工智能那里,人类爸爸提供的一切样本与素材都是学习的依据,中立是它的运行准则,它无法理解真善美、假恶丑的“抽象”,无法判定什么是正确的,什么是错误的.它没有人类的伪善,更不会试图掩饰自己的歧视,是什么就是什么,本真得无以复加.

此前还有更让人啼笑皆非的人工智能“歧视”案例:谷歌的图片软件曾错将黑人标记为“大猩猩”;微软的Tay仅仅上线一天, 就变成了一个集反犹太人、性别歧视、等于一身的“不良少女”……如果非要说谷歌图片在歧视黑人,那人工智能实在是有些冤枉.它哪里知道什么是,只是把几张照片认错了罢了,但无端背锅“”,实在是被人类扣上的帽子.

而在这次亚马逊招聘中,人工智能还是成了“背锅侠”.可怜的它在学习近十年来的亚马逊应聘者简历后,得出这样的筛选标准,还不是因为人类爸爸提供的素材本身就存在“歧视”!人类自以为是地认为并没有进行性别歧视,然而被提交给亚马逊的应聘样本多数是男性求职者,这与科技行业长久以来更愿意录用男性员工有关.恐怕科技行业的高管们自己都在给自己“催眠”:雇佣男性吧!因为他们更能胜任!女性似乎是在无意间被冠以各种标签:理性缺乏、不善决策、情绪化……这些标签在人类世界中被道德包装得似乎完美无缺,有如天生印刻在女性身上.然而当各种标签被“天真”的人工智能习得后,人类“爸爸”的歧视成了 “皇帝的新装”,昭然若揭.

倒不是它学会了歧视,只是它太“单纯”.

人工智能论文参考资料:

人工智能论文参考文献

人工智能的论文

上文总结:上述文章是关于经典人工智能专业范文可作为人工智能和歧视和学会方面的大学硕士与本科毕业论文人工智能论文开题报告范文和职称论文论文写作参考文献。

和你相关的