凶猛了 人工默认可以识他人的心情 我不信
情感识别技术(Emotion RecognitionTechnology)实践上是一种新兴的技术,经常使用人工默认从面部表情中检测心情,也是数十亿美元的产业。但是该技术面前的迷信撑持颇有争议,系统中存在“成见”。
从食品到游戏行业的各种公司经常使用ERT测试用户对它们产品的反响。当然可用在其余场景,比如在职场、机场安防或边防识他人员心情,以便维持次第,还可监视在校生做家庭作业等。想想也是不错的。
但是,人脸识别技术正在遭到群众的关注,由于它触及到隐衷及歧视疑问。最近在奈飞上映的获奖电影《CodedBias》记载了一个发现,许多人脸识别技术不能准确检测深色皮肤的人脸。治理ImageNet(一个用于视觉对象识别软件钻研的大型可视化数据库)的团队最近也不得不含糊了150万张图片,为了回应隐衷疑问。
曾披露,人脸识别技术中有“算法成见”和歧视性数据库,造成包含微软、亚马逊和IBM在内的大型科技公司中止开售该类技术。该技术在英国警务中的运行也面临法律指控。在欧盟,由40多个民间社会组织组成的联盟呐喊制止经常使用人脸识别技术。
像其余方式的人脸识别一样,ERT也出现了对于成见、隐衷和大规模监管的疑问。但ERT还出现了另一个疑问,撑持它的情感迷信是有争议的。大少数ERT系统是基于“基本心情”通常的,该通常以为,情感是与生俱来的,环球各地的人都以雷同的方式表白情感。
但是,该通常缓缓地有些站不住脚了。人类学钻研标明文明和社会不同,人们心情的表白方式不同。2019年心思迷信协会(Association forPsychologicalScience)对“基本心情”通常的证据启动了审查,论断是人们所普遍以为的一团体的心情可以很容易地从他们的面部表情中推断进去没有迷信依据。简而言之,ERT没有松软牢靠的迷信通常基础。
此外,ERT中含有种族歧视的代码。正在启动的钻研中曾经显示该系统以为不论这团体的表情如何,黑人的脸比白人的脸更显愤怒。
人工默认钻研员黛博拉·拉吉(Deborah Raji)在接受麻省理工科技评论(MIT TechnologyReview)采访时说,“这项技术有两种状况‘损伤’到人们,一种是系统不起作用,识别有色人种的失误率高,使人们面临很大的风险;另一种状况是当它施展作用时,即系统曾经很成熟了,便很容易作为某种工具骚扰人们的生存。”
所以即使人脸识别技术可以去除成见,也很准确,也未必偏心公正。咱们会看到很多不谐和,比如当人脸识别技术用在有歧视的警局和司法系统时,会出现什么;当它们在一个不谐和的环球中有效运转时,它们也有或许是风险的。
人脸识别技术所带来的应战至今没有明白的答案。要处置ERT的疑问,就必定从形象的通常转向生存的通常。咱们须要群体扫视系统中有争议的情感迷信通常,并剖析潜在的种族歧视。咱们还须要问自己,即使ERT可以准确地读取每团体的心坎感触,咱们能否想要在生存中被如此亲密的监控?这些都是须要大家深思熟虑的,投入精神和执行的疑问。