听这篇文章
|

艾亚娜·霍华德(Ayanna Howard)的动态拟人机器人具有智能开放平台(DARwIn-OP)。资料来源:佐治亚理工学院Rob Felt
头条新闻经常宣布机器人正在为人们服务’s jobs or are “creepy,”但是机器人技术开发人员和公众都越来越意识到该技术可以提高生产率和安全性的多种方式。然而,据机器人学家艾亚娜·霍华德(Ayanna Howard)称,仍然迫切需要了解机器人和人工智能如何继承人类的负面偏见。
“AI的偏见是设计师的责任,”霍华德说,他最近出版了这本书 性,种族和机器人:在AI时代如何成为人类. “大多数设计师和开发人员都是同质的— largely male. I’我是一名机器人专家,但我的顾问是男性,所以思维过程是由男性观点驱动的,是培训的产物。”
“我们在生活经验上需要不同的人,” she told 机器人报告. “We shouldn’所有人都经过悬崖,因为没有人训练过往下看。我们有责任离开舒适区。例如,工程师应该与UX [用户体验]人员合作。成为一无所知并接受再培训的人。这需要有意识的努力。”
霍华德将经验应用于当前的担忧
霍华德曾在 美国宇航局 和微软公司,并曾担任微软互动计算学院的主席。 佐治亚理工学院 在过去三年中。她 被命名 昨天是俄亥俄州立大学的第一位女院长’的工程学院。霍华德还是教育机器人公司的创始人兼首席技术官 Zyrobotics LLC 和的成员 欧特克公司‘董事会。
“We’我们研究了我们在学术界的做法,” she said. “在某些情况下,我们会招收研究生,然后等待人们振作起来。他们会得到顾问的帮助,但根据他们的背景,有些人可能需要更多帮助。这种偏见很难识别,但是一旦偏见’s found, it’s easy to fix.”
从公民自由出发,人们对无法识别女性声音的面部识别技术和语音识别系统产生了担忧。 隐私担忧 关于家用机器人以及 新冠肺炎 霍华德指出,对于患者而言,信任和透明性问题从未如此紧迫。
“My book’的章节有不同的主题, 自动驾驶汽车 并以高音损失为例,” she said. “如果有人被自治组织杀害 优步,安全驱动程序 被收费,但是 不是公司。如果工程师在大众汽车公司被起诉’的排放丑闻,去追究一个没有这样做的程序员会多么容易’看故障安全?”
“如果我们制造的机器人造成伤害,那就赢了’一定是公司’s fault — it will be us,” Howard warned. “If companies don’解决问责制, 规定 为人工智能而来。三到四年前,我们开始看到有关面部识别的案例,现在在某些城市已经实行了禁令。它’s in companies’找出问题并尝试解决问题的最大利益。”
‘Cognitive disconnect’围绕性和机器人
“大多数语音助手都带有默认的女性语音,” Howard said. “问题在于研究表明95%的行政助理是女性,因此我们希望它是女性。”

来源:Audible
“当它的声音是男性时,我们会失去认知,” she explained. “‘我不仅有一个助手’是女性,但她赢了’t bark back.’ There’令人担忧的是,在某些时候,这会影响人与人之间的互动或增强对从属行为的期望。在我们的社会中,男人倾向于中断更多的对话以建立力量差异。有了了解,我们可以重新训练自己, 人工智能.”
“性别歧视也存在于面部识别中,” said Howard. “如果您看一下使用AI的选美比赛,为什么要AI评估某些特征或头发?最新的选美大赛选择了50年前没有被选入的人,但系统仍在应用‘traditional’美的概念。它’类似于创建裸体图片的应用。”
“Why is Pepper curvy?”她问,指的是软银’s 人形 服务机器人。“It’很容易从‘perfect shape’或对某些从属产品的非威胁性设计。”
“随着机器人变得越来越现实,甚至出现了 机器人妓院,” she said. “如果同意不是关系的一部分,则研究表明人们可以停止区分’s wrong.”
机器人黑致力于多元化
霍华德还是以下组织的创始成员 机器人黑,倡导机器人行业的多样性和包容性。她和斯坦福大学机械工程系助理教授门罗·肯尼迪三世最近与 机器人报告Podcast:
从那时起,该组织 已创建 波士顿分会,并收到有关方面的询问。
“一些公司问,‘我们该怎么做才能增加多样性?我们’看过统计资料,我们知道’s a problem,'” Howard said. “我们举办了一系列活动 爱神,今年围绕盟友的参与和 再技能 计算机科学家,机器人专家以及学生和职业中期机器人专家。”
“拉丁美洲人在机器人技术中的代表性不足,尽管’是美国最大的增长群体” she said. “We’还重新提出了应对老年主义的想法。”
霍华德看到机会之窗
“COVID-19加速了我们解决这些问题的需求,因为它加速了系统的采用,从物理服务机器人到在线助手,” said Howard. “任何新技术都有错误,但是现在人们在使用这些系统,我们可能会习惯于某些偏见。现在,随着机器人的普及,我们有很短的时间来进行根本的改变。”
“It’不带来弊大于利的问题,” she added. “有些人被安全带杀死,但他们’挽救了更多生命。它’如果手机不喜欢它会给您带来不便或冒犯’认不出你的脸。一些应用程序会不均匀地杀死人。”
“例如,在医学领域,许多研究都基于男性来确定他们的参数和数据—即使是怀孕药” “设计外骨骼之类的东西时,我们必须意识到性别偏见。在5英尺高时,我没有’有资格参加宇航员计划。那’s a design decision.”
每天采取行动
“作为机器人技术中为数不多的黑人女性之一,我’我们必须学习在不舒服时如何在空间中导航,” Howard said. “人们应该开始考虑自己的角色是什么‘rewiring’通过日常的小动作自己。”
“For example, if you’是团队中唯一的女性,你知道你’ll be interrupted,” she said. “写下您想说的三句话,然后举起手并打断一下。您’一开始会很不舒服,但是会变得更容易。与Siri交谈时,将声音转为男性。那’对于任何人,不仅仅是工程师,都是一个教训。”
“我们在机器人技术中谈论了解您的人’重新设计。如果您改变思维方式并使团队多元化,那么公正的设计将变得更加自然,” she said. “扰流板警报:末尾 性,种族和机器人, 我说,‘作为人类,我们都已经在AI时代变得异常了。””
告诉我们你的想法!