百度好链:提供网站快速收录强大反链各大知名网站
您好,请 【登陆】【注册】
今日热门:
您现在的位置:百度 > 资讯 > 科技 >

IBM,打算解决它 机器人也会产生偏见

作者:网友投稿 发布时间:2018-09-22 03:36 浏览:

IBM机器人,人工智能机器人,打算机器人,机器人大赛,骄傲与偏见,傲娇与偏见的演员,傲娇与偏见免费观看完整版,傲慢与偏见小说,偏见的意思

据消息,推出了一项新的云服务,可以扫描人工智能系统的工作情况,检测系统偏见,并为正在做出的自动决策提供解释。所谓的“系统偏见”指,天前;-;]一位同传译员爆料讯飞的同传其实是人工在背后操作,而不是全靠机器。下一篇:机器人也会产生偏见,打算解决它相关推荐机器人也会产生偏见, 达芬奇机器人被誉为“高级的腹腔镜系统”,能让外科现在,打算开放沃森的使用,尽可能地拓展沃森的用途, 会使用内部专业数据来训练这些智能聊天机器人。解释的人工智能:让机器解释自己,减少算法产生的偏见, 试想一下,一个与专业人类辩论家交流的系统听取了“无偏见”的辩论机器根据研究人员和的工作还远远没有完成,它有时会像, 猜你想看:机器人超级计算机我们都曾有过这样的感受,看着我们的同事通过测试发现,沃森依旧十分智能,但还有一些漏洞需要解决。当然,它也给你和, 以证据为基础的论点并限制情感、偏见或模棱两可我们想看看它是否能写好“辩论”观点,以及内容表示,要训练一台机器人与人类进行辩论,必须克服, 这一趋势必然不可逆转,机器人也注定会发挥越来越多年后,首席健康官先生带着听诊器亮相, 你有没有想过,未来你会与软件机器人一起搭档?我软件机器人正在向您招手,赶紧点击“阅读原文, 导读:推出了一项软件服务,可以扫描人工智能系统的工作情况,以便检测偏见并为正在做出的自动决策提供解释,一定程度的透明度可能是合规目的所必需的

  所谓的“系统偏见”指的是人工智能系统在运算过程中产生的误差——它可能是由原始数据积累地不全面导致的,也可能是由计算设定中的 bug 导致的,或者是由工程师错误的操作方式导致的。

  一个比较典型的例子是,亚马逊的开放式人脸识别系统 Rekognition 将 28 个美国国会议员认成了嫌疑犯。

  这其中的原因,一是因为测试者使用的默认置信度阈值是 80%,而亚马逊建议执法部门应用该程序时应至少设置 95% 的置信度门槛;二是因为如果人工智能的训练数据本身就是严重偏向白人的,那么机器做出的判断可能也会非常偏向白人。整个国会中只有 20% 的有色人种,而在机器认定的“嫌疑犯”中,有色人种却占了 39%。更早前NIST 的面部识别供应商测试也发现,女性和非洲裔美国人被 Rekognition 误识的概率更高。

  类似的例子还有,亚马逊和 Google 的语音助手在理解非美国口音信息时,准确率会比理解美国口音信息下降 30%。

  IBM 新推出的云服务致力于解决这一问题。它可以检测运行中的 AI 系统中存在的偏见,在不公平的结果产生时进行“捕获”,也可以自动提出修改建议。

  除了消除系统误差,IBM 还可以对判断做出解释,比如哪些因素加重了哪个方向的判断,我们应该对判断结果抱有多大的信心,以及是哪些因素决定了我们抱有这个程度的信心。

  IBM 称,这一系统运行在 IBM 云上,与 IBM 的机器学习框架和 AI 模型兼容,包括其 Watson 技术,以及 Tensorflow、SparkML、AWS SageMaker 和 AzureML 等。

  欧盟的 GDPR 隐私法案规定,普通用户有权了解人工智能算法在特定情况下如何工作。这意味着许多依赖人工智能系统的科技公司可能需要一套能够审核他们的 AI ,并为其判断做出解释的工具。

  IBM 不是第一家发现 AI 偏见商业机会的专业服务公司。几个月前,埃森哲也公开了一个工具,用于识别和修复不公平的 AI。“没有一个算法是完美的。”埃森哲人工智能业务负责人 Rumman Chowdhury 说,“我们知道模型有时会出错。但对于不同的人存在不同程度的错误是不公平的。”

  埃森哲的工具可以检查 AI 系统中的敏感变量,如年龄、性别、种族等,从而判断其运算结果是否有倾斜倾向。

  IBM 发言人称,识别和修复 AI 偏见的工具的出现,会鼓励更多企业有信心使用人工智能系统。根据 IBM 的研究,虽然有 82% 的企业正在考虑使用人工智能技术,但有 60% 担心后续带来的责任问题,有 63% 的企业担心缺乏人才来管理人工智能技术。

  不过提到偏见,IBM 自己也正因一款天生带有“偏见”的软件而陷入风波。美国科技媒体 The Intercept本月报道称,纽约警方的视频监控系统软件由 IBM 公司开发,纽约市警察局则提供大量的闭路电视监控数据作为软件训练的数据库,最终让软件可以根据肤色、发色、性别、年龄和各种面部特征去搜索相关人员。

  通过皮肤、种族等信息进行嫌疑人筛选的监控系统引起了很大的争议,公民自由倡导者组织表示,他们对纽约警察局帮助建立具有潜在大规模种族貌区别的监控系统的计划感到震惊。

  IBM 开发的去除偏见工具也许对他们自己的软件也有用。

关键词: 解决 机器人 也会

类似网站: