智能设备/NEWS CENTER

现成的框架和数据库让AI存在各种偏见

发布时间:2017-12-30

  AI的现成框架和数据库存在各种偏见

  我们甚至有点期待希望机器人能够在人为失败领域取得突破,就是在决策时抛开个人偏见据国外媒体报道,由于人工智能(AI)和机器人学习技术日趋成熟,其应用于解决复杂问题的潜力正在逐步显现。我们甚至有些期待希望机器人可以在人为失败的领域取得突破,放弃个人的决策偏见。然而,最近的很多案例表明,正如所有的颠覆性技术一样,机器学习引入了许多意想不到的挑战,有时甚至是与人类社会道德和道德标准完全不同的虚假,恼人的进攻性后果。这些故事可能听起来很有趣,但是它们激励我们思考人工智能技术对未来的影响。未来,机器人和认可机构将承担更大的责任,甚至会对自己做出的错误决定负责。在其核心领域,机器学习使用算法来分析数据,提取模式,学习和预测,并根据收集到的见解做出决策。它已成为我们在日常生活中使用的许多技术的基石,如搜索引擎,面部识别应用程序和数字助理。机器学习算法得到的数据越多,它变得越聪明。这就是为什么科技公司会尽一切可能收集更多的用户和消费者数据,但最终机器学习只是和数据一样聪明,这是一个问题,因为用于训练的数据相同机器学习算法也可能使它变得邪恶或有偏见,像所有的孩子一样,机器学习算法往往会迎合开发者的口味和偏见,更为复杂的是,很多公司运行内部算法的方式非常秘密,将其视为商业秘密。 Beauty.ai是一家机器学习机构,今年举办了世界上第一个AI驱动的选美比赛。超过6000人通过对称,皱纹等因素提交他们的照片,评估这些人的魅力。比赛的初衷是为了减少裁判员的社会偏见,结果令人失望。在44名获奖者中,绝大多数是白人,只有少数亚洲人,只有1名黑皮肤的赢家。一位研究人员解释说,问题是用于训练算法的图片样本是种族不平衡的。这不是机器算法的偏置问题。今年早些时候,一个语言处理算法被发现更加愉快,当处理像Emily和Matt这样的名字听起来像白人,而不是处理像Jamal和Ebony这样的黑名字。此外,微软之前也被迫关闭了Tay的聊天机器人,目的是为了模仿十几岁的女孩的行为,但却被发现充满了糟糕的语言,Tay本来期望接受用户的评论,并学习如何进行个性化的回应但是用户似乎对种族歧视和纳粹言论的教育更感兴趣,但是如果这些情况发生在敏感的情况下,比如一个人的生命或者自由受到威胁, ProPublica在1月份的一项研究发现,佛罗里达执法机构使用的算​​法在评估未来犯罪趋势方面取得了非洲裔的好评,这种类型的机器学习算法有许多偏见,其中包括Google的非洲裔美国人大猩猩算法,ad展示引擎向女性展示了更少的有偿工作,推广新闻和粗俗故事的新闻算法。在传统的软件中,很容易确定一个bug是一个用户错误还是一个设计错误。但机器学习不太透明的挑战之一就是责任难以确定,开发机器学习软件与传统编码完全不一样,训练算法与编写代码一样重要,即使开发人员无法预测机器会做什么,有时结果会令人惊讶。

ju11net手机登录

2017-12-30

更多内容,敬请关注:

ju11net手机登录官网:/

ju11net手机登录新浪官方微博:@ju11net手机登录

ju11net手机登录发布微信号: