您当前位置:保定理工学院 >> 信息技术中心 >> 网络安全 >> 浏览文章 |
关于人工智能的六大担忧 【网络安全】 加入时间:2018年04月13日 信息来源:本站原创 作者:xjzx 访问量: |
2017年,人工智能的发展又到达了一个高峰期,然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁。 不久前,《麻省理工学院技术评论》(《MIT Technology Review》)发表了一篇题为《如果人工智能最终杀死了一个人,该谁负责?》的文章,这篇文章提出了一个问题:如果自动驾驶汽车撞击并杀死了一个人,应该适用什么样的法律呢?在文章发表仅一周之后,一辆自动驾驶的Uber汽车在亚利桑那州撞死了一名女子。 这引起了人们对人工智能的以下担忧: 1.不可控的“粗鲁行为” 正如我们从微软的Tay聊天机器人事件中了解到的,会话式消息系统可能是荒谬的、不礼貌的、甚至是非常令人不快的。首席信息官们必须对自己使用的东西以及使用它们的方式非常小心。要摧毁一个品牌的形象,只需要聊天机器人一次令人恼怒的爆发就足够了。 2.感知能力很糟糕 谷歌人工智能科学家及斯坦福大学教授李飞飞在《纽约时报》的一篇专栏文章中表示,人工智能虽然是由人类开发的,但是具有讽刺意味的是,它根本不像人类。她表示,人类的视觉感知是高度背景化的,但人工智能对图像感知的能力却非常的狭隘。为此,人工智能程序员必须与领域专家合作——回归该领域的学术根源——以缩小人与机器感知之间的差距。 3.黑匣子难题 许多企业都想使用人工智能,但金融服务等行业的公司必须非常小心,因为对于人工智能是如何得出其结论这个问题尚未能解决。Fannie Mae的运营和技术负责人Bruce Lee表示:“企业如果不能解决好样本数据偏见对借贷公平造成的影响,就无法提供更好的抵押贷款利率。在诸如信贷决策之类的工作里,人工智能实际上受到了很多监管的阻碍,很多问题有待解决。所以我们所做的很多事情都必须进行彻底的回溯测试,以确保没有引入不恰当的偏见。” 4.民族和社会经济方面的偏见 在进行一个使用谷歌街景汽车图像来确定全美国城镇人口结构的项目中,斯坦福大学的博士生Timnit Gebru对于她的研究中对种族、性别和社会经济方面的偏见感到担忧。根据彭博社的报道,正是这种担心促使Gebru加入微软,她正在这里努力地挖掘人工智能的偏见。 即使是人工智能虚拟助手也会受到偏见的影响。你有没有想过为什么虚拟助理技术——例如Alexa、Siri和Cortana都设定为女性?客户服务软件专家LivePerson的首席执行官Rob LoCascio对CIO.com表示:“这源于人类自己对职场中女性的期望。许多人认为,女性本质上是‘助手’;她们更爱‘唠叨’;她们更多地担任行政职务;她们更擅长接受订单......” 5.黑客利用人工智能发动致命的攻击 一份由剑桥大学、牛津大学和耶鲁大学25位技术和公共政策研究人员撰写的98页的报告指出,人工智能的快速发展意味着存在恶意用户很快就会利用该技术进行自动黑客攻击,模仿人类传播错误信息或将商业无人机转化为目标武器。 牛津大学未来人类研究所(Future of Humanity Institute)的研究人员Miles Brundage 对路透社表示:“我们承认,人工智能有很多积极的应用。但是,它也的确存在着一个有关恶意使用问题的缺口。” 6.奴役理论 以特斯拉和SpaceX成名的企业家Elon Musk警告说,人类冒着成为独立“家猫”的风险创造具有卓越智慧和能力的人工智能。最近,以色列历史学家Yuval Noah Harari也提出,以自动化为核心的人工智能的出现,可能会造成一个“全球无用阶级”。 在这样的世界里,民主会受到威胁,因为人类并不像机器那样了解自己。 |