广告位API接口通信错误,查看德得广告获取帮助

凤凰时尚网移动版

首页 > 资讯 >

迎接AI时代的到来 人类需要提高“情绪智力”(2)

减少恐惧和建立信任没那么快见效,但我们还是要采用一种高效的方式:即整体改进可解释性,从逐渐优化人类生存体验的角度来定位先进的技术,而不要将其解释为可能迅速削弱人类的技术。

就拿戴尔为例吧。通过将用户置于生产力的最佳区域,它创建出了一种以人为中心的人工智能技术。其AI能够改进工作体验。它创造出了用户的数字化身,负责处理那些日常琐碎的计算任务。这样一来,用户本身便可以专注于处理更为重要的一些工作,而不必将精力浪费在整理收到的垃圾邮件上。

“如果AI无法减轻人类肩上的担子或是让他们享受其中,那么它也不会取得成功。”戴尔EMC的总裁兼首席技术官约翰·罗伊斯(John Roese)表示,“我们衡量成功的一个标准便是看其能否改进人类的状态。最佳的判断方式就是评估人类使用该技术后承担的压力大小。他们是否感到受挫?他们的生物物理指标能否表明他们在完成这些任务上所耗费的精力变多还是变少了?”

像戴尔等公司的看法都是AI是为人类服务,而非取代人类。相比那些大肆宣扬人工智能技术将占领地球的人,戴尔公司这样的措辞往往能够赢得我们的信任,吸引我们的注意力,也能促使我们更快地采用AI。

人工智能平台Bureau Works的创始人兼首席执行官加布里埃尔·费尔曼(Gabriel Fairman)也认为,信任鸿沟归根结底还是沟通问题。合适的解决方案在于要让人类有所准备,这样他们才可以充分利用AI,而不必畏惧于它。

“人工智能技术能够在大量数据组中很好地识别数据模式。但这并不意味着AI就能取代那些负责分析数据组的人类。”他说,“这反而表明了,人类需要负责理解这些数据组背后的伦理含义、数据组中的间接联系以及这些数据组推动的举措内容。”

为了完成这种认知的建立,AI企业的沟通战略应重点关注人类价值观以及采用技术后用户所要肩负的责任,进而达到教育和解释的目的——这种方式要比提供技术细节信息更有效。

促进技术专家的人性

集体概念意义上的“我们”属于期待使用AI技术的外界人士,我们只是信任鸿沟的一方。另外一方则是技术专家。这些天才负责编写代码、开发技术,他们是这项技术的人类代表。

虽然企业内的资深领导者具备“软技能”以及其他与情绪智力相关的能力,但是对于企业内剩余的人来说,这些能力的培养很难见效,特别是年轻一点的员工以及新领导层。

“和职场性骚扰问题的相关培训一样,企业也应当设置情绪智力课程,尤其是要为那些设计模型的数据科学家准备。”IBM的物联网和数字部门主管丽莎·西卡特·德卢卡(Lisa Seacat DeLuca)说。

AI神经网络的整个目标——成为数字化的人类大脑——是要去复制大脑的能力,但同样要具备人类能力范围之外的计算力。作为一种认知、推理型的技术,人工智能的重点在于理解、学习、智能以及洞察力。

“认知和AI无法做到的事情是感觉。它不具备任何情感。”Sparks Research的数据科学家兼首席智能官乔恩·克里斯蒂安(Jon Christiansen)称,这并非意味着感觉和情感是认知的反义词,它们本身就不存在对立关系。实际上,它们是互补的。整合两者,你就能获得一个在真正意义上很强大的机制。但这要取决于坐在电脑另一端的人类。”

对于大多数分析型和技术型的思考者来说,一个亘古不变的痛点在于,人类本身就是混乱、非线性且无法优化的。因此,与其要求他们回答关于终端用户的问题,还不如让他们回答关于自己的相关问题。

在IBM建议的问题之外,我想每一位负责开发人工智能产品的人员都应当回答以下这些问题:

关于正在开发的技术,他们是怎么认为的?

为什么会信任这项技术?

他们希望达成什么结果?

他们会如何描述预期带来的影响?

也许最为重要的是,为什么他们会想要开发这项技术?

这些问题其实又让我们回到了最初的起点,即情绪智力中最为重要的一部分——自我意识。除非技术专家能够发现并且明确表达自己内在固有的偏见,否则人工智能背后的这些“大脑”就应当为其创建的产物负责。

展示AI背后的开发者,而不是展现算法

Cambria AI的格鲁斯表示:“在科技驱动的经济体下,掌握大权的是那些拥有技术专业知识和资本的人。”

权力越大,社会责任也越大。

每一个开发和部署人工智能的企业都需要在不暴露商业机密的前提下推广自己的技术。事实上,从情绪智力的角度来说,最合适的一种解决方案就是展示AI背后的开发人员,而不是去展现算法。向公众展示是谁开发了AI,此外更重要的一点是,为什么他们会想要开发这项技术。

(责任编辑:admin)
广告位API接口通信错误,查看德得广告获取帮助