可控的人工智能才有未来
8月29日,2019世界人工智能大会在上海开幕。世界一些国家的著名科技公司和学界、产业界著名人士参加了此次大会,对人工智能的发展进行展望分析和献计献策。中国腾讯董事会主席兼首席执行官马化腾在演讲时表示,人工智能(AI)治理的紧迫性越来越高,应以“科技向善”引领AI全方位治理,确保AI“可知”“可控”“可用”“可靠”。
尽管并非所有人都认同AI的这几个“可”,但这提出了AI的一种方向,即AI产品的研发和使用必须同时具有几个维度,而不能只发展一个方面。AI或其他科技产品无论如何新颖和实用,也需要在可控的状态下才能受到人们的欢迎,并且在获得极大效益的同时,防止和减少对人类社会可能造成的麻烦和灾难。这或许是反思世界各国经济发展与环境保护曾犯下的错误后得出的经验。
确保AI的“知、控、用、靠”也是总结了科技史上的先研发、后管理的传统思路和做法的教训。在科技史上,汽车的发明把人类社会带入了工业文明时代,但是,在汽车的使用过程中,人们却较难控制其带来的交通事故和伤害,安全带的发明和使用就是控制汽车伤害事件的一个要素,但是,汽车发明之后80年才研发出安全带。
基于这样的认知,微软提出了其人工智能发展的一项原则——每一项AI产品都要经过AI伦理道德审查。AI的迅猛发展也让人类认识到,如果AI在可用的同时不可控的话,人类将付出更大的代价。因此,对每一种AI产品进行伦理审查和立规也成为AI研发必须同时完成的任务。2016年微软的CEO萨提亚·纳德拉(Satya Nadella)提出了人工智能的十大伦理:AI必须用来辅助人类;AI必须是透明的;AI必须实现效能最大化,同时又不能伤害人的尊严;AI必须保护人的隐私;AI必须承担算法责任以便人类可以撤销非故意的伤害;AI必须防止偏见。
以上6项是对AI产品提出的,但同时也提出了使用AI产品的人类应该拥有的4个伦理原则,包括人要有同理心,这在人与AI共存的世界里非常有价值;教育,为研发和管理AI提供基础;保持人的创造力,机器也会继续丰富和增强人们的创造力;裁决和责任,最终由人来对AI的判决或诊断,或对AI产生的所有结果负责。
如果能实施,这些原则当然能对AI进行有效的控制。但实际上,由于种种原因,很多机构和研发者设计的AI产品并非可控,也因此会在应用时出现种种问题。目前最大的问题就是侵犯人们的隐私,难以保证安全,也因此受到人们的批评和反对。
最近一个比较大的教训是苹果产品的语音助手西瑞(Siri)。2019年7月,媒体报道,西瑞会偷录用户的隐私语音,如就诊时的医疗信息等,并转化为声音档案,发送给苹果公司在不同国家的承包商。声音档案同时也记录用户的位置、使用数据与通讯内容。在经过一番解释和拉锯之后,苹果公司于8月28日就西瑞秘密录下与用户的交流,并将文件泄露给外包商正式道歉。由于隐私不保,用户提出了批评,而且如果这些情况不能改善,就会让苹果失去大量的用户,甚至被市场抛弃。
不过这种情况也表明,人工智能的发展最终还是取决于是否能受人控制,因为离开了人的控制,AI就无法进化和升级。正是在人与AI的互动情况之下,才有可能让AI的伦理审查和监控失灵或失范,并造成安全漏洞。
因此,不只是可知可用,可控和可靠也要同时得到保证和保障,AI才会有未来。其他产品同样如此。(张田勘)
- 标签:
- 编辑:王丽
- 相关文章