大多数人对人工智能(AI)的概念并不是很熟悉。举例来说,在2017年,当1500名美国高级商业领袖被问及人工智能时,只有17%的人说他们对人工智能很熟悉。他们中的许多人不确定人工智能是什么回事,或者不清楚人工智能如何影响他们的公司。他们知道改变业务流程有很大的潜力,但不清楚如何在自己的组织中利用人工智能,这一技术工具来现实。
尽管人们普遍不太熟悉人工智能,但它确实是一种正在改变各行各业的技术。它是一个广泛的工具,可以让人们重新思考我们如何集成信息、分析数据,并利用由此产生的洞察力改进决策。我们希望通过这个全面的概述向决策者、意见领袖和有兴趣的观察家们解释人工智能,并展示人工智能已经进入改变世界的现实问题,并为社会、经济和治理提出重要问题。
本文将阐述人工智能在金融、国家安全、医疗保健、刑事司法、交通和智慧城市中的新应用,并讨论数据获取问题、算法偏差、人工智能伦理和透明度以及人工智能决策的法律责任等问题。通过对比美国和欧盟的监管方式,并提出了一些建议,以充分利用人工智能,同时保护重要的人类价值观。
为了使人工智能的效益最大化,我们建议未来的方向和思路:
鼓励研究人员在不损害用户个人隐私的情况下获得更大的数据访问权限,向非机密人工智能研究投资更多政府资金,推广数字教育和人工智能员工发展的新模式,使员工具备21世纪经济所需的技能。
建立一个联邦人工智能咨询委员会来提出政策建议,与州和地方官员接触,制定有效的政策,规范广泛的人工智能原则,而不是具体的算法,严肃对待投诉,所以人工智能不能复制历史上的不公正,或数据或算法中的歧视,维护人类监督和控制的机制,惩罚恶意的人工智能行为,促进网络安全。
人工智能的品质
虽然没有统一的定义,人工智能通常被认为是指“具有人类思考、判断和意图的能力,对与传统的人类反应一致的刺激做出反应的机器”。根据Shubhendu和Vijay的研究,这些软件系统“做出的决策通常需要人类的专业水平”,并帮助人们在出现问题时预见问题或处理问题。因此,它们以一种有意的、智能的和适应性的方式运行。
意向性
人工智能算法被设计用来做决策,通常使用实时数据。它们不像被动机器,只有机械或预先决定的反应。他们利用传感器、数字数据或远程输入,将各种不同来源的信息结合起来,立即分析这些材料,并根据这些数据得出的见解。在存储系统、处理速度和分析技术方面有了巨大的改进,它们在分析和决策制定方面具有极大的复杂性。人工智能已经在改变世界,并为社会、经济和治理提出了重要的问题。
情 报
人工智能通常与机器学习和数据分析结合使用。机器学习获取数据并寻找潜在的趋势。如果它发现了与实际问题相关的东西,软件设计人员可以利用这些知识来分析特定的问题。所有需要的都是足够健壮的数据,算法能够识别有用的模式。数据可以以数字信息、卫星图像、可视信息、文本或非结构化数据的形式出现。
适应性
人工智能系统在做决定时具有学习和适应的能力。例如,在交通领域,半自动化车辆有一些工具可以让司机和车辆知道即将发生的交通堵塞、坑洼、公路建设或其他可能的交通障碍。车辆可以在没有人参与的情况下利用其他车辆在道路上的经验,并且他们所获得的“经验”的整个语料库可以立即和完全转移到其他类似配置的车辆上。他们先进的算法,传感器,和照相机结合了当前操作的经验,并使用仪表盘和视觉显示实时显示信息,这样人类司机就能理解交通和车辆状况。在完全自主车辆的情况下,先进的系统可以完全控制汽车或卡车,并做出所有的导航决策。
应用在不同的领域
人工智能并不是一种未来主义的设想,而是一种今天存在的东西,它被集成并部署到各种领域。这包括金融、国家安全、医疗保健、刑事司法、交通和智慧城市等领域。在许多例子中,人工智能已经对世界产生了影响,并在很大程度上增强了人类的能力
人工智能越来越重要的原因之一是它为经济发展带来了巨大的机遇。普华永道(PriceWaterhouseCoopers)进行的一个项目估计,“到2030年,人工智能技术将使全球GDP增长15.7万亿美元,达到14%。”包括中国7万亿美元的预付款,北美3.7万亿美元,北欧1.8万亿美元,非洲和大洋洲1.2万亿美元,中国以外的亚洲其他地区0.9万亿美元,南欧0.7万亿美元,拉丁美洲0.5万亿美元。中国之所以取得如此迅速的进步,是因为它设定了一个国家目标,即在人工智能领域投资1500亿美元,并在2030年前成为该领域的全球领导者。
与此同时,麦肯锡(McKinsey)全球研究院(Global Institute)针对中国的一项研究发现,“人工智能主导的自动化可以为中国经济注入生产力,根据采用速度的不同,每年为GDP增长贡献0.8至1.4个百分点。”尽管报告的作者发现,中国目前在人工智能部署方面落后于美国和英国,但其人工智能市场的庞大规模为该国提供了巨大的试验和未来发展机会。
金 融
从2013-2014年期间,美国对金融人工智能的投资增加了两倍,总计达到122亿美元。根据该部门的观察人士的说法,“现在,软件决定了贷款的决定,这些软件可以考虑到关于借款人的各种细微的数据,而不仅仅是信用评分和背景调查。”此外,还有所谓的“机器人顾问”,他们“创建个性化的投资组合,避免了对股票经纪人和金融顾问的需求”。这些进步旨在从投资中释放情感,基于分析考虑做出决定,并在几分钟内做出这些选择。
这方面的一个突出例子发生在股票交易所,在那里,机器进行的高频交易已经取代了人类的许多决策。人们提交买卖订单,计算机在一眨眼的功夫就将它们匹配起来,无需人工干预。机器可以在非常小的规模上发现交易效率低下或市场差异,并执行根据投资者指令赚钱的交易。由高级计算在某些地方提供支持,这些工具有更大的能力来存储信息,因为它们不强调0或1,而是强调在每个位置存储多个值的“量子比特”。大大增加了存储容量,减少了处理时间。
欺诈检测是人工智能在金融系统中发挥作用的另一种方式。有时很难在大型组织中发现欺诈行为,但人工智能可以识别异常、异常值或需要额外调查的异常情况。这有助于管理者在周期的早期发现问题,在他们达到危险水平之前。
国家安全
人工智能在国防中发挥着重要作用。通过其项目Maven,美国军方正在部署人工智能,“对监控所捕获的大量数据和视频进行筛选,然后向人类分析人员发出模式或异常或可疑活动的警报。”美国国防部副部长帕特里克•沙纳汉(Patrick Shanahan)表示,该领域新兴技术的目标是“满足我们作战人员的需求,提高技术开发和采购的速度和灵活性”。
人工智能将如此迅速地加速传统的战争进程,以至于人们创造了一个新词:“超级战争”(hyperwar)。
与人工智能相关的大数据分析将对情报分析产生深远的影响,因为大量的数据会在近实时(如果不是最终实时的话)进行筛选,从而为指挥官和他们的员工提供前所未有的情报分析和生产力水平。指挥和控制也将同样受到影响,因为人类指挥官将某些常规任务和特殊情况下的关键决策委托给人工智能平台,大大减少了与决策和后续行动相关的时间。最后,战争是一个时间竞争的过程,在这个过程中,一方能够决定最快的和最迅速的执行通常会占上风。事实上,人工智能系统,与AI辅助的指挥和控制系统捆绑在一起,可以使决策支持和决策速度大大高于传统的发动战争的速度。这一进程将会如此之快,尤其是在自动决定发射人工智能自动武器系统以达到致命结果的情况下,一个新术语已经被特别创造出来,以适应战争爆发的速度:超级战争。
正当道德和法律上的争论在美国是否会与人工智能的自动致命系统开战时,中国和俄罗斯并没有陷入这场争论的泥潭,我们应该预料到我们需要防范这些以超级战争速度运行的系统。在西方,在一场超级战争场景中定位“人类在圈”的挑战,最终将决定西方在这种新型冲突中具有竞争力的能力。
正如人工智能将深刻影响战争的速度,零日或零秒网络威胁的扩散以及多态恶意软件甚至会挑战最复杂的基于签名的网络保护。这迫使对现有的网络防御进行重大改进。越来越多的易受攻击的系统正在迁移,需要采用基于云计算、认知型人工智能平台的分层网络安全方法。这种方法将社区推向一种“思考”的防御能力,这种能力可以通过对已知威胁的不断训练来保护网络。此功能包括对未知代码的dna级分析,通过识别文件的字符串组件来识别和停止入站恶意代码。这就是美国的关键所在。基于此的系统阻止了令人衰弱的“WannaCry”和“Petya”病毒。
由于中国、俄罗斯、朝鲜和其他国家正在向人工智能投入大量资源,为超级战争做准备和保卫关键的网络必须成为一项高度优先任务。2017年,中国国务院发布了一项计划,要求到2030年“建设价值1500亿美元的国内产业”。作为一种可能性的例子,中国搜索公司百度率先推出了一款人脸识别应用程序,该应用可以找到失踪的人。此外,深圳等城市也提供了高达100万美元的资金来支持人工智能实验室。该国希望人工智能将提供安全保障,打击恐怖主义,并改进语音识别程序。许多人工智能算法具有双重用途,这意味着专注于社会某一领域的人工智能研究也可以被迅速修改,用于安全领域。
卫生保健
人工智能工具正在帮助设计者在医疗保健中提高计算复杂度。例如,Merantix是一家将深度学习应用于医疗问题的德国公司。它在医学成像中的应用是“在计算机断层扫描(CT)图像中检测人体的淋巴结”。的开发人员表示,关键是对淋巴结进行标记,并识别出可能存在问题的小病变或增生。人类可以做到这一点,但放射科医生每小时收费100美元,而且可能每小时只能仔细阅读四幅图像。如果有1万张图片,这个过程的花费将是25万美元,如果是由人类完成的话,这将是非常昂贵的。
在这种情况下,深度学习能做的是训练电脑在数据集上学习什么是正常的,什么是不规则的淋巴结。通过影像学练习和对标记的精确性进行磨练之后,放射成像专家可以将这些知识应用到实际的病人身上,并确定某人患癌淋巴结的危险程度。因为只有少数人有可能检测出阳性,所以这是一个识别不健康和健康的节点的问题。
人工智能已经被应用于充血性心力衰竭,一种折磨10%老年人的疾病,每年在美国的花费为350亿美元。人工智能工具很有帮助,因为它们“预测未来潜在的挑战,并将资源分配给患者教育、感知和积极的干预措施。”
刑事司法
人工智能正在刑事司法领域部署。芝加哥市制定了一份由人工智能驱动的“战略主题清单”,分析那些因可能成为未来行凶者而被捕的人。根据年龄、犯罪活动、受害程度、毒品逮捕记录和帮派关系等指标,该指数对40万人进行了0至500的排名。分析人士通过研究这些数据发现,年轻人是暴力的一个强有力的预测因子,成为枪击受害者与成为未来的行凶者有关,与帮派联系没有多大的预测价值,毒品被捕与未来的犯罪活动也没有显著的联系
司法专家称人工智能程序减少了执法中的人为偏见,实现了更公平的量刑制度。R街研究所副研究员Caleb Watney写道:基于经验的预测风险分析问题发挥了机器学习、自动推理和其他形式的人工智能的优势。一项机器学习政策模拟得出的结论是,这样的程序可以在不改变监禁率的情况下减少24.8%的犯罪,或者在犯罪率不增加的情况下减少42%的监狱人口。
然而,批评者担心人工智能算法代表了“一种惩罚公民犯罪的秘密系统”。风险评分已被无数次用于指导大规模的综述。但担心的是,这些工具对有色人种的歧视是不公平的,并没有帮助芝加哥减少近年来困扰它的谋杀浪潮。
尽管有这些担忧,其他国家正在这一领域迅速部署。例如,在中国,企业已经拥有“大量的资源和获取语音、人脸和其他生物特征数据的渠道,这将有助于它们开发技术。”新技术使图像和声音与其他类型的信息匹配成为可能,并在这些组合的数据集上使用人工智能来改善执法和国家安全。通过“犀利的眼光”项目,中国执法部门正在将视频图像、社交媒体活动、在线购物、旅行记录和个人身份匹配为“警察云”。这个综合数据库使当局能够追踪罪犯、潜在的违法者和恐怖分子。而中国已经成为世界上主要的人工智能监控国家。
运 输
交通是人工智能和机器学习正在产生重大创新的领域。布鲁金斯学会(Brookings Institution)的卡梅伦•克里(Cameron Kerry)和杰克•卡斯滕(Jack Karsten)的研究发现,2014年8月至2017年6月期间,逾800亿美元投资于自动驾驶汽车技术。这些投资包括自动驾驶的应用和对该领域至关重要的核心技术。
自主车辆——汽车、卡车、公共汽车和无人机交付系统——使用先进的技术能力。这些特性包括自动车辆导航和制动、换道系统、使用相机和传感器避免碰撞、使用人工智能实时分析信息、使用高性能计算和深度学习系统通过详细的地图适应新情况。
光探测和测距系统(LIDARs)和人工智能是导航和避免碰撞的关键。激光雷达系统结合了光和雷达设备。它们被安装在车辆的顶部,这些车辆使用雷达和光束在360度环境下的成像技术来测量周围物体的速度和距离。除了在汽车的前部、两侧和后部安装传感器,这些仪器还提供了信息,让快速行驶的汽车和卡车在自己的车道上行驶,帮助他们避开其他车辆,在需要的时候使用刹车和转向,并立即这样做以避免事故。
先进的软件使汽车能够从路上的其他车辆的经验中学习,并随着天气、驾驶或道路状况的变化调整它们的导航系统。这意味着软件是关键,而不是实体汽车或卡车本身。
由于这些摄像头和传感器会收集大量信息,并且需要立即处理,以避开下一个车道上的汽车,因此自动驾驶汽车需要高性能计算、高级算法和深度学习系统来适应新的场景。这意味着软件是关键,而不是实体汽车或卡车本身。高级软件使汽车能够学习其他车辆在道路上的经验,并随着天气、驾驶或道路状况的变化调整它们的导航系统。
拼车公司对自动驾驶汽车非常感兴趣。他们看到了客户服务和劳动生产率方面的优势。所有主要的拼车公司都在探索无人驾驶汽车。汽车共享和出租车服务的激增——比如美国的优步(Uber)和Lyft,英国的戴姆勒(Daimler)的Mytaxi和Hailo,以及中国的滴滴出行——证明了这种交通方式的机遇。Uber最近签署协议,从沃尔沃购买2.4万辆自动驾驶汽车,用于其拼车服务。
然而,这家拼车公司在2018年3月遭遇了挫折,当时该公司在亚利桑那州的一辆自动驾驶汽车撞上了一名行人,导致一名行人死亡。优步和几家汽车制造商立即停止了测试,并对事故原因和事故原因展开调查。行业和消费者都希望这种技术安全可靠,能够兑现其承诺。除非有令人信服的答案,否则这次事故可能会减缓人工智能在交通领域的发展。
智能城市
城市政府正在利用人工智能来改善城市服务的提供。例如,根据Kevin Desouza, Rashmi Krishnamurthy和Gregory Dawson的说法:
辛辛那提市政消防部门正在使用数据分析来优化医疗应急响应。新的分析系统建议调度员考虑几个因素,如呼叫类型、地点、天气和类似的呼叫,对紧急医疗呼叫做出适当的反应——病人是否可以在现场接受治疗或需要送往医院。
由于它每年要处理8万份请求,辛辛那提市政的官员们正在部署这种技术,以优先考虑应对措施,并确定处理紧急情况的最佳方式。他们将人工智能视为处理大量数据的一种方式,并找出响应公共请求的有效方法。当局没有以特别的方式解决服务问题,而是试图在如何提供城市服务方面采取主动。
辛辛那提并不孤独。许多大都市都在采用智能城市应用,利用人工智能来改善服务提供、环境规划、资源管理、能源利用和预防犯罪等。《快速公司》(Fast Company)杂志根据其“智慧城市指数”(smart cities index)对美国本土进行了排名,发现了西雅图、波士顿、旧金山和华盛顿特区而纽约市是最大的采用者。例如,西雅图已经接受了可持续性,并正在使用人工智能来管理能源的使用和资源管理。波士顿推出了一项“市政厅计划”,确保服务不足的社区获得所需的公共服务。它还部署了“摄像头和感应回路来管理交通和声学传感器来识别枪声。”旧金山已经认证了203栋建筑符合LEED可持续发展标准
通过这些和其他手段,大城市地区正在领导国家部署人工智能解决方案。事实上,根据全国城市联盟的一份报告,66%的美国城市正在投资智能城市技术。报告中提到的最主要的应用包括“公用设施智能电表、智能交通信号、电子治理应用、Wi-Fi终端和人行道上的射频识别传感器
政策、监管和道德问题
这些来自不同领域的例子展示了人工智能是如何改变人类生活的许多方面的。人工智能和自动设备在生活许多方面的日益普及正在改变组织内部的基本操作和决策,并提高效率和响应时间。
与此同时,这些发展也带来了重要的政策、监管和伦理问题。例如,我们应该如何促进数据访问?我们如何防范算法中使用的偏倚或不公平的数据?通过软件编程引入了什么类型的伦理原则,设计师对他们的选择应该有多透明?在算法造成伤害的情况下,法律责任的问题又如何呢
人工智能日益渗透到生活的各个方面,改变了组织内部的决策,提高了效率。与此同时,这些发展也带来了重要的政策、监管和伦理问题。
数据访问权限的问题
充分利用人工智能的关键是建立一个“具有统一标准和跨平台共享的数据友好的生态系统”。“人工智能依赖于可以实时分析的数据,并能对具体问题产生影响。”在研究社区中拥有“可用于探索的数据”是人工智能开发成功的先决条件
麦肯锡全球研究所(McKinsey Global Institute)的一项研究显示,促进开放数据源和数据共享的国家最有可能看到人工智能的发展。在这方面,美国比中国有更大的优势。全球数据公开评级显示,美国在全球排名第8,而中国为93。
但是现在,美国没有一个连贯的国家数据战略。很少有协议可以促进研究访问或平台,使从专有数据中获得新的见解成为可能。谁拥有数据,多少数据属于公共领域并不总是很清楚。这些不确定因素限制了创新经济的发展,阻碍了学术研究的发展。
数据和算法的偏差
在某些情况下,某些人工智能系统被认为具有歧视性或有偏见的做法。例如,Airbnb被指在其平台上有歧视少数族裔的房主。哈佛商学院(Harvard Business School)开展的一项研究项目发现,“Airbnb上有明显非裔美国人名字的用户被接纳为客人的可能性,大约比那些有明显白人名字的用户低16%。
种族问题也会产生面部识别软件。大多数这样的系统是通过比较一个人的脸和一个大数据库中的一系列脸来操作的。正如算法正义联盟的Joy Buolamwini所指出的,“如果你的面部识别数据主要包含白人面孔,那就是你的程序要学会识别的。”除非数据库能够访问不同的数据,否则这些程序在识别非裔美国人或亚裔美国人特征时表现得很差。
许多历史数据集反映了传统的值,这些值可能代表当前系统中需要的首选项,也可能不代表。正如Buolamwini指出的那样,这种做法有可能重复过去的不平等:
自动化程度的提高以及对高风险决策的依赖程度的增加,比如某人是否得到保险,你拖欠贷款的可能性,或者某人再犯的风险,都意味着这是需要解决的问题。甚至入学决定也越来越自动化——我们的孩子上什么学校,他们有什么机会。我们不需要将过去的结构性不平等带入我们创造的未来。
AI伦理和透明度
算法在程序决策中嵌入伦理考虑和价值选择。因此,这些系统对自动化决策中使用的标准提出了疑问。有些人想更好地理解算法是如何工作的,以及人们做出了哪些选择?
在美国,许多城市学校使用算法进行招生决策,基于各种考虑因素,如父母偏好、社区质量、收入水平和人口背景。根据布鲁金斯学会的研究人员乔恩•瓦朗特的说法,新奥尔良的Bricolage学院“将经济上处于劣势的申请者优先考虑占到现有座位的33%。”然而,在实践中,大多数城市都选择了优先考虑当前学生的兄弟姐妹、学校雇员的孩子以及居住在学校广阔地理区域的家庭。当考虑到这类问题时,选择的选择可能会非常不同。
根据人工智能系统的设置方式,它们可以帮助修改抵押贷款申请,帮助人们歧视自己不喜欢的个人,或者帮助筛选或建立基于不公平标准的个人名册。考虑到系统如何运行以及它们如何影响客户,编程决策的考虑类型非常重要
出于这些原因,欧盟将于2018年5月实施《综合数据保护条例》(GDPR)。这些规则规定,人们有权“选择不刊登个人定制的广告”,“可以对算法做出的‘法律或类似重大的’决定提出异议,并呼吁进行人工干预”,解释算法如何产生特定结果。每个指引的目的是确保个人资料的保护,并向个人提供有关“黑盒”如何运作的资料。
法律责任
有关于人工智能系统的法律责任的问题。如果存在危害或违规(或无人驾驶汽车的死亡),那么该算法的操作人员很可能会遵守产品责任规则。一套判例法表明,情况的事实和情况决定了责任,并影响了所施加的惩罚。从民事罚款到重大伤害的监禁,不一而足。在亚利桑那州,与uberl有关的死亡事件将是对法律责任的一个重要检验案例。政府积极招募优步来测试它的自动驾驶汽车,并在道路测试方面给予该公司相当大的自由度。这一案件是否会有诉讼,谁会被起诉,还有待观察:人类后备司机、亚利桑那州、事故发生地菲尼克斯郊区、优步、软件开发商或汽车制造商。考虑到参与道路测试的多个人员和组织,有许多法律问题需要解决。
在非交通运输领域,数字平台通常对其站点上发生的事情承担有限的责任。例如,在Airbnb的案例中,该公司“要求人们同意放弃起诉、或加入集体诉讼或集体诉讼仲裁的权利,以使用该服务。”通过要求用户牺牲基本权利,谷歌限制了对消费者的保护,因此限制了人们对抗不公平算法带来的歧视的能力。但是,中立网络的原则在许多领域是否站得住脚还有待广泛确定。
建 议
为了平衡创新和基本的人类价值观,我们提出了一些关于人工智能的建议。这包括改善数据访问,增加政府投资在人工智能,促进人工智能的劳动力发展,创建一个联邦咨询委员会,与州和地方官员,以确保他们制定有效政策,调节广泛的目标而不是具体的算法,认真对待偏见作为人工智能问题,维护人类控制和监督机制和惩罚恶意行为,促进网络安全。
改善数据访问
美国应该制定一项数据战略,以促进创新和消费者保护。目前,在数据访问、数据共享或数据保护方面还没有统一的标准。几乎所有的数据在本质上都是私有的,并没有与研究团体广泛共享,这限制了创新和系统设计。人工智能需要数据来测试和提高它的学习能力。如果没有结构化和非结构化的数据集,就几乎不可能获得人工智能的全部好处。
总的来说,研究社区需要更好地获得政府和商业数据,尽管有适当的保护措施,以确保研究人员不会误用剑桥分析公司对Facebook信息所做的数据。研究人员可以通过多种方式获取数据。一种是通过与拥有专有数据的公司签订自愿协议。例如,Facebook最近宣布与斯坦福大学(Stanford)经济学家拉杰•切蒂(Raj Chetty)建立合作关系,利用其社交媒体数据探讨不平等问题。作为协议的一部分,研究人员需要接受背景检查,并且只能访问安全网站的数据,以保护用户的隐私和安全。
在美国在数据访问、数据共享或数据保护方面没有统一的标准。几乎所有的数据在本质上都是私有的,并没有与研究团体广泛共享,这限制了创新和系统设计。
谷歌长期以来一直为研究人员和公众提供聚合形式的搜索结果。通过其“趋势”网站,学者们可以分析对特朗普的兴趣、对民主的看法以及对整体经济的看法等话题。帮助人们跟踪公共利益的运动,并识别能激发公众兴趣的话题。
Twitter通过应用程序编程接口(通常称为api)向研究人员提供了大量的tweet信息。这些工具帮助公司以外的人构建应用软件,并利用社交媒体平台上的数据。他们可以研究社交媒体传播的模式,看看人们对当前事件的评论或反应。
在一些有明显公共利益的部门,政府可以通过建立共享数据的基础设施来促进合作。例如,美国国家癌症研究所(National Cancer Institute)率先推出了一种数据共享协议,认证研究人员可以使用从临床数据、索赔信息和药物治疗中提取的非识别信息查询健康数据。这使研究人员能够评估疗效和有效性,并就最佳的医疗方法提出建议,而不损害患者的个人隐私。
可以采用公私合作的数据伙伴关系,结合政府和业务数据集来提高系统性能。例如,城市可以将来自拼车服务的信息与自己在社会服务地点、公交线路、公共交通和公路拥堵方面的信息整合起来,以改善交通状况。这将有助于大都市地区处理交通问题,并有助于高速公路和公共交通规划。
这些方法的结合将改善研究人员、政府和商界的数据访问,而不会影响个人隐私。正如英伟达副总裁伊恩•巴克所言:“数据是驱动人工智能引擎的燃料。联邦政府有大量的信息来源。开放获取这些数据将帮助我们获得将改变美国经济的见解。通过其data .gov门户网站,联邦政府已经将超过23万的数据集纳入公共领域,这推动了人工智能和数据分析技术的创新和改进。私人部门还需要促进研究数据的获取,以便社会能够充分利用人工智能。
增加政府对人工智能的投资
据OpenAI的联合创始人格雷格•布罗克曼(Greg Brockman)说,美国联邦政府只投资了11亿美元的非保密人工智能技术。这远远低于中国或其他主要国家在这方面的研究经费。这个不足是值得注意的,因为人工智能的经济回报是巨大的。为了促进经济发展和社会创新,联邦官员需要增加对人工智能和数据分析的投资。在经济和社会福利方面,更高的投资可能会为自己带来比现在多很多倍的回报,促进数字教育和劳动力发展
随着人工智能应用在许多领域的加速发展,我们必须重新设想我们的教育机构,使其成为一个人工智能将无处不在、学生需要比目前接受的培训不同的世界。目前,许多学生没有接受过在人工智能主导的环境中所需要的技能培训。例如,目前缺乏数据科学家、计算机科学家、工程师、程序员和平台开发人员。这些都是缺乏的技能;除非我们的教育系统产生更多具有这些能力的人,否则它将限制人工智能的发展。
由于这些原因,州和联邦政府都一直在投资人工智能人力资本。例如,在2017年,美国国家科学基金会资助了6500名计算机相关领域的研究生,并发起了几项新举措,旨在鼓励从学前教育到高等教育和继续教育的各个层面的数据和计算机科学,目的是建立一个更大的人工智能和数据分析人员管道,使美国能够充分利用知识革命的优势。
但学习过程本身也需要有实质性的改变。人工智能世界需要的不仅仅是技术技能,还包括批判性推理、协作、设计、信息的视觉展示和独立思考等技能。人工智能将重新配置社会和经济的运行方式,需要有“全局”思考,即这对伦理、治理和社会影响意味着什么。人们将需要广泛思考许多问题的能力,以及从不同领域整合知识的能力。
IBM的“教师顾问计划”(Teacher Advisor program)就是为学生们准备数字化未来的新方法之一,该计划利用沃森的免费在线工具,帮助教师将最新的知识带入课堂。他们让教师在STEM和非STEM领域开发新的课程计划,找到相关的教学视频,帮助学生充分利用课堂。因此,它们是需要创建的新教育环境的前体。
建立一个联邦人工智能咨询委员会
联邦官员需要考虑如何处理人工智能。如前所述,有许多问题,从需要改进数据访问到处理偏见和歧视问题。至关重要的是,要考虑到这些和其他方面的问题,以便我们能够充分利用这一新兴技术。
为了在这一领域取得进展,几位国会议员提出了《人工智能未来法案》(Future of Artificial Intelligence Act),该法案旨在为人工智能确立广泛的政策和法律原则。它建议商务部长建立一个关于人工智能开发和实施的联邦咨询委员会。立法提供了一种机制让联邦政府建议的方式来促进“气候的投资和创新,以确保美国的全球竞争力,”“优化发展的人工智能解决潜在增长,重组,或其他美国劳动力的变化,”“支持公正的人工智能的发展和应用,”和“保护个人的隐私权利。”
委员会要处理的具体问题包括:竞争力、劳动力影响、教育、道德培训、数据共享、国际合作、问责制、机器学习偏差、农村影响、政府效率、投资气候、工作影响、偏见和消费者影响。委员会被指示在法令颁布后540天向国会和政府当局提交一份关于人工智能所需的任何立法或行政行动的报告。
这项立法是朝着正确方向迈出的一步,尽管这一领域进展迅速,我们建议将报告时间从540天缩短至180天。等待委员会报告近两年肯定会导致错失机会和在重要问题上缺乏行动。考虑到该领域的迅速进展,在委员会的分析上有一个更快的周转时间将是非常有益的。
与州和地方官员接触
各州和地方政府也在对人工智能采取行动。例如,纽约市议会一致通过了一项法案,要求市长组建一个特别工作组,“监督市政机构使用的算法的公平性和有效性。”该市采用了算法来“确定一个较低的保释金是否会被分配给一个贫困的被告,在那里设立消防队,为公立学校提供学生安置,评估教师的表现,确定医疗补助欺诈,并确定接下来会发生什么犯罪。”
根据该法案的开发者,市政府官员想知道这些算法是如何工作的,并确保有足够的人工智能透明度和问责制。此外,人工智能算法的公平性和偏差也引起了人们的关注,因此特别工作组一直致力于分析这些问题,并就未来的应用提出建议。该公司计划在2019年底前向市长汇报一系列人工智能政策、法律和监管问题。
一些观察人士已经在担心,这个特别工作组在让算法负起责任方面做得不够。例如,康奈尔科技大学(Cornell Tech)和纽约大学(New York University)的茱莉亚•鲍尔斯(Julia Powles)认为,该法案最初要求企业将人工智能源代码提供给公众以供查阅,并要求使用实际数据模拟其决策过程。然而,在这些条款遭到批评后,前议员詹姆斯•维卡(James Vacca)放弃了这些要求,转而成立了一个专门研究这些问题的工作组。他和其他市政官员担心,公布有关算法的专有信息会减慢创新,让人很难找到愿意与该市合作的人工智能供应商。这个地方工作组将如何平衡创新、隐私和透明度等问题还有待观察。
比特定的算法更能规范广泛的目标
欧洲联盟对这些数据收集和分析问题采取了限制性的立场。它有规则限制公司收集道路状况数据和绘制街道视图的能力。由于这些国家中的许多人担心,在未加密的Wi-Fi网络中,人们的个人信息会在整体数据收集中被一网打尽,欧盟对科技公司进行了罚款,要求提供数据副本,并对收集到的材料加以限制。这使得在那里运营的技术公司更难开发自动驾驶汽车所需的高清地图。
正在欧洲实施的GDPR对人工智能和机器学习的使用实施了严格的限制。根据已公布的指导方针,“法规禁止任何‘严重影响’欧盟公民的自动决定。”这包括评估一个人的工作表现、经济状况、健康状况、个人偏好、兴趣、可靠性、行为、地点或动作的技术。此外,这些新规定赋予公民审查数字服务如何做出影响人们的具体算法选择的权利。
通过对数据收集和分析问题采取限制性的立场,欧盟正将其制造商和软件设计师置于世界其他地区的显著不利地位。
如果严格解释,这些规则将使欧洲的软件设计师(以及与欧洲同行合作的美国设计师)难以将人工智能和高清地图融入到自动驾驶汽车中。这些汽车和卡车导航的核心是跟踪位置和移动。如果没有包含地理编码数据的高清地图和利用这些信息的深度学习,全自动驾驶将在欧洲停滞不前。通过这些和其他数据保护措施,欧盟正将其制造商和软件设计师置于世界其他地区的显著不利地位。
与试图打开“黑匣子”并确切了解具体算法如何操作的政府相比,思考人工智能所期望的广泛目标并制定促进这些目标的政策更有意义。规范个人算法将限制创新,使企业难以利用人工智能。
认真对待偏见
对人工智能来说,偏见和歧视是很严重的问题。已经有许多与历史数据有关的不公平对待的案例,需要采取步骤以确保在人工智能中不流行。现有的管理实体经济中的歧视的法规需要扩展到数字平台。这将有助于保护消费者,并在整个系统中建立信心。
要使这些进展得到广泛采用,就需要在人工智能系统的运行方式上提高透明度。Immuta的安德鲁•伯特(Andrew Burt)认为,“预测分析面临的关键问题是真正的透明度。”在我们所处的世界里,数据科学操作正在承担越来越重要的任务,而唯一阻碍它们的是训练模型的数据科学家能够多好地解释他们的模型在做什么。
维持人类监督和控制的机制
一些人认为,人类需要有途径来监督和控制人工智能系统。例如,艾伦人工智能研究所(Allen Institute For Artificial Intelligence)首席执行官奥伦?他说,首先,人工智能必须遵守所有为人类行为制定的法律,包括有关“网络欺凌、股票操纵或恐怖威胁”的规定,以及“诱捕(ping)用户犯罪”。其次,他认为这些系统应该公开它们是自动化系统,而不是人类。第三,他说,“一个人工智能系统不能保留或披露机密信息,除非得到该信息来源的明确批准。[67]他的理由是,这些工具存储了如此多的数据,以至于人们不得不认识到人工智能带来的隐私风险。
同样,IEEE全球行动计划也为人工智能和自主系统制定了伦理准则。它的专家建议,这些模型应该考虑到人类普遍接受的行为准则和规则。人工智能算法需要考虑到这些规范的重要性,如何解决规范冲突,以及这些系统在规范解决方面的透明度。根据伦理学专家的观点,软件设计应该是“非欺骗”和“诚实”的。当发生故障时,必须有缓解机制来处理后果。特别是,人工智能必须对诸如偏见、歧视和公平等问题敏感。
一组机器学习专家声称,伦理决策自动化是可能的。用电车问题作为道德难题,他们提出了以下问题:如果一辆自动驾驶汽车失控,它是否应该被设定为杀死自己的乘客或过街的行人?他们设计了一个“基于投票的系统”,要求130万人评估不同的场景,总结总体选择,并将这些人的总体观点应用于一系列的车辆可能性。这使得他们能够将人工智能算法中的伦理决策自动化,并考虑到公众的喜好。当然,这一程序并不能减少任何形式的死亡带来的悲剧,比如Uber的例子,但它提供了一种机制,帮助人工智能开发人员在规划时考虑伦理因素。
惩罚恶意行为,促进网络安全
与任何新兴技术一样,重要的是要阻止恶意处理,以欺骗软件,或将其用于不希望的目的。考虑到人工智能的双重用途,这一点尤为重要,在人工智能中,同样的工具可以用于有益或有害的目的。恶意使用人工智能使个人和组织面临不必要的风险,并破坏了新兴技术的优点。这包括黑客行为、操纵算法、泄露隐私和机密、窃取身份等行为。为了阻止这些行为,应该严惩劫持人工智能以获取机密信息的努力。
在一个瞬息万变的世界,许多实体都拥有先进的计算能力,因此有必要认真关注网络安全。各国必须小心保护自己的系统,防止其他国家破坏它们的安全。[72]据美国国土安全部(U.S. Department of Homeland Security)称,一家美国大型银行每周在其服务中心接到约1100万通电话。为了保护它的电话免遭拒绝服务攻击,它使用了一个“基于机器学习的策略引擎(它)基于语音防火墙策略(包括骚扰呼叫、机器人呼叫和潜在的欺诈呼叫),每月屏蔽超过12万个呼叫。”这表明机器学习可以帮助保护技术系统免受恶意攻击。
诉的结论
总而言之,世界正处于通过人工智能和数据分析革新许多领域的尖端时代。在金融、国家安全、医疗保健、刑事司法、交通和智能城市已经有了重大的部署,改变了决策、商业模式、风险缓解和系统性能。而这些发展正在产生巨大的经济和社会效益。
世界正处于通过人工智能变革许多部门的尖端时代,但人工智能系统的发展方式需要更好的理解,因为这些技术将对整个社会产生重大影响。
然而,人工智能系统的发展方式对整个社会有着重大的影响。重要的是如何解决政策问题,如何协调伦理冲突,如何解决法律现实,以及在人工智能和数据分析解决方案中需要多大程度的透明度。关于软件开发的人工选择影响决策的制定方式以及将决策集成到组织例程中的方式。具体如何执行这些过程需要更好地理解,因为它们将很快对公众产生重大影响,并在可预见的未来产生重大影响。人工智能很可能是人类事务中的一场革命,并成为历史上最具影响力的人类创新。
注:我们感谢Grace Gilberg、Jack Karsten、Hillary Schaub和Kristjan Tomasson对这个项目的研究帮助。
布鲁金斯学会是一个致力于独立研究和政策解决方案的非营利组织。它的使命是进行高质量、独立的研究,并基于这项研究,为决策者和公众提供创新的、实用的建议。任何布鲁金斯学会出版物的结论和建议都是作者的,不能反映该机构、其管理层或其他学者的观点。
亚马逊慷慨地提供了对该出版物的支持。布鲁金斯学会认识到它所提供的价值在于它对质量、独立性和影响力的绝对承诺。捐助者支持的活动反映了这一承诺。
约翰•r•艾伦(John R. Allen)是阿弥陀佛科技公司(Amida Technology)顾问委员会和Spark Cognition公司(Spark Cognition)董事会的成员。这两家公司都参与了本文的讨论工作。
来源:布鲁金斯学会