为了刺激人工智能的增长,我们需要对法律责任采取新的做法。

哈佛商业评论 · 市场分析 · 07月14日
内容显示:
  • 英文
  • 中文
  • 中英对照

Miragec / Getty Images

摘要.

美国和其他国家的现有责任体系无法处理与人工智能有关的风险。这是一个问题,因为它将减缓人工智能的创新和采用。答案是修改该体系,包括修订护理标准,在不可避免的事故通过保险和赔偿发生时改变谁来赔偿当事人;改变违约责任选项;创建新的裁定人;以及修改法规以防止错误和免除某些类型的责任。

人工智能(AI)正在席卷从网络安全到环境保护的行业- COVID - 19大流行只是加速了这一趋势。 AI可能会改善数百万人的生活,但它也不可避免地导致伤害人或当事方的事故-事实上,它已经经历了自动车辆撞车等事件。然而,美国和其他国家过时的责任体系无法管理这些风险,这是一个问题,因为这些风险可能会阻碍人工智能的创新和采用。因此,我们改革责任体系至关重要。这样做将有助于加快人工智能的创新和采用。

错误分配的责任可能在几个方面阻碍创新。在其他条件相同的情况下,希望在两个行业中的一个实现系统的人工智能设计师将避免给设计人带来更多责任的行业。同样,如果人工智能算法在没有任何补偿的情况下承担进一步的责任风险,人工智能系统的最终用户将拒绝采用。需要进行责任改革来解决这些问题。我们倡导的许多变化涉及重新平衡参与者之间的责任-从最终用户(医生、司机和其他人工智能消费者)到更上游的参与者(例如设计师、制造商)。

我们讨论这些建议是为了便于实施,从最简单到最困难。尽管我们专注于美国的责任制度,但我们的建议所依据的原则可以适用于许多国家。事实上,在任何地方忽视责任都可能导致人工智能的不安全部署,并阻碍创新。

修订护理标准

行业可以通过采用和改变护理标准来改变其责任负担,这是法律或其他专业标准在特定情况下所要求的行为。这些影响在医学、法律和其他专业中最强。如果当前的行业参与者对自己的行业以及人工智能如何适应具有专业知识和远见,那么改变护理标准可以在打击和促进人工智能之间产生区别。

例如,人工智能系统可以提供图像的初始读取,而不是放射科医生提供图像的唯一读取。一旦这成为放射科实践中的护理标准,如果个人医生符合特定的护理标准,人工智能的潜在责任负担就会减少。随着人工智能在医疗实践中占据更大的立足点,临床医生和卫生系统一起采取行动,可以通过将人工智能纳入其护理标准来促进人工智能的安全引入。

改变谁付费:保险和赔偿

保险和赔偿为重新平衡责任提供了其他解决方案。这两个概念是相互关联但又有区别的。保险允许许多投保人汇集资源来保护自己。赔偿允许两个或两个以上的当事人在合同中定义、划分和分配责任,本质上是在他们之间转移责任。两者都允许人工智能利益相关者直接谈判,以规避责任规则。

保险公司的业务是了解它们所提供保护的行业的每一个细微差别。事实上,它们常常暴露在特定领域的最佳和最糟糕的实践中。由于它们的数据收集,保险公司可以强制实施人工智能测试要求和禁止特定算法等实践。随着行业的发展和保险公司收集数据,这些实践可能会随着时间的推移而改变。

事实上,一些汽车保险公司已经赞助了自动车辆引导软件等新人工智能技术的数据收集工作。保险公司可以以较低的费率奖励用户选择某些更有效的人工智能程序,就像保险公司已经奖励司机选择更安全的汽车和避免事故一样。因此,保险公司将通过两种方法促进人工智能的采用: 1)通过将风险分散到所有投保人身上来降低责任成本, 2)为希望使用人工智能的公司开发最佳做法。

另一方面,赔偿可以在双方之间提供一定的赔偿责任确定性。赔偿条款已经被用来在医疗系统和制药或设备公司之间分摊临床试验中的赔偿责任。

修订规则:改变债务违约情况

保险和赔偿采取了当前的责任制度,让参与者可以围绕其边缘进行修补。但人工智能可能需要的不仅仅是修补;它可能需要改变违约责任选择。例如,在大多数州,车祸的默认规则是,汽车后端的司机应对事故负责。在"自动驾驶"汽车与人类驾驶的汽车混合在一起的世界中,这一规则可能不再有意义。人工智能系统可以编程来保护汽车的乘客免受这种责任,从而可能试图转向另一条车道或更危险的情况(例如,转向带有碎片的车道)。

当我们相信人工智可以推翻人类时,谁负责?责任假设人们会导致事故。传统的责任违约规则需要修改。法院在做出事故产生的决定时可以做一些工作,但立法机构和监管机构可能需要制定新的缺省规则来应对人工智能事故。这些规则可以是直率但明确的,比如将任何人工智能错误归因于用户。或者它们可以更加细致,比如事先在用户和设计师之间分配责任。

设立新的裁决人:特别法庭和责任制度

事实上,由于大型数据集、专门处理或特殊技术问题,传统的赔偿责任机制可能难以处理伤害责任问题。一个解决方案是将关于某些类型的算法、行业或事故的争议提交专门法庭,这些法庭免除某些活动的赔偿责任,以简化问题并将案件引导到一个地方。你可以想象一个专门的法庭,它发展了裁决(比如)两种算法相互作用产生的病理学算法或事故的技能。

在最好的情况下,法庭系统将争端转化为更简单的系统,由纳税人或用户付费与专门的裁决人一起支持,更简单的规则,以及(希望)比目前的法律系统更低的交易成本。

佛罗里达州和弗吉尼亚州已经为某些新生儿神经损伤建立了专门的裁决系统。美国联邦政府已经制定了反措施计划,为那些被用于应对公共卫生紧急情况的药物和设备伤害的人提供赔偿,许多人可能会因为COVID - 19大流行而体验到这个系统。在医疗保健之外,许多州提供工人的赔偿福利,这些福利是在正式法院系统之外确定的。

完全终止负债:监管计划总额

即使是将一些争端从传统的责任制度中拉出来的激烈解决方案也可能是不够的。例如,一些人工智能应用可能被认为是如此关键,以至于我们将试图通过一个全面的监管网络来防止错误和免除责任。人工智能系统中的一个错误可以规范国家间的电力传输,引导飞机降落,而其他系统可以通过采取一个全面的监管计划来完全免除责任,该计划优先于侵权法诉讼。

规则可能是适合"黑匣子"算法的模式-一种不断更新的算法,由计算机直接从数据中学习,而不是由人类指定输入生成。为了在训练后考虑外部因素的变化,黑匣子算法不断用更多的数据来改进预测,以提高其准确性。然而,变量的精确标识和权重无法确定。没有人-用户、设计人员或受害方-能够"了解黑匣子算法是如何实现特定决定的。这种困难可能使管理黑匣子的开发、测试或实现的规则比每次发生伤害时的法院案件都更适合。

诚然,试图完全明确人工智能系统的监管计划几乎肯定会阻碍创新。但这些成本在药物开发等特定领域可能是可以接受的,在这些领域,全面的食品和药物管理局监管计划可以完全取代责任。

鉴于人工智能带来的巨大创新,在产品上市之前,往往很容易忽视责任问题。人工智能的决策者、设计师和最终用户应该开发一个平衡的责任体系,以促进人工智能-而不仅仅是对人工智能作出反应。构建21世纪的责任体系将确保21世纪的人工智能蓬勃发展。

热门推荐
关注西梅公众号