人工智能法规获得关注

Niral Sutaria
作者: Niral Sutaria, CISA, ACA
发表日期: 2020年12月29日

不久前, 涉及深度学习的复杂人工智能(AI)系统主要只是理论. 实际的用例很少. 如今,许多组织都在使用人工智能来提高他们的流程效率. 人工智能的发展速度比其他新兴技术快得多.

斯坦福大学的 人工智能指数2019年度报告 2012年之前的州, 人工智能的结果与摩尔定律密切相关, 计算能力每两年翻一番. 自2012年以来,人工智能训练中使用的计算量每3次翻一番.4个月,这意味着人工智能的计算能力比摩尔定律发展得更快. 对人工智能初创公司的投资有所增加, 2010年至2018年期间的平均年增长率超过48%. 此外,根据a 2019年全球人工智能调查, 58%的受访者报告说,他们已经在至少一个功能或业务单元的流程或产品中嵌入了至少一种人工智能功能. 例子包括自动驾驶汽车和银行贷款审批系统.

这种加速的增长并没有被监管机构忽视. 各种政府机构都注意到了这场人工智能革命,并正在制定初步的人工智能战略和指导方针来规范人工智能. 这很重要,因为人工智能系统, 不像其他技术, 是用来模仿人类行为和决策的吗.

这些指导方针和规定的最新例子包括印度政府, 在那里,电子和信息技术部组织了一个 负责任的人工智能促进社会赋权(RAISE) 2020峰会 讨论人工智能的潜力及其负责任地使用. 在另一个例子中 欧洲议会通过提案 欧盟(EU)如何最好地监管人工智能. 在2020年初,美国将会 美国政府发布了一份指导草案 规范人工智能应用. 在非洲, 毛里求斯政府实施了人工智能战略 为了国家. 许多其他国家正在研究类似的东西,或者已经有了一些指导方针.

因为人工智能技术发展如此之快,而政府监管并不总是存在, 一些正在使用人工智能系统的组织在实施人工智能时,可能没有专门针对人工智能技术的法规或严格的监督. 因此, 有趣的是,看看这些组织是否正在适当地解决人工智能系统带来的风险. 人工智能模型的一个关键风险是“可解释性”,即解释人工智能模型如何工作的能力. 根据上述调查, 只有19%的受访大型组织表示,他们的组织正在降低与人工智能模型的可解释性相关的风险, 而只有13%的人降低了与公平和公平相关的风险, 比如算法偏差和歧视.

一些国家制定的规章正处于起步阶段, 它们在监管人工智能技术方面的有效性仍在测试中. 因此, 作为审计专家和IT专家, 我们需要积极参与提升我们的技能,以识别和减轻人工智能系统带来的风险.

编者按: 要进一步了解这个话题,请阅读Niral Sutaria最近在《澳门赌场官方下载》上发表的文章, “人工智能对审计新兴技术的影响”, ISACA日报》 2020年第6卷.

ISACA杂志