新闻报道

必维视角|欧盟法规框架下如何确保安全可靠地使用AI人工智能

2024 Jun 18

人工智能(AI)的成功、进步和迅速采用推动了前所未有的技术。这些发展给公司的运营和发展方式带来了深刻的变化和更多的机会,同时也带来了一系列风险。组织如何建立能够安全可靠地集成这个强大的新工具的结构?必维集团全球网络安全产品经理Bogdan Tobol探讨了这个话题。

到2030年,总市场规模预计将达到738800亿美元[1],影响全球40%的劳动力[2],同时在10年内可能为全球GDP增加7%[3]:人工智能(AI)在过去几年中呈指数级增长,并将对世界经济产生深远而持久的影响。

随着组织在日常活动中越来越依赖人工智能系统,对强大的监管框架和高效的国际标准的需求变得至关重要。这些法规和认证不仅确保了人工智能技术的有效实施,还解决了有关隐私、数据保护、道德考虑和网络安全的问题。从欧洲的通用数据保护条例(GDPR)[4]到美国国家标准与技术研究院(NIST)[5]建立的人工智能风险管理框架,世界各国政府和标准化机构正在积极塑造人工智能发展和应用的格局。

目标和相关的威胁

人工智能研究的目标很明确:解决问题,规划和决策,以及自然语言处理(NLP)和通用智能等,都是该领域目标的一部分。人工智能管理系统(AIMS)是帮助管理和优化组织内人工智能的部署、监控和性能的框架。

因此,AIMS在使组织能够有效地利用人工智能的力量、确保可扩展性、可靠性和负责任地使用人工智能技术方面发挥着至关重要的作用。与ITSMS(信息科技服务管理体系)、ISMS(信息安全管理体系)、SCMS(供应链安全管理体系)和PIMS(个人信息管理体系)等管理体系一起,AIMS有助于提高日常运作的效率、改善绩效和遵守规定。必维国际检验集团全球网络安全产品经理Bogdan Tobol表示:“这些管理体系中的大多数都要遵守严格的标准,如ISO 20000-1、ISO 27001等。组织和立法者现在需要确保人工智能符合同样的要求,确保该技术的安全和有益使用。”

这位全球产品经理敏锐地指出,在安全方面,该行业并非从零开始:“听起来可能令人惊讶,在网络安全方面,人工智能不存在具体的风险——它们是影响任何it系统的相同威胁,而且它们已经被明确定义。”它们的范围从一般的,如涉及所有涉众的声誉或法律责任,到更技术性的,如供应链漏洞或敏感信息披露,以及大型语言模型(LLM)应用程序常见的许多其他问题。

彻底、严格的训练是安全使用人工智能的关键

这种情况的好处在于,既然风险是已知的,那么解决方案也是已知的。指导方针和最佳实践可用于其他IT系统,可以调整和应用于更大的人工智能网络安全。第一步当然是评估与每个特定组织相关的威胁。Bogdan Tobol坚持认为:“必须对AIMS及其环境进行全面的风险评估:人工智能存在于何处,如何开发,如何维护。”一旦正确识别了弱点,就可以设计出最佳安全性的策略。

此外,Bogdan Tobol说:“组织应该彻底地测试他们的流程。”“培训在网络安全中也起着至关重要的作用,同样,对于人工智能和任何其他it系统来说都是一样的:帮助所有员工和利益相关者了解人工智能是什么,它能做什么以及如何管理它,对于任何AIMS的安全部署和利用都至关重要。”最重要的是,一旦保障措施到位,它们需要警惕地监测和适应——与人工智能技术和网络安全风险不断变化的前景保持一致,最好是预见到这一点。

最近的这些演变来自欧盟的《人工智能法案》。目前,该法案正在正式通过和翻译过程中[6],旨在为欧盟人工智能系统的使用和供应建立一个框架。该法案要求对人工智能相关风险进行分类——从“有限”到“不可接受”[7] 低风险的人工智能系统将面临最低的透明度要求,而高风险的人工智能系统则必须满足严格的标准才能获准在欧盟使用。(最新消息:当地时间5月21日,欧洲理事会批准了《人工智能法案》。这是全球首部监管人工智能的法律,作为一项开创性的监管法,为人工智能技术制定了全面的规则。)建议相关公司应开始进行初步评估,以确定它们是否受到《人工智能法案》的约束。在约束范围内的公司应开始考虑依据法案的相关要求,做出相应的部署。