随着人工智能(AI)威胁日益增加,安全领导者面临来自两个方面的压力:一方面需要保护组织免受外部攻击,另一方面需要确保内部对AI技术的负责任使用。信任和透明性对长期商业成功已不再是可选项,而是至关重要的。
根据我们,安全领导者表示,AI恶意软件攻击和AI身份欺诈的发生率显著上升。然而,仅有五成的受访组织目前定期进行AI风险评估和审计,且仅36%的组织制定了公司AI政策。
“SC Media观点专栏由SC Media网络安全领域的社区专家撰写。”
__
这种缺乏前瞻性措施的状况在认识与行动之间形成了显著的差距,使组织在越来越依赖AI的情况下变得脆弱。因此,关于隐私与透明性的讨论已变得更加紧迫——不仅关乎安全性,还涉及到与客户和合作伙伴建立信任的基础。那些在AI系统中优先考虑透明度与责任的公司,将在竞争中占据更好的位置。
根据Gartner的,到2026年,那些在AI透明度、信任和安全性方面进行有效运营的组织,其AI模型的采用率、商业目标与用户接受度将提高50%。同样,也发现,AI透明度得分较高的组织在客户满意度方面超出了同行32%。
AI的快速发展引发全球范围内前所未有的响应,各国政府和监管机构意识到其实际及紧迫风险。
在美国,拜登政府于2023年10月出台了重要的,标志着AI治理方面的一个转折点,强制要求进行全面的风险评估,并为联邦机构的负责任AI部署设定雄心勃勃的目标。
诸如国家标准与技术研究院(NIST)等联邦机构已推出指南,以帮助组织应对与AI相关的威胁。同时,开放全球应用安全项目(OWASP),以教育行业有关部署和管理大型语言模型(LLMs)带来的安全风险。
欧盟则以为先锋,推动立法生效。这一法案适用于所有27个成员国,通过根据AI系统的风险等级进行分类,开创了全新的监管模式。
这一协调的全球响应突显了组织采用负责任AI行动和遵守不断演变的法规的紧迫性。各国政府传达的信息十分明确:AI的开发与部署必须优先考虑安全性、透明度和伦理考量,以发挥其全部潜力,同时减少风险。
在AI不断演进的背景下,企业必须调整其策略以保持合规性,并与利益相关者建立信任。遵循一套最佳实践的清晰框架,组织可以满足监管标准,同时促进创新和商业价值。以下是组织可以
Leave a Reply