七种负责任地开发和部署人工智能的方法

在人工智能时代,信任与透明性至关重要

关键要点

  • 信任与透明性 :人工智能的成功离不开信任和透明,企业需尽快采取措施。
  • 风险评估 :大多数组织尚未进行定期的人工智能风险评估及审计。
  • 全球监管 :各国政府积极出台政策,以应对人工智能带来的潜在风险。
  • 最佳实践框架 :确保合规性与创新的框架能够帮助组织下步行动。

随着人工智能(AI)威胁日益增加,安全领导者面临来自两个方面的压力:一方面需要保护组织免受外部攻击,另一方面需要确保内部对AI技术的负责任使用。信任和透明性对长期商业成功已不再是可选项,而是至关重要的。

根据我们,安全领导者表示,AI恶意软件攻击和AI身份欺诈的发生率显著上升。然而,仅有五成的受访组织目前定期进行AI风险评估和审计,且仅36%的组织制定了公司AI政策。

“SC Media观点专栏由SC Media网络安全领域的社区专家撰写。”
__

这种缺乏前瞻性措施的状况在认识与行动之间形成了显著的差距,使组织在越来越依赖AI的情况下变得脆弱。因此,关于隐私与透明性的讨论已变得更加紧迫——不仅关乎安全性,还涉及到与客户和合作伙伴建立信任的基础。那些在AI系统中优先考虑透明度与责任的公司,将在竞争中占据更好的位置。

根据Gartner的,到2026年,那些在AI透明度、信任和安全性方面进行有效运营的组织,其AI模型的采用率、商业目标与用户接受度将提高50%。同样,也发现,AI透明度得分较高的组织在客户满意度方面超出了同行32%。

全球政府应对AI威胁

AI的快速发展引发全球范围内前所未有的响应,各国政府和监管机构意识到其实际及紧迫风险。

在美国,拜登政府于2023年10月出台了重要的,标志着AI治理方面的一个转折点,强制要求进行全面的风险评估,并为联邦机构的负责任AI部署设定雄心勃勃的目标。

诸如国家标准与技术研究院(NIST)等联邦机构已推出指南,以帮助组织应对与AI相关的威胁。同时,开放全球应用安全项目(OWASP),以教育行业有关部署和管理大型语言模型(LLMs)带来的安全风险。

欧盟则以为先锋,推动立法生效。这一法案适用于所有27个成员国,通过根据AI系统的风险等级进行分类,开创了全新的监管模式。

这一协调的全球响应突显了组织采用负责任AI行动和遵守不断演变的法规的紧迫性。各国政府传达的信息十分明确:AI的开发与部署必须优先考虑安全性、透明度和伦理考量,以发挥其全部潜力,同时减少风险。

合规性与创新的框架

在AI不断演进的背景下,企业必须调整其策略以保持合规性,并与利益相关者建立信任。遵循一套最佳实践的清晰框架,组织可以满足监管标准,同时促进创新和商业价值。以下是组织可以

Leave a Reply

Required fields are marked *