管理危机情况的一个基本最佳做法是为已知风险做好准备。忽视潜在威胁的商业领袖可能会给他们的公司带来自我造成的危机。一个恰当的例子是人工智能带来的危险,这项技术也可以为使用它的公司和组织提供重要的优势和好处,并采取适当的保障措施。尽管有新闻报道和警告称,这种快速发展的技术带来了威胁,但80%的受访组织仍然没有专门的计划来解决生成性人工智能风险,包括人工智能驱动的欺诈攻击。

这是根据风险管理软件公司Riskconnect上个月发布的2024年新一代风险报告得出的结论。对日益增长的风险和威胁的认识
在全球218名风险合规和弹性专业人员中,他们对调查做出了回应:72%的受访者表示,网络安全风险对他们的组织产生了重大或严重的影响,这比去年的47%有了显著增长。

24%的人表示,人工智能驱动的网络安全威胁,如勒索软件、网络钓鱼和deepfakes,将在未来12个月对企业产生最大影响。根据Riskconnect的数据,65%的公司没有制定政策来管理合作伙伴和供应商对生成式人工智能的使用,尽管第三方是欺诈者的常见切入点。日益增长的担忧
根据Riskconnect的报告,“对人工智能伦理、隐私和安全的担忧继续增加。”。报告指出:

“人工智能还触及网络安全、地缘政治和其他领域,加剧了其发展道路上所有事物的风险。例如,黑客正利用最新的人工智能技术渗透到组织中,变得越来越聪明、越来越老练、越来越危险。”。尽管人们越来越担心人工智能可能造成的危机情况,但解决这些问题的努力却滞后了。报告指出,“尽管过去一年,公司对人工智能的首要关注点发生了变化,但风险管理方法的发展速度还不够快,关键差距仍然存在。

数据还表明,风险管理越来越被视为一项战略性业务职能,但持续投资对于跟上不断变化的风险格局是必要的。”内部威胁
内部威胁对公司的损害可能与外部威胁一样严重。一个例子是公司使用生成式人工智能来创建与营销相关的内容。佛罗里达国际大学营销学教授Anthony Miyazaki在一次电子邮件采访中建议:

“虽然提示良好的人工智能是书面文本的一个很好的起点,但营销人员需要确保广告文案、电子邮件和短信由人类编辑仔细校对,而不仅仅是重新提交给相同或不同的人工智能程序进行校对。这是因为生成式人工智能专注于清晰的写作,但不一定是说服,这应该是营销人员的主要沟通目标。”。还有另一种方式,对生成性人工智能的依赖可能会对公司产生适得其反的效果。宫崎骏指出:“更令人担忧的是使用人工智能生成网站内容。

谷歌已经警告网络开发人员,如果人工智能内容被用来玩弄搜索过程,它将被降级,这将严重损害有机甚至付费的搜索引擎优化。”。内部保障措施
Trustible首席技术官兼联合创始人Andrew Gamino Chong通过电子邮件观察到:“许多组织的人工智能政策都非常注重保护组织免受内部使用人工智能的影响。”。但组织需要保证他们的政策涵盖了所有基础。

他指出,公司“希望确保机密数据不被泄露,人工智能聊天机器人是安全的,并遵守相关法规。然而,这些政策有时会忽略为他们为客户构建的人工智能系统制定明确的标准;许多法规特别希望组织考虑其人工智能系统对个人、团体和社区的下游影响。”。一家公司的积极步骤
数字营销机构Empathy First Media的入站营销副总裁Ryan Doser通过电子邮件评论道:

“风险非常真实,我们已经采取了深思熟虑的措施来减轻风险。”。他说,该公司已经实施了以下指导方针和程序,以帮助确保员工负责任地使用人工智能:隐私
它禁止将客户的专有或敏感数据输入生成式人工智能工具。质量控制
它不允许复制和粘贴生成性人工智能响应,并要求人工对响应进行审查和润色,以帮助保证其准确性和与客户的一致性。法规遵从性
该公司避免使用该技术,因为它可能会在遵守不同行业的标准方面产生冲突。

透明度
告诉客户生成人工智能何时被用于创建内容。Doser总结道:“透明度有助于建立信任,并帮助我们的客户了解如何使用这些工具来加强他们的活动。”。为什么等?正如我在一篇关于Riskconnect 2023年报告的文章中所指出的那样,“公司为人工智能相关的风险和危险做准备的时间越长,他们就越不受这场潜在危机的保护。“为什么企业领导者要再等着做正确的事?”

鉴于人工智能的日益复杂,如今企业领导者更迫切地需要保护他们的组织免受这项技术带来的威胁。