如果算上员工秘密使用的提高工作效率的工具,那么在组织内采用人工智能的委托可能比很多人意识到的要高得多.
随着员工拥抱这些数字内容创作者,这样的影子人工智能是IT部门必须承担的日益沉重的负担.
根据微软和领英联合进行的一项调查,78%的员工“将自己的人工智能技术(BYOAI)带到工作中”.
虽然这项研究承认这种BYOAI会让企业数据面临风险,但它淡化了组织面临的数据安全的全面风险.
无论你称之为BYOAI还是影子人工智能,这种现象都可能比未经批准使用之前的云和移动应用程序糟糕得多.
作为IT领导者,你还会记得15年前标志着消费智能手机早期的自带设备(BYOD)趋势.
你甚至可能惊恐地看到,员工们抛弃了他们心爱的公司黑莓手机,转而使用iPhone和Android智能手机.
从应用程序商店下载的未经批准的应用程序的激增加剧了风险.
但现实是,消费者的行动速度往往快于组织.
但坚持使用自己喜欢的设备和软件的消费者忽视了与企业服务的集成,也不关心风险或合规需求.
影子人工智能的风险与影子IT一样高,但潜在的情况可能要糟糕得多--一个去中心化的狂野西部或自由的工具消费.
虽然你可以希望员工有常识,不会将战略文档放到OpenAI等公共GPT中,但即使是一些无害的东西,如会议记录,也可能对业务产生严重后果.
当然,作为一名IT领导者,你知道当员工提示他们喜欢的GenAI服务时,你不能袖手旁观.
如果被忽视,影子人工智能可能会给组织带来灾难性的后果,从知识产权泄露到向竞争对手通风报信,再到关键战略.
尽管存在风险,但大多数组织没有足够快的行动来确保安全使用,因为毕马威调查的69%的公司安全且大规模地部署人工智能,幸运的是,组织拥有一份大规模实施人工智能的剧本,以一种有助于提高员工技能的方式,同时尊重保护企业知识产权的必要治理和屏障.
以下是IT领导者应该做的事情:,学会治理政策:建立解决组织内人工智能使用的指导方针.
定义批准的人工智能系统的构成,审查这些应用程序,并清楚地传达以有问题的方式使用未经批准的人工智能的潜在后果.
教育和培训:向员工提供可以帮助他们完成工作的批准的人工智能应用程序,可以减少员工使用未经授权工具的动机.
您还必须教育他们与输入敏感内容相关的风险,以及属于该类别的内容.
如果你决定允许员工尝试未经授权的工具或BYOAI,提供正确的护栏以确保安全使用.
提供用例和角色:教育包括向员工提供可能有助于他们角色的用例,并由用户“角色”或基于角色的采用路径支持以促进合理使用.
审计和监控使用:定期审计和合规监控机制,包括嗅探异常网络活动的软件,可以帮助你检测未经授权的人工智能系统或应用程序.
鼓励透明度和报告:创造一种员工乐于报告未经授权的人工智能工具或系统使用的文化.
这将有助于促进快速响应和补救,以最大限度地减少使用或升级事件的影响.
,不断沟通:GenAI工具正在快速发展,因此您需要定期更新您的人工智能政策和指南,并将更改传达给员工.
好消息是?大多数员工接受指导,并渴望做正确的事情.
,解决方案帮助指导您,GenAI模型和服务每天都在发展,但有一些常量仍然是正确的r.
,为了大规模部署人工智能,您必须考虑到一切,从选择正确的基础设施到为您的业务选择正确的GenAI模型,再到安全和治理风险.
您的人工智能战略对于您的业务转型至关重要,因此您应该权衡是控制GenAI部署还是让员工选择自己的冒险,了解后一条道路的后果.
如果您确实允许BYOAI、影子人工智能或任何您选择称呼的方式保持自由,那么您是否有适当的保障措施来保护业务?值得信赖的合作伙伴可以帮助引导您完成学习曲线.
戴尔技术公司提供一系列人工智能就绪解决方案和专业服务,了解有关戴尔人工智能解决方案的更多信息.
,由戴尔科技为您带来.