bitpie钱包官方|炒作归炒作,新报告表明,仅15%的企业组织为生成AI做好准备 -
bitpie钱包官方|炒作归炒作,新报告表明,仅15%的企业组织为生成AI做好准备 -
原文来源:机器之能
图片来源:由无界 AI生成
生成式人工智能吸引足够多的公众注意力,但这种亢奋并不意味着企业高管们认为它已经准备好在企业中部署。
根据著名信息咨询和技术服务公司 Nash Squared 《年度数字领导力报告( Digital Leadership Report )》(该报告将于 11 月 9 日全面发布),全球只有十分之一的技术领导者大规模实施了人工智能,该报告是全球规模最大、持续时间最长的技术领导者年度调查。更重要的是,围绕生成式人工智能的炒作对鼓励对人工智能的进一步投资几乎没有什么作用—— Nash Squared 报告说,仅有十分之一企业在人工智能上投入巨资,五年来,这一比例没有改变。虽然每个人都在谈论生成式人工智能和机器学习,但很少有公司投资于大规模实施人工智能。
对此, Nash Squared CEO Bev White 在接受国外科技媒体 ZDNET 采访时表示,将这些新闻放到上下文的语境中去解读很重要。现在很少有企业在人工智能上投入巨资,但许多组织开始研究新兴技术。「我们看到的实际上是相当多的试点,」他说,对人工智能的兴趣是在研究阶段,而不是生产阶段。大约一半的公司( 49% )正在试点或进行人工智能的小规模实施,三分之一的公司正在探索生成式人工智能。「这正是我们在云服务市场真正起飞时所看到的,」他将人工智能的兴起与十多年前企业最初向云的迁移进行了比较。「这就像『让我们试一试,让我们了解所有这些对政策、数据、隐私和培训的影响。』」她说。「企业通过进行小而有意义的试点来创建自己的用例。这就是上次(云市场)发生的事情,我并不感到惊讶。」事实上,企业对在人工智能上花大价钱犹豫不决是有道理的,原因有两个。首先,由于在 COVID-19 大流行期间和之后立即对 IT 进行了大量投资,许多组织的现金都很紧张。「数字领导者正试图平衡账目——他们在想『现在什么能给我带来最大的投资回报』,」她说。「小型、谨慎、精心策划的试点项目——而你仍在做一些更有力的数字化转型项目——将对你的组织产生重大影响。」其次,许多新兴技术,特别是生成式人工智能,仍处于发展的初级阶段。Bev White 说,OpenAI 的 ChatGPT 等知名大型语言模型的每一次新迭代都会带来新的发展和机遇,但也会带来风险。「作为一家大企业的 CIO 或 CTO, 你要负责,你要确定你在用人工智能做什么,」她说。「这里有这么大的风险,你需要考虑你的风险敞口——你需要什么来保护为你的企业工作的人?你想要什么政策?」Bev White 谈到了人工智能安全和隐私的重要性,特别是当涉及到员工使用他人拥有的数据训练模型的潜力时,这可能会为诉讼打开大门。「剪切和粘贴的风险很大,」她说。「我并不是说生成式人工智能不好。我也是它的铁杆粉丝。但我要说的是,你必须非常有意识地了解数据的来源以及你根据这些信息做出的决定。」鉴于这些对新兴技术的担忧,Nash Squared 报告称,只有 15% 的数字领导者为生成式人工智能的需求做好了准备,这似乎很奇怪。然而,她表示,这种缺乏准备是可以理解的,因为目前如何安全可靠地实施人工智能以及在不久的将来突然改变方向的可能性都缺乏明确性。「如果你对在企业内部使用这项技术的安全性、安全性和声誉负责,你最好确保你已经考虑了所有事情,并且你要带上你的董事会,并在此过程中对他们进行教育,」她说。「很多首席执行官都知道,他们必须在自己的组合中拥有人工智能,因为它将提供竞争优势,但他们还不知道在哪里。真的,这是一个需要发现的阶段。」Bev White 说,对探索和调查的关注也有助于解释为什么只有 21% 的全球组织制定了人工智能政策,超过三分之一( 36% )的组织没有计划制定这样的政策。「你知道有多少创新项目是从人们开始思考潜在的闸门和失败点开始的?」她说。大多数情况下,你一开始会说,「哇,我能去哪里?」然后,你要弄清楚你需要关闭哪些门,以确保你的项目和数据安全和可控。虽然专业人士希望企业在探索人工智能的机会时活得更久点,但这项对全球 2000 多名数字领导者的调查表明,首席信息官并没有忘记在这个快速发展的领域需要强有力的治理。在大多数情况下,数字领导者正在寻找法规来帮助他们的组织安全可靠地调查人工智能。然而,他们也不相信行业或政府机构的人工智能规则会有效。
虽然 88% 的数字领导者认为,更严格的人工智能监管是必不可少的,但多达 61% 的人表示,更严格的监管并不能解决新兴技术带来的所有问题和风险。「从行业机构和政府那里得到指导是件好事,你可以推动自己的想法,」Bev White说。「但你不一定会喜欢它。如果它被贯彻并成为法律,那么突然之间你就必须遵守它,并找到一种方法来遵守这些准则。因此,监管是福也是祸。」Bev White 说,即使在快速发展的人工智能领域,法规出台缓慢,但对于希望研究这项技术的公司来说,这并不是自满的借口。数字领导者,尤其是安全主管,现在应该考虑自己在企业内使用人工智能的护栏。这也是她自己的组织内正在发生的事情。
「我们的首席信息安全官一直在思考生成式人工智能,以及它如何成为网络犯罪分子的真正礼物。它可以无辜地打开通往重要大块数据的大门,这可能意味着可以获得您的秘密武器。你必须权衡风险和收益,」她说。考虑到这种平衡,Bev White 向专业人士发出了警告——为一些备受瞩目的人工智能事件做好准备。正如影响少数人的网络安全事件可以帮助向许多其他人展示风险一样,人工智能事件(例如数据泄露、幻觉和诉讼)将导致高级专业人员在探索新兴技术时停下来反思。「作为领导者,我们需要关注,但我们也需要保持好奇心。我们需要靠拢并参与进来,这样我们才能看到那里的机会,」Bev White说。参考连接
https://www.zdnet.com/article/companies-arent-spending-big-on-ai-heres-why-that-cautious-approach-makes-sense/