2027年底,40%智能体AI项目或被取消

来源:半导纵横发布时间:2025-06-26 17:18
AI
技术进展
生成海报
当前多数智能体项目仍处于实验阶段,实际应用效果有限,且市场存在明显炒作现象。

Gartner最新报告显示,受成本上升、价值不明及风险控制不足等因素影响,预计到2027年底,超过40%的AI智能体项目将被取消。报告指出,当前多数项目仍处于实验阶段,实际应用效果有限,且市场存在明显炒作现象。

本次报告Gartner对3412名参与者的调查,其中19%的人表示他们的组织在 AI 智能体方面进行了大量投资,42% 的人表示组织进行了保守的投资,8%的人表示组织没有投资,其余31%的人表示组织持观望态度或不确定。Gartner预计在数千家代理 AI 供应商中只有大约 130 家是真实的;而到 2028 年至少 15% 的日常工作决策将由智能体自主做出、33% 的企业软件应用程序将包含智能体。

在Gartner看来,今年以来愈演愈烈的 AI 智能体概念热潮在很大程度上是炒作的结果,很多项目的“智能体化”仅仅是品牌名称重塑,在市场冷静后将会出现一波退潮。

Gartner分析师Anushree Verma强调,目前,大多数 AI 智能体项目都是早期阶段的实验或概念验证,这些项目大多受到炒作的驱动,经常被误用。这会让企业看不到大规模部署 AI 智能体的实际成本和复杂性,从而阻碍项目投入生产。他们需要透过炒作就应用这一新兴技术的地点和方式做出谨慎的战略决策。大多数 AI 智能体方案都缺乏显著的价值或投资回报,因为当前的模型还不够成熟,也不具备自主实现复杂业务目标或长期遵循细微指令的能力。要想从 AI 智能体中获得真正的价值,企业必须关注企业生产力,而不仅仅是个人任务的增强。例如,企业可以在需要决策时使用 AI 智能体,在常规工作流程中使用自动化,在简单检索时使用助理。这就是通过成本、质量、速度和规模来推动业务价值。

Gartner警示AI智能体风险

不久前,Gartner高级研究总监赵宇曾公开分享自己的观点,“AI智能体正在将传统AI的安全风险,系统性地放大。”大量用户对智能体潜在的安全风险认知不足,在产品设计与部署过程中常常低估其可能带来的系统性负面效应,从而缺乏必要的防护机制。

首先是幻觉问题。生成式AI的“编造”特性早已被业内熟知,但在智能体中,其危害被显著放大。由于AI智能体需要长时间运行,并依据动态上下文做出推理,其幻觉往往不是文字输出错误,而是直接引发错误行为——例如在自动驾驶场景中,若智能体误识别交通标志,便可能导致物理事故。

其次是指令层的攻击风险升级。传统的“提示注入”攻击在智能体场景中,演变为更具操作性的“行为操控”。例如在MCP(Multi-Component Prompt)架构下,第三方工具作为系统信任组件被接入,攻击者可通过篡改工具描述实现“Rug Pull”——用恶意工具替换原组件,但保留可信标签,使得攻击隐蔽且高效。

此外还有一个更隐蔽的风险:第四方提示注入。攻击路径并非直接指向智能体,而是通过间接信任链进行跳跃式入侵,极大地增加了溯源难度。此外,数据泄漏在AI智能体环境下,表现出更具“诱导性”的特征。一方面,攻击者可以通过构造恶意工具引导智能体访问敏感文件,并将数据作为参数外发。另一方面,数据泄漏可能在用户无意识中发生。例如在写作辅助工具中,智能体从用户文件中抓取隐私内容自动生成文本并公开发布。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
登录后才可以评论哦…
暂无用户评论