AI挑战《超级马力欧兄弟》,Claude系列领先,推理模型为何落败?

   发布时间:2025-03-04 16:03 作者:顾青青

加利福尼亚大学圣地亚哥分校的Hao人工智能实验室最近进行了一项别开生面的研究,他们将AI技术引入了经典游戏《超级马力欧兄弟》中,以此作为测试AI性能的独特平台。研究结果显示,在这次测试中,Anthropic公司的Claude 3.7版本AI展现出了卓越的能力,紧随其后的是Claude 3.5版本。相比之下,谷歌的Gemini 1.5 Pro和OpenAI的GPT-4o则未能达到预期表现。

值得注意的是,这次实验所用的并非1985年原版《超级马力欧兄弟》,而是在一个模拟器中运行的游戏版本。Hao人工智能实验室研发的GamingAgent框架作为桥梁,连接了AI与游戏,使AI能够操控马力欧。GamingAgent不仅向AI发出如“避开附近障碍物或敌人”等基本指令,还提供了游戏内实时截图。AI则通过生成Python代码来指挥马力欧的行动。

据实验室介绍,这种游戏环境对AI模型提出了高要求,迫使它们学习如何规划复杂的操作并制定有效的游戏策略。一个有趣的发现是,像OpenAI的o1这样的推理模型,虽然在多数基准测试中表现出色,但在此次实验中却不如“非推理”模型。研究人员指出,推理模型在实时游戏中往往因决策时间过长而表现不佳。在《超级马力欧兄弟》这样的游戏中,时机至关重要,一秒钟的延误可能导致完全不同的结果。

游戏作为衡量AI性能的工具已有数十年历史,但一些专家对此提出了质疑。他们认为,与现实世界相比,游戏环境相对抽象且简单,为AI训练提供了理论上无限的数据。这种局限性可能使得游戏基准测试结果无法全面反映AI技术的真实水平。

近期,一些引人注目的游戏基准测试结果引发了广泛的讨论,甚至引发了OpenAI研究科学家安德烈・卡帕西的“评估危机”言论。他在一篇帖子中表示,面对众多AI指标,他感到困惑,不知道应该关注哪些。他总结道,目前难以准确评估这些AI模型的真实能力。

尽管存在这些争议和挑战,但观看AI玩《超级马力欧兄弟》仍然是一种有趣的体验。这一研究不仅展示了AI技术的潜力,也引发了人们对AI性能评估和未来发展的深入思考。

 
 
更多>同类内容
全站最新
热门内容
本栏最新