游戏ai_ 游戏ai难度是什么意思
- 时间:
- 浏览:0
游戏ai_ 游戏ai难度是什么意思
很高兴有机会参与这个 游戏ai问题集合的讨论。这是一个多元且重要的话题,我将采取系统的方法,逐一回答每个问题,并分享一些相关的案例和观点。
文章目录列表:
1.即时战略游戏(比如 WAR3)的 AI 是怎样实现的?
2.谁知道一款比较老的 游戏?
3.F1 游戏ai提高后电脑疯了……
4.游戏里的AI是如何实现的
5.索尼人工智能打败人类顶尖玩家登上《自然》封面
即时战略游戏(比如 WAR3)的 AI 是怎样实现的?
War3的AI没有必要使用你提及的算法,或者说,根本无法使用。
有相关经验表明,游戏的AI如果采用神经网络等算法,会傻得出奇。
使用学院派算法的AI总会做出匪夷所思的动作,让人无法理解,游戏性尽失。
其主要原因在于遗传算法、模拟退火算法、神经网络算法、各种分类算法等等,都是高度概括化的,旨在找到最优解/或者找到全局关系。但是我们的AI实际不需要最优解和全局关系,一是你的电脑没那么叼,这么复杂的情况,如果真的高度概括出来了,其复杂程度是很高的,你的电脑也带不动,其次是算法在训练过程中收敛也会很慢,因为样本太过复杂,所以也许要花上很久(几年?猜的)来收敛,如果我们降低收敛精度要求来使速度加快,AI就会变得非常傻,做游戏明显不能这样。即使上述问题都被解决了,还有个问题就是,电脑得到了最优解和最优数学模型,你作为玩家就没有胜利的希望了,这游戏给谁玩?
即使设计公司神经病般的决定如此设计,每当你的游戏有更新,兵种变化,数据变化,整个算法就要重新训练,玩家需要重新下载AI的全部内容,对用户的体验和公司的工作效率都有损害。
战略类游戏的AI,还是有限状态机。根据不同情况分类做不一样的事情,全都设计好,设计的尽量详细,就OK了。
关于其复杂度:
这类AI的程序体往往超乎想象的长,当然具体长度和游戏本身的设计也有一定关系,和游戏其它部分代码的设计优化程度也有关系,但是即使在较优环境中,其AI长度也是很长的。具体原因就在于其事无巨细的分类了所有情况,规定了AI在不同时间不同情况所做的不同事情,作为一个战略类游戏,尤其是即时战略类游戏,这是十分复杂的,情况十分多,因此程序本身也会相当的长。
但是他运行速度又快!又像人类在玩!又给了玩家胜利的可能!又容易设计和更改!
谁知道一款比较老的 游戏?
根据您的描述,这个老式 游戏很有可能是《凶残竞速》(Twisted Metal)系列。
《凶残竞速》是一款老式的车辆竞技游戏,首作发布于1995年的PlayStation 。游戏具有以下特征:1. 《凶残竞速》是一款单机竞速游戏,支持两人同屏竞速,采用上下分屏方式。2. 游戏没有固定赛道,玩家在一个开放的城市地图中自由行驶。要通过消灭其他车手来通关,部分作品还有Boss角色。3. 车手可以在地图上收集各种道具,最多可以携带3-4个,然后在比赛中使用以攻击对手。道具有冰冻、火焰、导弹等,玩家需要熟练使用。4. 游戏中的车辆都装有特殊装置,可以在空中跳跃,并在跳跃中捡取道具。这是游戏的一大特色。5. 游戏具有 的摧毁场面,车手可以被打翻、炸毁或强力撞出场地。这也增加了游戏的趣味性。
《凶残竞速》在PlayStation 推出多作,后又移植至Xbox等 ,曾风靡全球,深受玩家喜爱。作为一款老式经典 游戏,它似乎很符合您提供的描绘,我认为有很大可能就是您要找的游戏。
F1 游戏ai提高后电脑疯了……
你是F1C?
再怎么调AI Stength都不会出现Jump Start吧……赛道的问题?有可能是赛道的灯组参数设置有问题。
另外不排除某些MOD里面有BUG(比如BUG王Deluxe,也就是传说中的豪华版),最好还是换一个高质量的MOD,F1C推荐PRT,08Final和09都是极为 的,我玩到现在没有发现BUG。rF方面推荐CTDP,超级 的神作,05和06都极为不错。
游戏里的AI是如何实现的
游戏里面的AI是通过建立数学模型来实现的
比如 游戏的AI,和你一起跑得 根据不同等级的AI表现出不同能力
它基本的设计思想是,通过对地图场景进行数学建模然后结合模型中的应变量结合 本身的参数进行数学结合
最后特出了带有系数的近似等式
AI的等级就是近等式的系数
然后通过数学变换(比如三角变换,等比变化,随即变换等)使得AI变的非常具备“人”的思维
还有一种AI是通过行为库来实现的,在行为库中,定义了大量的行为,这些行为可能是预先定义好的,可能是游戏者在平时游戏的时候被系统录入的
然后AI通过类似责任链(不同等级的责任者对应不同等级的责任行为,你可以去网络搜索一下)的形式获取到某一个时候的行为,从而表现的比较有"智能"
索尼人工智能打败人类顶尖玩家登上《自然》封面
索尼人工智能打败人类顶尖玩家登上《自然》封面
索尼人工智能打败人类顶尖玩家登上《自然》封面。索尼公布了一款由其旗下AI部门开发的人工智能技术,同时它也相应地成为了本周《自然》的“封面人物”,索尼人工智能打败人类顶尖玩家登上《自然》封面。
索尼人工智能打败人类顶尖玩家登上《自然》封面1还记得前几天索尼预告即将公布的重要AI消息吗?最近,索尼正式宣布,其研究人员已经开发出了一款名为“GT Sophy”的AI车手,可以击败人类顶尖的车手获得 。
据悉,索尼对于“GT Sophy”使用了异种称为强化学习的方法进行训练。其本质就是不断的试错,将AI扔进一个没有指令的环境中,达到目标即可获得奖励。
索尼的研究人员表示,它们必须谨慎地设计奖励,譬如微调碰撞惩罚,调整各种目标地优先级,从而保证AI地驾驶风格足够激进,但又不只是在路上欺负对手。
在强化学习的帮助下,AI只需要几小时的训练,就已经适应了赛道飙车。并且在一两天内做到了训练数据快过95%的车手。经过45000小时的总训练,目前AI已经在索尼PS5的《GT 》游戏中取得了惊人的成绩,击败顶级人类车手已不是问题。
索尼用AI对三位顶级电子竞技车手进行了测试,没有一个人能够在计时赛中击败AI。而他们也从AI竞赛中学到了新战术,学习AI的路线,掌握更好的入弯时间点。
索尼目前表示,他们正在努力将GT Sophy整合到未来的《GT 》游戏中,不过尚没有提供任何具体的时间表。
再结合之前索尼造车的各种消息,这款AI没准还能用在现实 汽车的自动驾驶技术上,前景可谓十分乐观。
索尼人工智能打败人类顶尖玩家登上《自然》封面2“我们追求人工智能,是为了最终更好地了解人类。”
作为这个世代中为数不多的拟真 游戏,《GT Sport》的玩家们可能从来没有想过,自己玩的游戏,有天会登上 顶级科学期刊《自然》(Nature)的封面。
在昨天,索尼公布了一款由其旗下AI部门开发的人工智能技术,同时它也相应地成为了本周《自然》的“封面人物”,而这个人工智能的成就,是在《GT Sport》中击败了全球 游戏选手们。
Nautre第7896期封面
或者,用“征服”这个词来形容更为合适。在索尼演示的四位AI车手与四名职业 玩家的对决中, AI的最高圈速比人类中的最优者快了两秒有余。对一条3.5英里长度的赛道而言,这个优势一如AlphaGo征服围棋。
在近五年的研发时间里,这个由索尼AI部门、SIE还有PDI工作室(也就是《GT 》开发商)共同研发的AI完成了这个目标。
索尼为这个AI起名为GT Sophy。“索菲”是个常见的人名,源自希腊语σοφ α,意为“知识与智慧”。
Sophy和一般的游戏AI有什么区别?
AI在游戏中打败人类,并不是一件稀奇事。OpenAI在“冥想训练”了成千上万场DOTA2后击败过当时的Ti8 OG,谷歌的AlphaStar也曾面对《星际争霸2》的顶级职业选手时表现过碾压态势,而我们每个普通玩家,也都尝过“电脑[疯狂的]”的苦头。
2019年,OpenAI曾经在仅开放部分英雄选用的限制条件下击败过OG
但这些“打败”并非一回事。要明白GTS中的AI车手Sophy意味着什么,首先要明确Sophy和其一个单纯“你跑不过的AI”有什么区别。
对过往 游戏里的AI而言,尽管呈现形式都是游戏中非玩家控制的“智能体”,但传统意义上的AI车手通常只是一套预设的行为脚本,并不具备真正意义上的智能。
传统AI的难度设计一般也是依赖“非公平”的方式达成的,比如在 游戏中,系统会尽可能削弱甚至消除AI车的物理模拟,让AI车需要处理的环境参数远比玩家简单。
而要塑造更难以击败的AI敌人,也不过是像RTS游戏中的AI通过暗中 的方式偷经济暴兵一样,让AI车在不被注意的时刻悄悄加速。
所以对于具备一定水平的玩家而言, 游戏里的传统AI在行为逻辑和策略选择上几乎没有值得参考的点,遑论职业 游戏选手。
而Sophy则是和AlphaGo一样,通过深度学习算法,逐渐在模拟人类的行为过程中达到变强:学会开车,适应规则,战胜对手。
这种AI带给玩家的,完全是“在公平竞争中被击败”的体验。在被Sophy击败后,一位人类车手给出了这样的评价:“(Sophy)当然很快,但我更觉得这个AI有点超乎了机器的范畴……它像是具备人性,还做出了一些人类玩家从未见过的行为。”
这难免再次让人联想到重新改写了人类对围棋理解的AlphaGo。
相对于围棋这种信息透明的高度抽象游戏,玩法维度更多、计算复杂度更高的电子游戏,在加入深度学习AI之后,其实一直很难确保“公平竞技”的概念。
例如在2019年征战《星际争霸2》的AlphaStar,基本没有生产出新的战术创意,只是通过无限学习人类选手的战术,再通过精密的多线操作达成胜利——即便人为限制了AlphaStar的APM,AI完全没有无效操作的 率也并非人类可比。
这也是为什么在AlphaStar与人类职业选手的对抗记录里,当AI用“三线闪追猎”这样的神仙表演击败波兰星灵选手MaNa后,并不服气的MaNa在赛后采访中说出了“这种情况在同水平的人类对局中不可能出现”这样的话。
AlphaStar用追猎者“逆克制关系”对抗MaNa的不朽者部队
同样,《GT 》也是一款与《星际争霸2》具备同样复杂度的拟真 游戏。
在专业 玩家的眼中,路线、速度、方向,这些最基本的 运动要素都可以拆解为无数细小的反应和感受,车辆的重量、轮胎的滑移、路感的反馈……每条弯道的每次过弯,都可能存在一个 的油门开度,只有最顶级的车手可以触摸到那一缕“掌控”的感觉。
在某种意义上来讲,这些“操纵的极限”当然能够被物理学解释,AI能掌握的范围显然要大于人类。所以,Sophy的反应速度被限制在人类的同一水平,索尼为它分别设置了100毫秒、200毫秒和250毫秒的反应时间——而人类运动员在经过练习后对特定刺激的反应速度可以做到150毫秒左右。
无疑,这是一场比AlphaStar更公平的战斗。
Sophy学会了什么
和Sophy为数众多的AI前辈一样,它也是利用神经网络等深度学习算法来进行驾驶技巧的训练。
Sophy在训练环境中会因为不同的行为遭受相应奖励或者惩罚——高速前进是好的,超越前车则更好;相应地,出界或者过弯时候撞墙就是“坏行为”,AI会收获负反馈。
在上千台串联起的PS4组成的矩阵中,Sophy经受了无数次模拟驾驶训练,在上述学习里更新自己对《GT Sport》的认知。从一个不会驾驶的“婴儿”到开上赛道,Sophy花费了数个小时的时间;一两天后,从基础的“外内外”行车线开始,Sophy已经几乎学会了所有常见的 运动技巧,超越了95%的人类玩家。
索尼AI部门为Sophy搭建的“训练场”
然而, 并不是一个人的游戏。即便Sophy在去年7月份的比赛中,已经可以没有其他 的情况下拥有超出顶级人类选手的计时赛成绩,但在真实的多人游戏中,Sophy还需要学会与对手进行对抗上的博弈,理解其他车手的行为逻辑。
因此,索尼AI部门的科研人员对Sophy进行了更多的“加练”,比如面对其他车时如何插线超车、阻挡卡位。到最后,Sophy甚至还被“教育”到能够理解和遵守 运动中的比赛礼仪——比如作为慢车时进行让车,同时避免不礼貌的恶意碰撞。
游戏中的AI车,一般即便会尝试躲避与玩家擦碰,其实现方式也只是不自然地闪躲。而Sophy呈现出的“比赛理解”,都是依靠脚本运行的传统 AI无法做到的。
到了10月,Sophy已经可以在正式的同场比赛中击败最顶级的人类选手。
索尼邀请的四位人类车手,其中包括GT锦标赛三冠王宫园拓真
比如 场在Dragon Trail(龙之径)上进行的比赛。作为《GT Sport》的驾驶学校尾关,每个GTS玩家应该都相当熟悉这条赛道(以及DLC中的“汉密尔顿挑战”)。在数万个小时的训练过后,排名 的Sophy车手已经可以踩着 的最优路线保持全程 。
而在四个Sophy与四位人类车手角逐的第二个比赛日中,AI们的优势进一步扩大了——几乎达成了对顶级人类玩家的碾压。
如果只是在路线的选择和判断上强过人类,用更稳定的过弯来积累圈速优势,这可能还没什么大不了的。
但研究者们认为,Sophy几乎没有利用在用圈速上的 优势来甩开对手(也就是AI身为非人类在“硬实力”上更强的部分),反而在对比赛的理解上也超过了人类玩家,比如预判对手路线的情况下进行相应的对抗。
在《自然》论文所举的案例中,两名人类车手试图通过合法阻挡来干扰两个Sophy的首选路线,然而Sophy成功找到了两条不同的轨迹实现了超越,使得人类的阻挡策略无疾而终,Sophy甚至还能想出有效的方式来扰乱后方车辆的超车意图。
Sophy还被证明能够在模拟的萨尔特赛道(也就是 的“勒芒赛道”)上执行一个经典的高水平动作:快速驶出前车的尾部,增加对前车的阻力,进而超越对手。
更令研究者称奇的是,Sophy还捣鼓出了一些非常规的行为逻辑,听上去就像AlphaGo用出新的定势一样。通常, 手接受的教育都是在过弯时“慢进快出”,负载只在两个前轮上。但Sophy并不一定会这么做,它会在转弯时选择性制动,让其中一个后轮也承受负载。
而在现实中,只有最顶级的'F1车手,比如汉密尔顿和维斯塔潘,正在尝试使用这种三个轮胎快速进出的技术——但Sophy则完全是在游戏 中自主学会的。
曾经取得三次GT锦标赛 的车手宫园拓真在与AI的对抗中落败后说,“Sophy采取了一些人类驾驶员永远不会想到的 路线……我认为很多关于驾驶技巧的教科书都会被改写。”
“为了更好地了解人类”
区别于以往出现在电子游戏中的先进AI们(比如AlphaStar),Sophy的研究显然具备更广义、更直接的现实意义。
参与《自然》上这篇论文撰写的斯坦福大学教授J.Christian Gerdes就指出,Sophy的成功说明神经网络在自动驾驶软件中的作用可能比现在更大,在未来,这个基于《GT 》而生的AI想染会在自动驾驶领域提供更多的帮助。
索尼AI部门的CEO北野宏明也在声明中表示,这项AI研究会给高速运作机器人的研发以及自律型驾驶技术带来更多的新机会。
Sophy项目官网的介绍
但如果我们将目光挪回作为拟真 游戏的《GT 》本身,Sophy的出现,对大众玩家和职业车手而言同样具备不菲的意义。
正如文章前面所说,在目前市面上大多数拟真 游戏中,“传统AI”已经是一个完全不能带给玩家任何乐趣的事物。这种依赖不公平条件达成的人机对抗,与 游戏开发者希望带给玩家的驾驶体验是相悖的,人类玩家也无法从中获得任何教益。
在索尼AI部门发布的纪录片中,“GT 之父”山内一典就表示,开发无与伦比的AI可能是一项了不起的技术成就,但这对普通玩家来说可能不是什么直白的乐趣。
因此,山内承诺在未来的某个时候,索尼会将Sophy带入到三月份即将发售的《GT 7》中。当Sophy能够更加了解赛场上的环境和条件,判断其他车手的水平,一个这样智能又具备风度的AI,就能够在与人类比赛时,为玩家提供更多真实的快乐。
在拟真 游戏逐渐“小圈子化”,众多厂商都做不好面对纯新玩家的入门体验的今天,或许一个AI老师的存在,有机会能给虚拟 中的拟真驾驶带来更多的乐趣,就像《GT 4》的宣传片片头所说,“体验汽车生活”。
这可能才是一个基于游戏而生的AI能为玩家带来的最重要的东西——如同山内一典对Sophy项目的评论, “我们不是为了打败人类而制造人工智能——我们追求人工智能,是为了最终更好地了解人类。”
索尼人工智能打败人类顶尖玩家登上《自然》封面3据路透社伦敦2月9日报道,索尼公司周三说,它创造了一个名为“GT索菲”的人工智能(AI) ,能击败《GT 》——PlayStation 上的模拟 游戏——中全球最 的车手。
该公司在一份声明中说,为了让“GT索菲”为这款游戏做好准备,索尼公司的不同部门提供了基础人工智能研究成果、超现实真实 模拟器,以及进行大规模人工智能训练所需的基础设施。
报道称,去年7月,该人工智能 与《GT 》的四名顶尖车手展开了较量,它吸取了这次比赛的经验,并在当年10月的另一场比赛中战胜了人类车手。
这款人工智能的设计团队 、索尼人工智能美国公司负责人彼得·沃尔曼说:“我们用了大约20台PlayStation游戏机,同时运行大约10到12天,才训练‘GT索菲’从零开始达到超人类水平。”
报道指出,虽然人工智能曾在国际象棋、麻将和围棋比赛中击败人类,但索尼公司说,掌握 驾驶技术的难点在于,许多决定是必须实时做出的。
据报道,索尼的竞争对手微软公司最近斥资近690亿美元收购了动视暴雪公司。微软一直在利用游戏来改进人工智能,其方式是不断为人工智能模型提供新挑战。
报道称,《GT 》是一款模拟 电子游戏,1997年问世,已售出8000多万套。
索尼希望将学习到的东西应用到其他PlayStation游戏中。该公司说:“有很多游戏可以对人工智能构成不同挑战,我们期待开始解决这些问题。”
好了,今天关于“赛车游戏ai”的话题就讲到这里了。希望大家能够通过我的介绍对“赛车游戏ai”有更全面、深入的认识,并且能够在今后的实践中更好地运用所学知识。