背景
应用Qt5.12.9的QGraphicsItem来实现俄罗斯方块,应用简略的评估函数,实现AI机器人玩俄罗斯方块游戏。这是AI机器人的第一步,这个算法很简略,但很无效,大多数状况能消5百层以上,最近的为数不多的测试中,最高纪录曾经消了超过2500层。在这个根底上,能够不便的积攒原始数据,我心愿能抽取模式,进行模式识别及至机器学习。
思路
在手动游戏根底上进行革新,借鉴回放的教训,只须要退出一个评估算法,为每一个新方块找出一个搁置的姿势(旋转次数)和最终地位坐标就能够了。我的算法设计也很简略,就是为每一个方块穷举其搁置办法,应用一个严密水平的评估算法进行评分,取出最高分的操作,若有雷同得分的操作,用随机数二一添做五。
效果图
要害代码剖析
流程管制
界面操作控制变量,做到随时能够在手动与主动两种模式之间进行切换。
if (isAutoRunning) { //主动模式 autoProcessCurBlock(); //解决以后方块,应用评估函数确定方块的最终姿势与地位 block->relocate(curPos); //搁置 block->setBlockNotActive(); //固定方块 generateNextBlock(); //取下一个方块,游戏持续 }else //手动模式 this->moveBlockDown(); ...
方块搁置评分函数
我的设计思维很直观,俄罗斯方块就是要尽量严密的沉积在一起,所以对每一个组成方块的block都检测一个它四周的四个地位,看是否有block(包含边界)存在,若有就加1分,没有不加分。这块的加分,并没有区别组成方块本身的block和外界的block,因为每个方块都是与本人进行比拟,所以辨别与不辨别成果是一样的。起始分由深度确定,越深我认为成果越好。另个,block的垂直下方最好不要有空洞,若有会减分。
int Game::evaluate(Tetris* t){ QPoint pos = t->getPos(); int ct = pos.y(); //深度为根底分 int cct = t->cleanCount(); if (cct > 1) //能消层,加分 ct += 10 * (cct - 1); for (int i = 0; i < 4; i++) { for (int j = 0; j < 4; j++) { if (t->data[i][j]) { ct += t->hasTetrisBlock(pos.x() + j + 1, pos.y() + i) ? 1 : 0; //检测block左边的地位 ct += t->hasTetrisBlock(pos.x() + j - 1, pos.y() + i) ? 1 : 0; //检测block右边的地位 ct += t->hasTetrisBlock(pos.x() + j, pos.y() + i + 1) ? 1 : 0; //检测block下方的地位 ct += t->hasTetrisBlock(pos.x() + j, pos.y() + i - 1) ? 1 : 0; //检测block上方的地位 if (i == 3 || t->data[i + 1][j] == 0) { if (!t->hasTetrisBlock(pos.x() + j, pos.y() + i + 1)) { //block下方的紧临空洞 ct -= 4; } else { int k = 2; while (pos.y() + i + k <= 19) { if (!t->hasTetrisBlock(pos.x(), pos.y() + i + k)) { //block下方的非紧临空洞 ct -= 1; break; } k++; } } } } } } return ct;}
穷举方块的所有搁置形式
一个方块最多只有四种姿势,把方块的每一种姿势都从左到右moveDownEnd一次,进行评分,获得分最高的计划。
void Game::autoProcessCurBlock(){ int max = 0; QPoint initPos = block->getPos(); Tetris* tmp = new Tetris(initPos, block->getShape(), -1); //结构以后方块的替身,blockType为-1,这种方块不会显示 int rotateCt = block->getRotateNum(); //同步替身初始姿势 for (int k = 0; k < rotateCt; k++) tmp->rotate(); rotateCt = 0; //用于保留方块的最终姿势 for (int r = 0; r < 4; r++) { //四种姿势遍历,其实能够优化,有的方块不须要四次 if (r > 0) { tmp->relocate(initPos); //留神,旋转要在方块进入游戏界面的中央旋转,不然可能旋转不胜利 tmp->rotate(); } while (tmp->moveLeft()); //从最右边开始 do { tmp->moveDownEnd(); tmp->setBlockNotActive(); //固定方块,以便进行评分 int score = evaluate(tmp); //评分 if (score > max) { //找到以后最优计划 max = score; curPos = tmp->getPos(); rotateCt = r; } else if (score == max) { //呈现相等评分,随机取 if (qrand() % 2 == 1) { curPos = tmp->getPos(); rotateCt = r; } } //initPos.setX(tmp->getPos().x()); tmp->relocate(QPoint(tmp->getPos().x(), initPos.y())); //返回到游戏空间上方 tmp->setBlockTest(); //方块复原到测试状态 } while (tmp->moveRight()); //方块右移,直到不能挪动 } delete tmp; //销毁测试方块,忽然想到这块能够优化,只须要建七个方块就好,这样就不必一直的创立和销毁了 for (int k = 0; k < rotateCt; k++) block->rotate();}
下一步的构想
应用python从新实现所有性能,也不再用Qt,就用python自带的tkinter就好。把重点放在模式提取,让AI主动玩游戏,写个算法,提取优良的操作模式。而后应用模式匹配或机器学习算法来优化AI。当初还没有具体的想法,只有这么个大略的构想。
源代码及运行办法
我的项目采纳cmake组织,请装置cmake3.10以上版本。上面脚本是windows下基于MSVC的,其它操作系统上根本相似,或者应用qtcreator关上进行操作。
cmake -A win32 -Bbuild .cd buildcmake --build . --config Release
注:本我的项目采纳计划能跨平台运行,曾经适配过windows,linux,mac。
源代码:
https://gitee.com/zhoutk/qtetris.git
或
https://gitee.com/zhoutk/qtdemo/tree/master/tetrisGraphicsItem
或
https://github.com/zhoutk/qtDemo/tree/master/tetrisGraphicsItem