据我所知,在实现迭代加深时,应该使用某一深度的的最佳移动来排序更高深度的移动。我对此有一个问题:假设我在深度n
处获得了移动m
作为最佳移动,那么在深度n + 1
处进行搜索时,移动排序器应该只在最高级别的搜索中优先考虑m
,还是在m
合法的每一个级别都优先考虑?
我当前的迭代加深实现如下:
搜索:
pvLine = Nonefor depth in range(1, self.maxDepth): self.auxSearch(board, depth, initalHash) # 从转置表中查找主要变着 pvLine = self.getPVLine(board, initalHash) bestMove = pvLine[0][0] bestValue = pvLine[0][1] self.ordering.setBestMove(bestMove, depth + 1) print(f'{depth=} | {bestValue=} | {bestMove=} | {pvLine=}')return pvLine
移动排序:
if((move, depth) == self.bestMove): priority += self.BESTMOVE_BONUS
setBestMove函数:
def setBestMove(self, move: chess.Move, depth: int) -> None: self.bestMove = (move, depth)
self.BESTMOVE_BONUS
是一个非常大的数字,因此该移动将具有最高优先级。
目前,我确保移动排序器仅在当前搜索的最高级别优先考虑来自之前较浅搜索的最佳移动。我不确定我的方法是否正确?
回答:
移动排序将使你的算法比没有排序时快得多,并且实现起来相当容易。你可以在这里阅读更多相关信息:https://www.chessprogramming.org/Move_Ordering。
我建议你像现在这样做,将前一次迭代的最佳移动放在首位。最佳移动(或最佳移动序列,“主要变着”)总是来自之前深度的移动。因此,如果你在深度3处获得了一系列移动a1、b1和c1,那么在深度4处,你将首先尝试在深度1处移动a1,在深度2处移动b1,在深度3处移动c1。
其次,你应该尝试好的捕获移动,通常使用MVV-LVA找到。用兵捕获后通常是一个好移动,但反过来如果兵受到保护,可能是坏的移动。
其他易于实现的技术包括杀手移动和历史移动,也可以在上面的链接中找到。