Algoritmo A*

(Redirecionado de Busca A*)
 Nota: Se procura o conto de Arthur Charles Clarke, veja A estrela.

Algoritmo A* (Lê-se: A-estrela) é um algoritmo para Busca de Caminho. Ele busca o caminho em um grafo de um vértice inicial até um vértice final. Ele é a combinação de aproximações heurísticas como do algoritmo Breadth First Search (Busca em Largura) e da formalidade do Algoritmo de Dijkstra.

O algoritmo foi descrito pela primeira vez em 1968 por Peter Hart, Nils Nilsson, e Bertram Raphael. Na publicação deles, ele foi chamado de algoritmo A; usando este algoritmo com uma heurística apropriada atinge-se um comportamento ótimo, e passou a ser conhecido por A*.

Sua aplicação vai desde aplicativos para encontrar rotas de deslocamento entre localidades a resolução de problemas, como a resolução de um quebra-cabeças. Ele é muito usado em jogos.

Algoritmo editar

Sejam

Q = conjunto de nós a serem pesquisados;
S = o estado inicial da busca

Faça:

  1. Inicialize Q com o nó de busca (S) como única entrada;
  2. Se Q está vazio, interrompa. Se não, escolha o melhor elemento de Q;
  3. Se o estado (n) é um objetivo, retorne n;
  4. (De outro modo) Remova n de Q;
  5. Encontre os descendentes do estado (n) que não estão em visitados e crie todas as extensões de n para cada descendente;
  6. Adicione os caminhos estendidos a Q e vá ao passo 2;
caminhos expandidos;

Uma estimativa que sempre subestima o comprimento real do caminho ate o objetivo é chamada de admissível. O uso de uma estimativa admissível garante que a busca de custo-uniforme ainda encontrará o menor caminho.

História editar

 
Trata-se de um algoritmo inventado por pesquisadores que trabalham no pathfinding do Robô "Shakey the Robot"

O A* foi criado como parte do projeto Shakey, que tinha como objetivo construir um robô móvel que pudesse planejar suas próprias ações. Nils Nilsson propôs originalmente o uso do algoritmo Graph Traverser[1] para encontrar caminhos para o Shakey percorrer.[2] O Graph Traverser é guiado por uma função heurística h(n), a distância estimada do nó n ao nó objetivo: ele ignora totalmente g(n), a distância do nó inicial até n . Bertram Raphael sugeriu usar a soma g(n) + h(n) .[2] Peter Hart inventou os conceitos que hoje chamamos de admissibilidade e consistência de funções heurísticas. O A* foi originalmente projetado para encontrar caminhos de menor custo quando o custo de um caminho é a soma de seus custos, mas foi demonstrado que também pode ser usado para encontrar caminhos ótimos para qualquer problema que satisfaça as condições de uma álgebra de custos.[3]

O artigo científico original, de 1968,[4] continha um teorema afirmando que nenhum algoritmo semelhante ao A* [a] poderia expandir menos nós do que A* se a função heurística fosse consistente e a regra de desempate de A* fosse escolhida adequadamente. Uma "correção" foi publicada alguns anos depois[5] alegando que a consistência não era necessária, mas esta afirmação foi refutada no estudo definitivo de Dechter e Pearl sobre a otimalidade do A* (agora chamada de eficiência ótima), que deu um exemplo do A* com uma heurística que era admissível, mas não consistente, expandindo arbitrariamente mais nós do que um algoritmo alternativo do tipo A*.[6]

Descrição editar

 
O algoritmo de localização de caminhos A* navegando em um labirinto gerado aleatoriamente
Ilustração da pesquisa A* para encontrar um caminho entre dois pontos de um gráfico. Da esquerda para a direita, uma heurística que prefere pontos mais próximos do objetivo é cada vez mais utilizada

O A* é um algoritmo de busca informado, ou best-first search, o que significa que é formulado em termos de grafos ponderados: partindo de um inicial específico de um grafo, visa encontrar um caminho para o nó objetivo determinado com o menor custo (menor distância percorrida, menor tempo, etc.). Ele fá-lo mantendo uma árvore de caminhos originados no nó inicial e estendendo esses caminhos uma aresta de cada vez até que seu critério de término seja satisfeito.

A cada iteração do seu loop principal, o A* precisa determinar quais dos seus caminhos estender. Isso é feito com base no custo do caminho e em uma estimativa do custo necessário para estender o caminho até a meta. Especificamente, o A* seleciona o caminho que minimiza

 

onde n é o próximo nó no caminho, g(n) é o custo do caminho do nó inicial até n, e h(n) é uma função heurística que estima o custo do caminho mais barato de n até o objetivo. A* termina quando o caminho que ele escolhe estender for um caminho do início ao objetivo ou se não houver caminhos elegíveis para serem estendidos. A função heurística é específica do problema. Se a função heurística for admissível – o que significa que ela nunca superestima o custo real para atingir a meta – é garantido que o A* retornará um caminho de menor custo do início ao objetivo.

Tipicamente, as implementações deste algoritmo usam uma fila de prioridade para realizar a seleção repetida de nós de custo mínimo (estimado) para expansão. Esta fila de prioridade é conhecida como conjunto aberto, franja ou fronteira. A cada etapa do algoritmo, o nó com o menor valor f(x) é removido da fila, os valores de f e g de seus vizinhos são atualizados de acordo e esses vizinhos são adicionados à fila. O algoritmo continua até que um nó removido (portanto, o nó com o valor f mais baixo de todos os nós periféricos) seja um nó de meta. [b] O valor f dessa meta é então também o custo do caminho mais curto, uma vez que h na meta é zero em uma heurística admissível.

O algoritmo descrito até agora nos dá apenas o comprimento do caminho mais curto. Para encontrar a sequência real de etapas, o algoritmo pode ser facilmente revisado para que cada nó no caminho acompanhe seu antecessor. Depois que esse algoritmo for executado, o nó final apontará para seu antecessor e assim por diante, até que o predecessor de algum nó seja o nó inicial.

Por exemplo, ao procurar a rota mais curta em um mapa, h(x) pode representar a distância em linha reta até o objetivo, uma vez que é fisicamente a menor distância possível entre dois pontos quaisquer. Para um mapa de grade de um jogo de vídeo, usar a distância de Manhattan ou a distância de Chebyshev torna-se melhor dependendo do conjunto de movimentos disponíveis (4 ou 8 direções).

Se a heurística h satisfazer a condição adicional h(x) ≤ d(x, y) + h(y) para cada aresta (x, y) do gráfico (onde d denota o comprimento dessa aresta), então h é chamado monótono, ou consistente . Com uma heurística consistente, o A* tem a garantia de encontrar um caminho ideal sem processar nenhum nó mais de uma vez e o A* é equivalente a executar o algoritmo de Dijkstra com o custo reduzido d'(x, y) = d(x, y) + h(y) − h(x) [carece de fontes?].

Pseudo-código editar

O pseudocódigo a seguir descreve o algoritmo:

function reconstruct_path(cameFrom, current)
    total_path := {current}
    while current in cameFrom.Keys:
        current := cameFrom[current]
        total_path.prepend(current)
    return total_path

// A* finds a path from start to goal.
// h is the heuristic function. h(n) estimates the cost to reach goal from node n.
function A_Star(start, goal, h)
    // The set of discovered nodes that may need to be (re-)expanded.
    // Initially, only the start node is known.
    // This is usually implemented as a min-heap or priority queue rather than a hash-set.
    openSet := {start}

    // For node n, cameFrom[n] is the node immediately preceding it on the cheapest path from the start
    // to n currently known.
    cameFrom := an empty map

    // For node n, gScore[n] is the cost of the cheapest path from start to n currently known.
    gScore := map with default value of Infinity
    gScore[start] := 0

    // For node n, fScore[n] := gScore[n] + h(n). fScore[n] represents our current best guess as to
    // how cheap a path could be from start to finish if it goes through n.
    fScore := map with default value of Infinity
    fScore[start] := h(start)

    while openSet is not empty
        // This operation can occur in O(Log(N)) time if openSet is a min-heap or a priority queue
        current := the node in openSet having the lowest fScore[] value
        if current = goal
            return reconstruct_path(cameFrom, current)

        openSet.Remove(current)
        for each neighbor of current
            // d(current,neighbor) is the weight of the edge from current to neighbor
            // tentative_gScore is the distance from start to the neighbor through current
            tentative_gScore := gScore[current] + d(current, neighbor)
            if tentative_gScore < gScore[neighbor]
                // This path to neighbor is better than any previous one. Record it!
                cameFrom[neighbor] := current
                gScore[neighbor] := tentative_gScore
                fScore[neighbor] := tentative_gScore + h(neighbor)
                if neighbor not in openSet
                    openSet.add(neighbor)

    // Open set is empty but goal was never reached
    return failure

Observação: Neste pseudocódigo, se um nó for alcançado por um caminho, removido do openSet e posteriormente alcançado por um caminho mais barato, ele será adicionado ao openSet novamente. Isto é essencial para garantir que o caminho retornado seja ótimo se a função heurística for admissível, mas não consistente . Se a heurística for consistente, quando um nó é removido do openSet, o caminho para ele é garantido como ideal, portanto o teste ' tentative_gScore < gScore[neighbor] ' sempre falhará se o nó for alcançado novamente.

 
Ilustração da busca A* para encontrar o caminho de um nó inicial até um nó final em um problema de planeamento de movimento de robô . Os círculos vazios representam os nós do conjunto aberto, ou seja, aqueles que restam para serem explorados, e os preenchidos estão no conjunto fechado. A cor em cada nó fechado indica a distância do objetivo: quanto mais verde, mais próximo. Pode-se ver primeiro o A* se movendo em linha reta na direção do objetivo, depois ao atingir o obstáculo, ele explora rotas alternativas através dos nós do conjunto aberto.

Exemplo editar

Um exemplo de algoritmo A* em ação onde os nós são cidades conectadas a estradas e h(x) é a distância em linha reta até o ponto alvo:

 

Legenda: verde: início; azul: meta; laranja: visitado

O algoritmo A* também tem aplicações no mundo real. Neste exemplo, as arestas são ferrovias e h(x) é a distância do grande círculo (a distância mais curta possível em uma esfera) até o alvo. O algoritmo está procurando um caminho entre Washington, DC e Los Angeles.

 

Detalhes de implementação editar

Há uma série de otimizações simples ou detalhes de implementação que podem afetar significativamente o desempenho de uma implementação A*. O primeiro detalhe a ser observado é que a forma como a fila de prioridade trata os empates pode ter um efeito significativo no desempenho em algumas situações. Se os empates forem quebrados e a fila se comportar de maneira LIFO, A* se comportará como uma busca em profundidade entre caminhos de custos iguais (evitando explorar mais de uma solução igualmente ótima).

Quando um caminho é requerido no final da busca, é comum manter com cada nó uma referência ao pai daquele nó. Ao final da busca, essas referências podem ser utilizadas para recuperar o caminho ótimo. Se estas referências forem mantidas então pode ser importante que o mesmo nó não apareça na fila de prioridade mais de uma vez (cada entrada corresponde a um caminho diferente para o nó, e cada uma com um custo diferente). Uma abordagem padrão aqui é verificar se um nó prestes a ser adicionado já aparece na fila de prioridade. Se isso acontecer, então a prioridade e os ponteiros pai serão alterados para corresponder ao caminho de custo mais baixo. Uma fila de prioridade baseada em heap binário padrão não suporta diretamente a operação de busca por um de seus elementos, mas pode ser aumentada com uma tabela hash que mapeia os elementos para sua posição no heap, permitindo que esta operação de diminuição de prioridade seja executada em tempo logarítmico. Alternativamente, um heap de Fibonacci pode realizar as mesmas operações de prioridade decrescente em tempo amortizado constante.

Casos especiais editar

O algoritmo de Dijkstra, como outro exemplo de algoritmo de busca de custo uniforme, pode ser visto como um caso especial de A* onde<math xmlns="http://www.w3.org/1998/Math/MathML"><semantics><mrow class="MJX-TeXAtom-ORD"><mstyle displaystyle="true" scriptlevel="0"><mi>  </mi><mo stretchy="false">  </mo><mi>  </mi><mo stretchy="false">  </mo><mo>  </mo><mn>  </mn></mstyle></mrow><annotation encoding="application/x-tex"> </annotation></semantics></math>  para todo x .[7][8] A busca geral em profundidade pode ser implementada usando A* considerando que existe um contador global C inicializado com um valor muito grande. Cada vez que processamos um nó, atribuímos C a todos os seus vizinhos recém-descobertos. Após cada atribuição, diminuímos o contador C em um. Assim, quanto mais cedo um nó for descoberto, maior será seu valor  . Tanto o algoritmo de Dijkstra quanto a busca em profundidade podem ser implementados de forma mais eficiente sem incluir um valor   em cada nó.

Propriedades editar

Término e integralidade editar

Em grafos finitos com pesos de aresta não negativos, é garantido que o A* termine e seja completo, ou seja, que encontre sempre uma solução (um caminho do início à meta), se existir. Em gráficos infinitos com um fator de ramificação finito e custos de borda limitados a zero (  para alguns   fixos), é garantido que A* terminará apenas se existir uma solução.[9]

Admissibilidade editar

Um algoritmo de busca é considerado admissível se for garantido que ele retornará uma solução ótima. Se a função heurística usada por A* for admissível, então A* é admissível. Uma “prova” intuitiva disso é a seguinte:

Quando A* termina sua busca, ele encontrou um caminho do início ao objetivo cujo custo real é menor que o custo estimado de qualquer caminho do início ao objetivo através de qualquer nó aberto (o valor   do nó). Quando a heurística é admissível, essas estimativas são otimistas (não exatamente – veja o próximo parágrafo), então o A* pode ignorar com segurança esses nós porque eles não podem levar a uma solução mais barata do que aquela que já possui. Em outras palavras, A* nunca ignorará a possibilidade de um caminho de custo mais baixo do início ao objetivo e, portanto, continuará a procurar até que tais possibilidades não existam.

A prova real é um pouco mais complicada porque os valores<math xmlns="http://www.w3.org/1998/Math/MathML"><semantics><mrow class="MJX-TeXAtom-ORD"><mstyle displaystyle="true" scriptlevel="0"><mi>  </mi></mstyle></mrow><annotation encoding="application/x-tex"> </annotation></semantics></math>  não são garantidos que sejam os valores dos nós abertos sejam otimistas, mesmo que a heurística seja admissível. Isso ocorre porque os valores <math xmlns="http://www.w3.org/1998/Math/MathML"><semantics><mrow class="MJX-TeXAtom-ORD"><mstyle displaystyle="true" scriptlevel="0"><mi>  </mi></mstyle></mrow><annotation encoding="application/x-tex"> </annotation></semantics></math>  de nós abertos não são garantidos como óptimos, então a soma<math xmlns="http://www.w3.org/1998/Math/MathML"><semantics><mrow class="MJX-TeXAtom-ORD"><mstyle displaystyle="true" scriptlevel="0"><mi>  </mi><mo>  </mo><mi>  </mi></mstyle></mrow><annotation encoding="application/x-tex"> </annotation></semantics></math> não é garantido que seja otimista.

Otimização e consistência editar

O algoritmo A é otimamente eficiente em relação a um conjunto de algoritmos alternativos Alts em um conjunto de problemas P se para cada problema P em P e cada algoritmo A′ em Alts, o conjunto de nós expandidos por A na resolução de P é um subconjunto (possivelmente igual) do conjunto de nós expandidos por A′ na resolução de P. O estudo definitivo da eficiência ótima de A* deve-se a Rina Dechter e Judea Pearl.[6] Elas consideraram uma variedade de definições de Alts e P em combinação com a heurística de A* sendo meramente admissível ou sendo consistente e admissível. O resultado positivo mais interessante que eles provaram é que A*, com uma heurística consistente, é otimamente eficiente em relação a todos os algoritmos de busca admissíveis do tipo A* em todos os problemas de busca "não patológicos". De grosso modo, a sua noção de problema não patológico é o que hoje entendemos por “até ao desempate”. Este resultado não é válido se a heurística de A* for admissível, mas não consistente. Nesse caso, Dechter e Pearl mostraram que existem algoritmos admissíveis do tipo A* que podem expandir arbitrariamente menos nós do que A* em alguns problemas não patológicos.

A eficiência óptima diz respeito ao conjunto de nós expandidos, não ao número de expansões de nós (o número de iterações do loop principal de A*). Quando a heurística utilizada é admissível, mas não consistente, é possível que um nó seja expandido por A* muitas vezes, um número exponencial de vezes no pior caso.[10] Nessas circunstâncias, o algoritmo de Dijkstra poderia superar A* por uma grande margem. No entanto, pesquisas mais recentes descobriram que este caso patológico só ocorre em certas situações inventadas onde o peso da aresta do grafo de busca é exponencial no tamanho do grafo e que certas heurísticas inconsistentes (mas admissíveis) podem levar a um número reduzido de expansões de nós em pesquisas A*.[11][12]

Relaxamento limitado editar

 
Uma pesquisa A* que usa uma heurística que é 5,0(=ε) vezes uma heurística consistente e obtém um caminho abaixo do ideal

Embora o critério de admissibilidade garanta um caminho de solução óptimo, também significa que A* deve examinar todos os caminhos igualmente meritórios para encontrar o caminho óptimo. Para calcular caminhos mais curtos aproximados, é possível acelerar a busca em detrimento da otimalidade, relaxando o critério de admissibilidade. Muitas vezes queremos limitar esta relaxação, para que possamos garantir que o caminho da solução não é pior que (1 + ε ) vezes o caminho da solução ideal. Esta nova garantia é referida como ε-admissível.

Existem vários algoritmos ε-admissíveis:

  • Ponderação A*/Ponderação Estática.[13] Se ha ( n ) é uma função heurística admissível, na versão ponderada da busca A* utiliza-se hw(n) = ε ha(n), ε > 1 como função heurística, e realiza-se a busca A* como de costume (o que eventualmente acontece mais rápido do que usar ha, pois menos nós são expandidos). O caminho, portanto, encontrado pelo algoritmo de busca pode ter um custo no máximo ε vezes maior que o caminho de menor custo no gráfico.[14]
  • A Ponderação Dinâmica[15] usa a função de custo  , onde  , e onde   é a profundidade da pesquisa e N é o comprimento previsto do caminho da solução.
  • A ponderação dinâmica amostrada[16] usa amostragem de nós para melhor estimar e reduzir o erro heurístico.
  •   .[17] usa duas funções heurísticas. A primeira é a lista FOCAL, que é usada para selecionar os nós candidatos, e a segunda h F é usada para selecionar o nó mais promissor da lista FOCAL.
  • Aε[18] seleciona nós com a função  , onde A e B são constantes. Se nenhum nó puder ser selecionado, o algoritmo retrocederá com a função  , onde C e D são constantes.
  • AlphA* [19] tenta promover a exploração em profundidade, preferindo nós recentemente expandidos. AlphA* usa a função de custo  , onde  , onde λ e Λ são constantes com  , π ( n ) é o pai de n e ñ é o nó expandido mais recentemente.

Complexidade editar

A complexidade de A* depende da heurística. No pior caso de um espaço de busca ilimitado, o número de nós expandidos é exponencial na profundidade da solução (o caminho mais curto) d : O(bd), onde b é o fator de ramificação (o número médio de sucessores por estado ). Isso pressupõe que existe um estado objetivo e é alcançável a partir do estado inicial; se não for, e o espaço de estados for infinito, o algoritmo não terminará.

A função heurística tem um efeito importante no desempenho prático da busca A*, uma vez que uma boa heurística permite que A* remova muitos dos nós bd que uma busca desinformada expandiria. Sua qualidade pode ser expressa em termos do fator de ramificação efetivo b*, que pode ser determinado empiricamente para uma instância do problema medindo o número de nós gerados pela expansão, N, e a profundidade da solução, resolvendo então

 

Boas heurísticas são aquelas com baixo fator de ramificação efetivo (sendo o ideal b* = 1 ).

A complexidade do tempo é polinomial quando o espaço de busca é uma árvore, existe um único estado objetivo e a função heurística h atende à seguinte condição:

 

onde h* é a heurística ótima, o custo exato para ir de x até a meta. Em outras palavras, o erro de h não crescerá mais rápido que o logaritmo da “heurística perfeita” h* que retorna a distância real de x até o objetivo.[14]

A complexidade espacial de A* é aproximadamente a mesma de todos os outros algoritmos de busca de grafos, pois mantém todos os nós gerados na memória.[9] Na prática, esta acaba sendo a maior desvantagem da pesquisa A*, levando ao desenvolvimento de pesquisas heurísticas limitadas por memória, como A* por aprofundamento interativo, A* limitado por memória e SMA* .

Aplicações editar

A* é frequentemente usado para o problema comum de localização de caminhos em aplicações como jogos de vídeo, mas foi originalmente projetado como um algoritmo geral de travessia de gráfico.[4] Encontra aplicações em diversos problemas, incluindo o problema de análise sintática usando gramáticas estocásticas em PNL .[20] Outros casos incluem uma busca informativa com aprendizagem online.[21]

Relações com outros algoritmos editar

O que diferencia A* de um algoritmo ganancioso de busca do melhor primeiro é que ele leva em consideração o custo/distância já percorrida, g(n) .

Algumas variantes comuns do algoritmo de Dijkstra podem ser vistas como um caso especial de A* onde a heurística   para todos os nós;[7][8] por sua vez, tanto Dijkstra quanto A* são casos especiais de programação dinâmica .[22] O próprio A* é um caso especial de generalização do branch and bound.[23]

O A* é semelhante à busca por feixe, exceto que a busca por feixe mantém um limite no número de caminhos que deve explorar.[24]

Variantes editar

  • Anytime A*[25]
  • Block A*
  • D*
  • Field D*
  • Fringe
  • Fringe Saving A* (FSA*)
  • Generalized Adaptive A* (GAA*)
  • Incremental heuristic search
  • Reduced A*[26]
  • Iterative deepening A* (IDA*)
  • Jump point search
  • Lifelong Planning A* (LPA*)
  • New Bidirectional A* (NBA*)[27]
  • Simplified Memory bounded A* (SMA*)
  • Theta*

O A* também pode ser adaptado a um algoritmo de busca bidirecional . Cuidados especiais devem ser tomados com o critério de parada.[28]

Notas e referências

Notas

  1. “A*-like” means the algorithm searches by extending paths originating at the start node one edge at a time, just as A* does. This excludes, for example, algorithms that search backward from the goal or in both directions simultaneously. In addition, the algorithms covered by this theorem must be admissible, and “not more informed” than A*.
  2. Goal nodes may be passed over multiple times if there remain other nodes with lower f values, as they may lead to a shorter path to a goal.

Referências

  1. Doran, J. E.; Michie, D. (20 de setembro de 1966). «Experiments with the Graph Traverser program». Proc. R. Soc. Lond. A. 294 (1437): 235–259. Bibcode:1966RSPSA.294..235D. doi:10.1098/rspa.1966.0205 
  2. a b Nilsson, Nils J. (30 de outubro de 2009). The Quest for Artificial Intelligence (PDF) (em inglês). Cambridge: Cambridge University Press. ISBN 9780521122931 
  3. Edelkamp, Stefan; Jabbar, Shahid; Lluch-Lafuente, Alberto (2005). «Cost-Algebraic Heuristic Search» (PDF). Proceedings of the Twentieth National Conference on Artificial Intelligence (AAAI): 1362–7. ISBN 978-1-57735-236-5 
  4. a b Hart, P. E.; Nilsson, N.J.; Raphael, B. (1968). «A Formal Basis for the Heuristic Determination of Minimum Cost Paths». IEEE Transactions on Systems Science and Cybernetics. 4 (2): 100–7. doi:10.1109/TSSC.1968.300136 
  5. Hart, Peter E.; Nilsson, Nils J.; Raphael, Bertram (1 de dezembro de 1972). «Correction to 'A Formal Basis for the Heuristic Determination of Minimum Cost Paths'» (PDF). ACM SIGART Bulletin (37): 28–29. doi:10.1145/1056777.1056779 
  6. a b Dechter, Rina; Judea Pearl (1985). «Generalized best-first search strategies and the optimality of A*». Journal of the ACM. 32 (3): 505–536. doi:10.1145/3828.3830 
  7. a b De Smith, Michael John; Goodchild, Michael F.; Longley, Paul (2007), Geospatial Analysis: A Comprehensive Guide to Principles, Techniques and Software Tools, ISBN 9781905886609, Troubadour Publishing Ltd, p. 344 .
  8. a b Hetland, Magnus Lie (2010), Python Algorithms: Mastering Basic Algorithms in the Python Language, ISBN 9781430232377, Apress, p. 214 .
  9. a b Russell, Stuart J. (2018). Artificial intelligence a modern approach 4th ed. Boston: Pearson. ISBN 978-0134610993. OCLC 1021874142 
  10. Martelli, Alberto (1977). «On the Complexity of Admissible Search Algorithms». Artificial Intelligence. 8 (1): 1–13. doi:10.1016/0004-3702(77)90002-9 
  11. Felner, Ariel; Uzi Zahavi (2011). «Inconsistent heuristics in theory and practice». Artificial Intelligence. 175 (9–10): 1570–1603. doi:10.1016/j.artint.2011.02.001  
  12. Zhang, Zhifu; N. R. Sturtevant (2009). Using Inconsistent Heuristics on A* Search. Twenty-First International Joint Conference on Artificial Intelligence. pp. 634–639 
  13. Pohl, Ira (1970). «First results on the effect of error in heuristic search». Edinburgh University Press. Machine Intelligence 5: 219–236. ISBN 978-0-85224-176-9. OCLC 1067280266 
  14. a b Pearl, Judea (1984). Heuristics: Intelligent Search Strategies for Computer Problem Solving. [S.l.]: Addison-Wesley. ISBN 978-0-201-05594-8 
  15. Pohl, Ira (agosto de 1973). The avoidance of (relative) catastrophe, heuristic competence, genuine dynamic weighting and computational issues in heuristic problem solving (PDF). 3. pp. 11–17 
  16. Köll, Andreas; Hermann Kaindl (agosto de 1992). A new approach to dynamic weighting. Wiley. pp. 16–17. ISBN 978-0-471-93608-4 
  17. Pearl, Judea; Jin H. Kim (1982). «Studies in semi-admissible heuristics». IEEE Transactions on Pattern Analysis and Machine Intelligence. 4 (4): 392–399. PMID 21869053. doi:10.1109/TPAMI.1982.4767270 
  18. Ghallab, Malik; Dennis Allard (agosto de 1983). Aε – an efficient near admissible heuristic search algorithm (PDF). 2. pp. 789–791. Cópia arquivada (PDF) em 6 de agosto de 2014 
  19. Reese, Bjørn (1999). AlphA*: An ε-admissible heuristic search algorithm (PDF) (Relatório). Institute for Production Technology, University of Southern Denmark. Arquivado do original (PDF) em 31 de janeiro de 2016 
  20. Klein, Dan; Manning, Christopher D. (2003). A* parsing: fast exact Viterbi parse selection (PDF). pp. 119–126. doi:10.3115/1073445.1073461 
  21. Kagan E.; Ben-Gal I. (2014). «A Group-Testing Algorithm with Online Informational Learning» (PDF). IIE Transactions. 46 (2): 164–184. doi:10.1080/0740817X.2013.803639. Consultado em 12 de fevereiro de 2016. Cópia arquivada (PDF) em 5 de novembro de 2016 
  22. Ferguson, Dave; Likhachev, Maxim; Stentz, Anthony (2005). A Guide to Heuristic-based Path Planning (PDF). pp. 9–18 
  23. Nau, Dana S.; Kumar, Vipin; Kanal, Laveen (1984). «General branch and bound, and its relation to A∗ and AO∗» (PDF). Artificial Intelligence. 23 (1): 29–58. doi:10.1016/0004-3702(84)90004-3 
  24. «Variants of A*». theory.stanford.edu. Consultado em 9 de junho de 2023 
  25. Hansen, Eric A.; Zhou, Rong (2007). «Anytime Heuristic Search». Journal of Artificial Intelligence Research. 28: 267–297. doi:10.1613/jair.2096  
  26. Fareh, Raouf; Baziyad, Mohammed; Rahman, Mohammad H.; Rabie, Tamer; Bettayeb, Maamar (14 de maio de 2019). «Investigating Reduced Path Planning Strategy for Differential Wheeled Mobile Robot». Robotica (em inglês). 38 (2): 235–255. ISSN 0263-5747. doi:10.1017/S0263574719000572 
  27. Post, Henk. Yet another bidirectional algorithm for shortest paths (PDF) (Relatório técnico). Econometric Institute, Erasmus University Rotterdam. EI 2009-10  Faltam os |sobrenomes1= em Authors list (ajuda)
  28. Goldberg, Andrew V.; Harrelson, Chris; Kaplan, Haim; Werneck, Renato F. «Efficient Point-to-Point Shortest Path Algorithms» (PDF). Princeton University. Cópia arquivada (PDF) em 18 de maio de 2022 

Ligações externas editar

 
Commons
O Commons possui imagens e outros ficheiros sobre Algoritmo A*