Análise léxica: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Correções em itálicos e português
m v1.41 - Corrigido usando WP:PCW (Link igual ao texto do link)
Linha 1:
{{sem-fontes|data=junho de 2010}}
'''Análise léxica''' é o processo de analisar a entrada de linhas de caracteres (tal como o [[código-fonte]] de um [[Programa de computador|programa]] de [[computador]]) e produzir uma seqüência de símbolos chamado "símbolos léxicos" (''lexical tokens''), ou somente "símbolos" (''[[tokens|]]''tokens'']]), que podem ser manipulados mais facilmente por um ''[[parser|]]''parser'']] (leitor de saída).
 
A '''Análise Léxica''' é a forma de verificar determinado [[alfabeto]]. Quando analisamos uma palavra, podemos definir através da análise léxica se existe ou não algum [[caractere]] que não faz parte do nosso alfabeto, ou um alfabeto inventado por nós. O analisador léxico é a primeira etapa de um [[compilador]], logo após virá a [[análise sintática (computação)|análise sintática]].
Linha 24:
{{artigo principal|[[Python]]}}
 
Como a [[linguagem de programação]] [[Python]] passa por um [[interpretador]], existe a necessidade implícita de analisar o [[código-fonte]] colocado dentro do interpretador (entrada: ''[[tokens|]]''tokens'']]), para que o código funcione corretamente (saída: ''[[parser|]]''parser'']]).
 
'''Python''' é dividido em linhas lógicas que são separadas pelo ''token'' ''newline'' (nova linha). Como Python não há a definição de início e fim de blocos de códigos, e sim por [[identação]], os delimitadores são o ''Ident'' e o ''Dedent''. São vários os tipos de tokens que são reconhecidos pela linguagem, como: identificadores, palavras-chaves, classes reservadas, ''strings'', números inteiros, operadores, delimitadores, sequências, listas, dicionários, funções, classes, etc.