Análise léxica: diferenças entre revisões
Conteúdo apagado Conteúdo adicionado
Correções em itálicos e português |
m v1.41 - Corrigido usando WP:PCW (Link igual ao texto do link) |
||
Linha 1:
{{sem-fontes|data=junho de 2010}}
'''Análise léxica''' é o processo de analisar a entrada de linhas de caracteres (tal como o [[código-fonte]] de um [[Programa de computador|programa]] de [[computador]]) e produzir uma seqüência de símbolos chamado "símbolos léxicos" (''lexical tokens''), ou somente "símbolos" (''[[tokens
A '''Análise Léxica''' é a forma de verificar determinado [[alfabeto]]. Quando analisamos uma palavra, podemos definir através da análise léxica se existe ou não algum [[caractere]] que não faz parte do nosso alfabeto, ou um alfabeto inventado por nós. O analisador léxico é a primeira etapa de um [[compilador]], logo após virá a [[análise sintática (computação)|análise sintática]].
Linha 24:
{{artigo principal|[[Python]]}}
Como a [[linguagem de programação]] [[Python]] passa por um [[interpretador]], existe a necessidade implícita de analisar o [[código-fonte]] colocado dentro do interpretador (entrada: ''[[tokens
'''Python''' é dividido em linhas lógicas que são separadas pelo ''token'' ''newline'' (nova linha). Como Python não há a definição de início e fim de blocos de códigos, e sim por [[identação]], os delimitadores são o ''Ident'' e o ''Dedent''. São vários os tipos de tokens que são reconhecidos pela linguagem, como: identificadores, palavras-chaves, classes reservadas, ''strings'', números inteiros, operadores, delimitadores, sequências, listas, dicionários, funções, classes, etc.
|