Neurociência da música

Neurociência da música é o estudo científico dos mecanismos cérebro-baseados envolvidos nos processos cognitivos relativos à música. Esses comportamentos incluem escuta musical, performance, composição, leitura, escrita, e atividades auxiliares. É também o estudo que se preocupa cada vez mais com os mecanismos cerebrais que regem estética e emoção na música. Cientistas que trabalham nessa área podem ser especializados em neurociência cognitiva, neurologia, neuroanatomia, psicologia, teoria musical, ciência da computação, e outras áreas relevantes.

Diferentemente da musicologia cognitiva, a neurociência cognitiva da música representa um ramo significativo da psicologia musical, e depende da observação direta do cérebro e do uso de técnicas como imagem por ressonância magnética funcional (fMRI, do inglês functional magnetic ressonance imaging) e tomografia por emissão de pósitrons (PET, do inglês positron emission tomography).

Elementos da música editar

Altura editar

Os sons, ou ondas sonoras, são o resultado da vibração de moléculas em diferentes frequências. Essas ondas deslocam-se pela membrana basilar na cóclea do ouvido interno. Diferentes frequências sonoras causam vibrações em diferentes locais da membrana basilar. Somos capazes de escutar diferentes alturas porque cada frequência sonora é correlacionada a diferentes locais ao longo da membrana basilar. Esse arranjo espacial dos sons, e suas respectivas frequências, processados na membrana basilar é conhecido como tonotopia. Quando as células ciliadas da membrana basilar se movem em consequência da vibração das ondas sonoras, elas liberam neurotransmissores e produzem potencial de ação, o que ocorre até os nervos auditivos. Os nervos auditivos, então, se orientam às várias camadas de sinapses em numerosos clusters de neurônios, ou núcleo, no sistema auditivo. Esses núcleos são tonotopicamente organizados, e o processo de acionamento dessa tonotopia depois da cóclea ainda não é bem compreendido.[1] Essa tonotopia é, em geral, preservada até o córtex auditivo primário em mamíferos.[2]

Um mecanismo amplamente postulado para processamento de altura no início do sistema auditivo central é o bloqueio de fase (phase-locking) e o bloqueio de modo (mode-locking) dos potenciais de ação para frequências em um estímulo. Bloqueio de fase para frequências de estímulo têm sido encontradas no nervo auditivo,[3][4] nos núcleos cocleares,[5] no colículo inferior,[6] e no tálamo auditivo.[7] Dessa maneira, por bloqueio de fase e de modo, o tronco cerebral auditivo é conhecido por preservar dos sons originais uma grande parte das informações das frequências graves e das temporais; isso é evidente ao medir a resposta do tronco auditivo usando EEG.[8] Essa preservação temporal é uma maneira de argumentar a favor da Teoria Temporal da percepção de alturas, e de argumentar indiretamente contra a Teoria do Lugar da percepção da altura.

 
O córtex auditivo primário é uma das principais áreas associadas à resolução superior da altura.

O córtex auditivo secundário direito tem melhor resolução de altura do que o esquerdo. Hyde, Peretz e Zatorre (2008) usaram imagem por ressonância magnética funcional (fMRI) em seus estudos para testar o envolvimento das regiões corticais auditivas no processamento de frequências em sequências melódicas.[9] Além de encontrarem uma resolução superior de altura no córtex auditivo secundário direito, áreas específicas que também demonstraram envolvimento foram o planum temporale (PT) no córtex auditivo secundário, e o córtex auditivo primário na seção média do giro de Heschl (HG, do inglês Hesdchl's gyrus).


Muitos estudos com neuroimagens encontraram evidências da importância das regiões auditivas secundárias direita em aspectos do processamento musical da altura, como a melodia.[10] Muitos desses estudos tais como os de Patterson, Uppenkamp, Johnsrude e Griffiths (2002) também encontraram evidências de hierarquia no processamento de altura. Patterson et al. (2002) usaram sons combinados de forma espectral que geravam altura indefinida, altura fixa ou melodia em um estudo de imagem por ressonância magnética funcional e descobriram que todas as condições ativavam o HG e o PT. Sons com alturas ativavam mais dessas regiões do que sons sem altura. Quando uma melodia era gerada a ativação se espalhava pelo giro temporal superior (GTS) e pelo planum polare (PP). Esses resultados sustentam a existência de uma hierarquia no processamento de altura.

Ouvido absoluto editar

 
Músicos que possuem ouvido absoluto podem identificar a altura de notas musicais sem auxílio de referências externas.

Ouvido absoluto é definido pela habilidade de identificar a altura de notas musicais e nomeá-las sem o uso de nenhuma referência externa.[11][12] Pesquisas neurocientíficas não descobriram um padrão próprio de ativação comum às pessoas em posse de ouvido absoluto. Zatorre, Perry, Beckett, Westbury e Evans (1998) examinaram as bases neurais dessa habilidade usando técnicas de imagens cerebrais funcionais e estruturais.[13] Tomografias por emissão de pósitrons foram utilizadas para medir o fluxo sanguíneo cerebral em músicos com ouvido absoluto bem como músicos sem ouvido absoluto. Quando submetidos a notas musicais, ambos os grupos demonstraram padrões similares no aumento do fluxo cerebral sanguíneo em áreas corticais auditivas. Indivíduos com e sem ouvido absoluto demonstraram padrões similares de atividade frontal dorsolateral quando realizaram julgamento da altura da nota. Entretanto, indivíduos sem ouvido absoluto demonstraram ativação no córtex frontal inferior direito, enquanto pessoas com ouvido absoluto não demonstraram tal atividade. Essas evidências sugerem que músicos com ouvido absoluto não precisam de acesso a recursos de memória de trabalho para tais tarefas. Isso indica que não há um padrão específico de ativação comum a pessoas com ouvido absoluto. Em vez disso, a disponibilidade de mecanismos de processamento específicos e demanda de tarefas determinam as áreas neurais recrutadas.

Melodia editar

Estudos sugerem que indivíduos são capazes de detectar automaticamente diferenças ou anomalias em melodias ou notas desafinadas as quais não se adequam às suas experiências musicais pregressas. Tal processamento automático ocorre no córtex auditivo secundário. Brattico, Tervaniemi, Naatanen, e Peretz (2006) realizaram tal estudo para determinar se a detecção das notas ditas ‘desafinadas’ poderiam ocorrer, de fato, automaticamente.[14] Eles registraram potenciais relacionados a eventos (PRE) (ERPs, do inglês event-related potentials ) em não-músicos enquanto estes eram apresentados a melodias desconhecidas com notas e acordes fora da tonalidade (desafinados) enquanto os participantes estavam distraídos dos sons ou atentos à melodia. Ambas as condições mostraram negatividade relacionada a erro frontal evidente independente de onde a atenção estava direcionada. Esse evento de negatividade relacionada a erro originou-se no córtex auditivo, mais precisamente córtex auditivo secundário com maior atividade do hemisfério direito. A resposta negativa da respectiva área foi maior para notas desafinadas do que para notas fora da tonalidade. Taxas de incongruências musicais foram maiores para melodias desafinadas do que para melodias fora da tonalidade. Em situação de atenção foçada, notas desafinadas e notas fora da tonalidade produziram positividade parietal tardia. Os resultados de Brattico et al. (2006) sugerem que há um rápido e automático processamento de propriedades melódicas no córtex auditivo secundário. As evidências de que incongruências nas frequências eram detectadas automaticamente, mesmo no processamento de melodias desconhecidas, sugerem que há uma comparação automática de novas informações com conhecimentos de longo prazo de propriedades de escalas musicais, como regras influenciadas culturalmente (progressão de acordes, padrões de escalas, etc.) e expectativas individuais de como uma melodia deve proceder.

Rítmo editar

O cinturão e o para-cinturão auditivos do hemisfério direito estão envolvidos no processamento de ritmo.[15] Ritmo é um padrão de som ou movimento repetitivo ou insistente. Quando indivíduos se preparam para reproduzir um ritmo de intervalos regulares (1:2 or 1:3) o córtex frontal esquerdo, o córtex parietal esquerdo e o cerebelo direito são todos ativados. Em ritmos mais complexos como 1:2.5, mais áreas do córtex cerebral e do cerebelo são envolvidas.[16] Pesquisas com EEG têm mostrado também uma relação entre atividade elétrica cerebral e percepção de ritmo. Snyder e Large (2005)[17] realizaram um estudo examinando a percepção rítmica em indivíduos humanos, descobrindo que a atividade de ondas gamma (20 – 60 Hz) correspondem às batidas em um ritmo. Dois tipos de atividade gamma foram achadas por Snyder & Large: atividade de gamma induzida, e atividade de gamma evocada. Atividade de gamma evocada foi encontrada depois de começadas as notas rítmicas; verificou-se que essa atividade é bloqueada por fase (picos e vales eram diretamente relacionados ao exato começo da nota) e não acontecem quando há uma lacuna na emissão de uma nota rítmica. Atividade de gamma induzida, a qual não demonstrou bloqueio por fase, também correspondia a cada batida. No entanto, atividade de gamma induzida não abrandou quando uma lacuna foi inserida no ritmo, indicando que atividade de gamma induzida pode possivelmente servir com uma espécie de metrônomo interno independente dos sinais recebidos no sistema auditivo.

Tonalidade editar

Tonalidade descreve a relação entre elementos melódicos e harmônicos — notas, intervalos, acordes e escalas. Essas relações são frequentemente descritas como hierárquicas, de forma que um dos elementos domina ou atrai o outro. Elas ocorrem no elemento em si e entre os diversos tipos, criando uma rica e dinâmica percepção entre tons e seus contextos melódicos, harmônicos e cromáticos. Por consenso, tonalidade se refere somente às escalas maior e menor — exemplos de escalas cujos elementos são capazes de manter um conjunto consistente de relações funcionais. A relação funcional mais importante é da nota tônica (primeira nota de uma escala) e do acorde tônico (primeira nota da escala combinada com a terceira e a quinta nota) com o resto da escala. A tônica é o elemento que tenta afirmar sua dominância e atração sobre todas as outras e funciona como ponto máximo de atração, repouso e resolução para a escala.[18]

O córtex auditivo direito está fundamentalmente envolvido na percepção de altura, melodia e ritmo .[16] Estudos de Petr Janata verificaram que existem áreas sensíveis à tonalidade no córtex pré-frontal medial, no cerebelo e no sulco temporal superior de ambos os hemisférios, e no giro temporal superior (o qual tem uma inclinação para o hemisfério direito).[19]

Produção musical e performance editar

Funções de controle motor editar

Performance musical geralmente envolve pelo menos três funções elementares de controle motor: temporais, sequenciais e espaciais (organização dos movimentos motores). Precisão temporal dos movimentos está relacionada ao ritmo musical. Ritmo, o padrão de intervalos temporais dentro de uma métrica musical ou frase, por sua vez, cria a percepção de batidas fortes ou fracas.[20] Organizações espaciais e sequenciais relacionam-se à expressão de notas individuais em um instrumento musical.

Essas funções e seus mecanismos neurais têm sido investigadas separadamente em muitos estudos, mas muito pouco é conhecido sobre suas interações combinadas na produção de uma performance musical complexa.[20] O estudo da música requer exame em conjunto desses fatores.

Timing (senso rítmico/capacidade de manter o ritmo) editar

Embora mecanismos neurais envolvidos em movimentos relacionados a timing tenham sido estudados rigorosamente ao longo dos últimos 20 anos, muito permanece controverso. A habilidade de frasear movimentos com precisão rítmica tem sido creditada à um metrônomo ou mecanismo neural de registro de tempo onde o tempo é representado através de pulsos ou oscilações.[21][22][23][24] Uma visão contrária a esse mecanismo metronômico tem sido cogitada afirmando que se trata de uma propriedade emergente dos movimentos da cinemática.[25] A cinemática é definida como parâmetros de movimentos através de um espaço sem referenciais de forças (por exemplo, direção, velocidade e aceleração).[20]

Estudos em neuroimagem funcional, assim como estudos em pacientes com danos cerebrais, têm conectado movimentos de timing a várias regiões corticais e subcorticais, incluindo o cerebelo, os núcleos da base e a área motora suplementar.[20] Especificamente os núcleos da base e possivelmente a área motora suplementar estão envolvidos em intervalos de timing quando em longas escalas de tempo (1 segundo ou mais), enquanto o cerebelo pode ser mais importante no controle motor do timing em curtas escalas de tempo (milissegundos).[21][26] Além disso, esses resultados indicam que o timing motor não é controlado por uma única região cerebral, mas por um conjunto de regiões que controlam parâmetros específicos de movimento e que dependem de uma escala de tempo relevante das sequências rítmicas.

Sequenciamento editar

O sequenciamento motor foi explorado tanto em termos de ordenação de movimentos individuais, como sequência de digitação para acordes pressionados, quanto em coordenação de subcomponentes de movimentos combinados complexos.[20] Implicadas nesse processo estão várias regiões corticais e subcorticais, incluindo os núcleos da base, as áreas motoras e pré-motoras suplementares, o cerebelo e o córtices pré-motor e pré-frontal, todos envolvidos na produção e aprendizado de sequências motoras mas sem evidência explícita de suas contribuições específicas ou interações entre si. Em animais, estudos neurofisiológicos têm demonstrado uma interação entre córtex frontal e os núcleos da base durante o aprendizado de sequência de movimentos.[27] Estudos de neuroimagens humanas também reforçam a contribuição dos núcleos da base para um aprendizado satisfatório.[28]

O cerebelo é indiscutivelmente importante para o aprendizado de sequências e para a integração de movimentos individuais em sequências unificadas,[28][29][30][31][32] enquanto a área pré-motora suplementar e a área motora suplementar têm demonstrado envolvimento na organização ou fragmentação de sequências de movimentos mais complexos.[33][34] Fragmentação, no sentido de reorganização e reagrupamento de sequência de movimentos em subsequências menores durante uma performance, é vista como facilitadora de uma performance fluente em movimentos complexos e com capacidades de melhorar a memória motora.[20] Por último, o córtex pré-motor demonstrou envolvimento em tarefas que requerem a produção de sequências relativamente complexas e pode estar envolvido com previsões motoras.[35][36]

Organização espacial editar

Poucos estudos sobre controle motor complexo têm distinguido organizações espaciais de sequenciais, ainda que performances musicais avançadas demandem não somente sequenciamento preciso como também organização espacial dos movimentos. Estudos com animais e humanos reconheceram o envolvimento do lobo parietal, do córtex sensorial e do pré-motor no controle de movimentos quando requerida a integração de informações espaciais, sensoriais e motoras.[37][38] Poucos estudos até agora examinaram explicitamente o papel do processamento espacial no contexto de atividades musicais.

Interações auditivo-motoras editar

Interações de feedforward e feedback editar

Uma interação auditivo-motora pode ser livremente definida como qualquer comunicação ou vínculo entre dois sistemas. Duas classes de interações motora auditivas são "feedforward" e "feedback".[20] Em interações feedforward, é o sistema auditivo que predominantemente influencia a resposta motora, frequentemente de uma maneira preditiva.[39] Um exemplo é a marcação do pulso de um ritmo, quando o ouvinte antecipa o acento rítmico em uma peça musical. Outro exemplo é o efeito da música em distúrbios de movimento: estímulos auditivos rítmicos demonstraram melhora na capacidade de locomoção em paciente com doença de Parkinson e AVC.[40][41]

Interações feedback são particularmente relevantes na execução de algum instrumento como violino, ou o canto, nos quais a altura é variável e deve ser constantemente controlada. Se o feedback auditivo é bloqueado, musicistas podem ainda executar uma peça bem ensaiada, mas expressivos aspectos da performance são afetados.[42] Quando o feedback auditivo é experimentalmente manipulado por atrasos e distorções,[43] a performance motora é significativamente alterada: feedback assíncrono interrompe o timing dos eventos, enquanto a alteração da informação de alturas interrompe a seleção de ações apropriadas, mas não seu timing. Isso sugere que interrupções ocorrem porque ambas ações e percepções dependem de uma única representação mental subjacente.[20]

Modelos de interações auditivo-motoras editar

Diversos modelos de interações auditivo-motores estão em avanço. O modelo de Hickok e Poeppel,[44] o qual é específico para a fala, propõe que um canal auditivo ventral mapeia os sons pelos seus significados, enquanto um canal dorsal mapeia sons por representações articulatórias. Eles e outros sugerem que regiões auditivas posteriores nos limites têmporo-parietais são partes cruciais da interface auditivo-motora, mapeando representações auditivas por representações da fala e por melodias.[45]

Neurônios-espelho e interações auditivo-motoras editar

O sistema de neurônios-espelho tem um papel importante nos modelos neurais de integração sensório-motora. Há evidências consideráveis de que os neurônios respondem tanto a ações quanto à observação acumulada de ações. Um sistema proposto para explicar essa compreensão das ações por parte dos neurônios é aquele em que as representações visuais das ações são mapeadas em nosso próprio sistema motor.[46]

Alguns neurônios-espelho são ativados tanto pela observação de ações direcionadas a objetivos quanto pela produção de sons associados durante a ação. Isso sugere que a modalidade auditiva pode acessar o sistema motor.[47][48] Enquanto essas interações auditivo-motoras têm sido estudadas principalmente para processos de fala, e têm focado a área de Broca's e o córtex pré-motor ventral, desde 2011, experimentos têm começado a esclarecer como essas interações são requisitadas em performances musicais. Os resultados apontam amplo envolvimento do córtex pré-motor dorsal e outras áreas motoras.[20]

Música e linguagem editar

Certos aspectos de linguagem e melodia são processados em áreas cerebrais funcionais quase idênticas. Brown, Martinez e Parsons (2006) examinaram similaridades estruturais neurológicas entre música e linguagem.[49] Utilizando tomografia por emissão de pósitrons, os resultados mostraram que frases melódicas e linguísticas induziram a ativação de áreas em comum, incluindo o córtex motor primário, área motora suplementar, área de Broca, lobo da ínsula, córtices auditivos primário e secundário, temporal pole, núcleos da base, tálamo ventral e o lobo posterior do cerebelo. Foram encontradas diferenças em tendências de lateralização, uma vez que ações relacionadas à linguagem favorecem o hemisfério esquerdo, mas as ativações, majoritariamente, foram bilaterais, e produziram sobreposições significativas em todas as modalidades.

Mecanismos de informações sintáticas musicais e linguísticas demonstraram similaridades na forma como são processadas pelo cérebro. Jentschke, Koelsch, Sallat e Friederici (2008) conduziram um estudo investigando o processamento de música em crianças com distúrbios específicos de linguagem (DEL).[50] Crianças com desenvolvimento típico de linguagem (DTL) demostraram padrões PRE diferentes daqueles mostrados por crianças com DEL, o que reflete seus desafios em processar regularidades sintático-musicais. Fortes correlações entre amplitudes de ERAN (Early Right Anterior Negativity—medida específica de PRE) e habilidades linguísticas e musicais fornecem evidências adicionais para a relação de processamento sintático em música e linguagem.

Contudo, produção de melodia e produção de discurso podem ser facilitadas por redes neurais diferentes. Stewart, Walsh, Frith e Rothwell (2001) estudaram as diferenças entre produção de fala e produção de melodia usando estimulação magnética transcraniana(EMT).[51] Stewart et al. descobriram que EMT aplicada ao lobo frontal esquerdo perturba a fala mas não a melodia, sustentando a ideia de que elas são facilitadas por áreas diferentes do cérebro. Os autores sugerem que a razão para a diferença é que a geração da fala pode estar bem localizada, mas os mecanismos adjacentes da produção melódica, não. Alternativamente, foi sugerido que a produção da fala pode ser menos robusta do que a produção melódica e, portanto, mais suscetível a interferência.

Processamento de linguagem é uma função mais do lado esquerdo do cérebro do que do direito, particularmente da área de Broca e daárea de Wernicke, embora os papéis desempenhados pelos dois lados do cérebro no processamento de diferentes aspectos da linguagem são ainda pouco claros. Música é também processada por ambos os lados do cérebro.[49][52] Evidencias recentes ainda sugerem processamento compartilhado entre entre música e linguagem em um nível conceitual.[53] Também foi descoberto que, entre estudantes de conservatório de música, a predominância de ouvido absoluto é maior em falantes de línguas tonais, mesmo direcionando a pesquisa por origens étnicas, mostrando que a linguagem influência como as notas musicais são percebidas.[54][55]

Processamento em músicos x não-músicos editar

 
Pianistas profissionais apresentam menos ativação cortical para movimentos complexos de dedos devido a diferenças estruturais no cérebro.

Diferenças editar

A estrutura cerebral em musicistas e não musicistas é claramente diferente. Gaser e Schlaug (2003) compararam estruturas cerebrais de musicistas profissionais com não musicistas e descobriram diferenças no volume de massa cinzenta em regiões motora, auditiva e visual-espacial do cérebro.[56] Especificamente, correlações positivas foram descobertas entre status musical (profissional, amador e não musicista) e volume de massa cinzenta na área motora primária, áreasomatossensorial, pré-motora , parietal superior e anterior no giro temporal inferior bilateralmente. Essa forte associação entre status dos músicos e diferenças na massa cinzenta sustenta a noção de que seus cérebros apresentam mudanças estruturais influenciadas pelo uso.[57] Devido a distinções em várias áreas do cérebro, é improvável que essas diferenças sejam inatas, mas sim devido às aquisições de longo prazo e repetidos estudos de habilidades musicais.

Cérebros de musicistas também apresentam diferenças funcionais daqueles de não musicistas. Krings, Topper, Foltys, Erberich, Sparing, Willmes e Thron (2000) utilizaram imagem por ressonância magnética funcional para estudar o envolvimento de de áreas cerebrais de pianistas profissionais e de um grupo controle enquanto executavam movimentos complexos com os dedos.[58] Krings et al. descobriram que os pianistas profissionais apresentam níveis menores de ativação cortical em áreas motores do cérebro e concluíram que, para pianistas, uma quantidade menor de neurônios precisa ser ativada devido à prática motora acumulada a qual resulta nos diferentes padrões de ativação cortical. Koeneke, Lutz, Wustenberg e Jancke (2004) reportaram descobertas similares em tecladistas.[59] Tecladistas especializados e um grupo controle executaram trechos musicais complexos envolvendo uma e duas mãos. Intensas respostas hemodinâmicas foram encontradas no cerebelo, tanto em tecladistas quanto em não-tecladistas, mas nestes últimos as respostas foram mais intensas. As descobertas indicam que diferentes padrões de ativação cortical emergem das práticas motoras a longo prazo. Essa evidência sustenta dados anteriores demonstrando que músicos precisam de menos neurônios para executaram os mesmos movimentos.

Musicistas demonstraram ter significativamente mais desenvolvidos o planum temporales esquerdo, e também uma memória maior de palavras. O estudo de Chan, controlado por idade, média de notas escolares e anos de educação, descobriu que quando submetidos a um teste de memória de 16 palavras, os músicos tiveram em média de uma a duas palavras acima dos não musicistas.

Similaridades editar

Estudos têm demonstrado que o cérebro humano tem uma habilidade musical implícita.[60][61] Koelsch, Gunter, Friederici e Schoger (2000) investigaram a influência de um contexto musical pregresso, relevância do papel de acordes inesperados e o grau de probabilidade de violação dos processamentos musicais em musicistas e não musicistas. Descobertas mostraram que o cérebro humano extrapola involuntariamente expectativas sobre estímulos auditivos iminentes. Mesmo em não musicistas, expectativas extrapoladas são consistentes com teoria musical. A habilidade de processar informações musicalmente sustenta a ideia de uma habilidade musical implícita do cérebro humano. Em um estudo seguinte, Koelsch, Schroger, e Gunter (2002) investigaram se ERAN (Early Right Anterior Negativity) e N5 poderiam ser evocados pré-atentivamente em não musicistas. As descobertas mostraram que ambos ERAN e N5 podem ser identificados mesmo em situações nas quais o estímulo musical é ignorado pelo ouvinte, indicando que existe uma musicalidade pré-atentiva (processamento pré-atentivo: que ocorre antes da atenção consciente) altamente diferenciada em cérebros humanos.

Diferenças em gênero editar

Existem pequenas diferenças neurológicas em relação ao processamento hemisférico entre cérebros de homens e mulheres. Koelsch, Maess, Grossmann e Friederici (2003) investigaram o processamento musical através de EEG e PRE e descobriram essas diferenças.[62] As descobertas mostraram que mulheres processam informação musical bilateralmente e homens têm o lado direito como predominante com algumas manifestações de early negativity no hemisfério esquerdo. Isso indica que homens não processam informação musical exclusivamente com o lado direito do cérebro. Em um estudo seguinte, Koelsch, Grossman, Gunter, Hahne, Schroger e Friederici (2003) descobriram que garotos apresentam lateralização de early anterior negativity no hemisfério esquerdo, mas encontraram um efeito bilateral em garotas.[63] Isso indica um efeito do desenvolvimento com a idade já que early negativity é lateralizada no hemisfério direito em homens e no esquerdo em garotos.

Diferenças quanto à mão dominante editar

Verificou-se que canhotos, particularmente aqueles que são ambidestros, respondem melhor à memória de curto prazo para alturas do que destros.[64][65] Havia uma hipótese de que essa vantagem devia-se ao fato de que canhotos teriam mais duplicações em armazenamento em ambos hemisférios do que destros. Outros trabalhos verificaram que existem pronunciadas diferenças entre canhotos e destros (com base estatística) em como padrões musicais são percebidos, quando os sons têm origem em diferentes lugares do espaço. Isso foi verificado, por exemplo, na Ilusão das oitavas[66][67] (ver Ilusões Auditivas) e Ilusão da escala de .[68][69]

Imagens musicais editar

Imagens musicais se refere à experiência de reproduzir uma música imaginando-a com a mente.[70] Músicos demonstram uma habilidade superior para imagens musicais devido a intensos treinamentos.[71] Herholz, Lappe, Knief e Pantev (2008) investigaram as diferenças de processamento neural em exercícios de imaginação musical entre musicistas e não musicistas. Utilizando magnetoencefalografia (MEG), Herholz et al. examinaram essas diferenças utilizando melodias familiares entre os participante. Especificamente, o estudo examinou se mismatch negativity (MMN) pode se originar somente com imagens dos sons. A tarefa dos participantes envolvia escutar o início de uma melodia, dar a sequência melódica apenas mentalmente e, finalmente, escutar uma nota correta//incorreta como continuação da melodia. A capacidade de imaginação dessas melodias foram fortes o suficiente para se obter uma resposta cerebral pré-atentiva antecipada das violações imprevistas nas melodias imaginadas pelos músicos. Esses resultados indicam que correlações neurais similares são utilizadas na percepção e imaginação de músicos treinados. Além disso, essas descobertas sugerem que modificações da mismatch negativity da imagem (iMMN) através de intenso treinamento musical resulta na obtenção de uma habilidade superior para processamento imagético e pré-atentivo de música.

Processos musicais perceptivos e imagens musicais podem compartilhar de um substrato neural no cérebro. Um estudo com tomografia por emissão de pósitron conduzido por Zatorre, Halpern, Perry, Meyer e Evans (1996) investigaram mudanças do fluxo sanguíneo cerebral relacionadas com imagem auditiva e atividades perceptiva.[72] A pesquisa examinou o envolvimento de regiões anatômicas em particular assim como semelhanças funcionais entre processos perceptivos e imagéticos. Padrões similares de mudanças no fluxo sanguíneo cerebral forneceram evidências sustentando a ideia de que processos de imagem compartilham de um substancial substrato neural com processos perceptivos semelhantes. Atividade neural bilateral no córtex auditivo secundário foi associado com ambas imaginação e percepção de músicas. Isso implica que dentro do córtex auditivo secundário, alguns processos fundamentam a impressão fenomenológica dos sons imaginados. A área motora suplementar estava ativa em ambas as atividades perceptivas e de imagem, sugerindo uma vocalização oculta, mental, como um elemento da imagem musical. O fluxo sanguíneo cerebral aumentou no inferior frontal polar cortex e no tálamo direito sugerindo que essas regiões podem estar relacionadas à recuperação e/ou geração de informação auditiva da memória.

Emoção editar

Música é capaz de criar experiências incrivelmente prazeirosas que podem ser descritas como "chills".[73] Blood e Zatorre (2001) usaram tomografia por emissão de pósitrons para medir mudanças no fluxo sanguíneo cerebral enquanto participantes escutavam a músicas que eles sabiam que lhes causavam "chills" ou qualquer tipo de resposta emocional intensamente agradável. Descobriram que à medida que as sensações agradáveis aumentam, muitas mudanças no fluxo sanguíneo cerebral são vistas em regiões cerebrais como a amígdala, córtex orbitofrontal, corpo estriado, mesencéfalo, e o prefrontal córtex pré-frontal ventromedial. Muitas dessas áreas parecem estar ligadas a recompensa, motivação, emotiva, e excitativa, e também são ativadas em outras situações aprazíveis As respostas agradáveis resultantes possibilita a liberação de dopamina, serotonina, e oxitocina. Núcleo accumbens está envolvido tanto em emoções ligadas à música, quanto ao timing rítmico.

[74] De acordo com o National Institute of Health (EUA), crianças e adultos vítimas de traumas emocionais têm a possibilidade de se beneficiarem do uso da música em uma variedade de formas. O uso terapêutico da música têm sido essencial na ajuda a crianças com dificuldade de foco, ansiedade e funções cognitivas. Terapias musicais têm também ajudado crianças a enfrentarem o autismo, câncer infantil e dor proveniente de tratamentos.

Emoções induzidas por música ativam regiões cerebrais frontais similares comparadas com emoções provenientes de outros estímulos.[57] Schmidt e Trainor (2001) descobriram que a valência (i.e. positivo x negativo/música ’triste’ x música ‘feliz’) de segmentos musicais foram distinguidos por padrões de atividade EEG frontal.[75] Trechos musicais alegres e felizes foram associados com aumento de atividade EEG frontal esquerda enquanto que trechos tristes foram associados com aumento da atividade EEG frontal direita. Além disso, a intensidade das emoções diferenciou-se do padrão total de atividade EEG frontal. A atividade total da região frontal aumentou à medida que estímulos musicais afetivos tornaram-se mais intensos.

Quando melodias desagradáveis são tocadas, a seção posterior do giro do cíngulo é ativada, o que indica um senso de conflito ou dores emocionais.[16] O hemisfério direito também demonstra correlações com emoção, o qual pode também ativar áreas no giro do cíngulo em períodos de dores emotivas, especificamente rejeições sociais (Eisenberger). Essa evidência, junto com outras observações, leva muitos teóricos, filósofos e neurocientistas a ligarem emoção à tonalidade. Isso parece quase óbvio porque os tons em música parecem a caracterização dos tons da fala humana, os quais indicam conteúdo emocional. As vogais nos fonemas de uma canção são prolongadas para um efeito dramático, e isso seria como se as notas musicais fossem simplesmente formas exageradas de uma tonalidade verbal normal.

Memória editar

Neuropsicologia da memória musical editar

Memória musical trabalha sistemas de memória explícitos e implícitos.[76] Memória musical explícita é igualmente diferenciada entre episódica (onde, quando e o que da experiência musical), e semântica (memória para conhecimento de músicas incluindo fatos e conceitos emocionais). Memória implícita foca no ‘como’ da música e envolve processos automáticos como memória processual e aprendizado de habilidades manuais – em outras palavras habilidades essenciais para tocar um instrumento. Samson e Baird (2009) descobriram que a habilidade de músicos que sofrem de mal de Alzheimer de tocar um instrumento (memória processual implícita) pode ser preservada.

Correlações neurais da memória musical editar

Um estudo com tomografia por emissão de pósitrons observando as correlações neurais entre semântica musical e memória episódica descobriram padrões de ativação distintas. Memória musical semântica envolve um senso de familiaridade com músicas. Essa memória semântica para a condição musical resultou em ativação bilateral no córtex frontal orbital e medial, no giro angular esquerdo e na região anterior esquerda do giro temporal médio. Esses padrões sustentam a assimetria funcional favorecendo o hemisfério esquerdo para memória semântica. Regiões temporal anterior esquerda e frontal inferior que foram ativadas em atividades de memória musical semântica produziram picos de ativação especificamente durante a apresentação de material musical, sugerindo que essas regiões são de alguma forma especializadas funcionalmente em representações semântica musicais.

Memória episódica de informações musicais envolve a habilidade de relembrar o contexto formal associado com a passagem musical.[77] Em uma situação de memória episódica evocada para música, ativações foram descobertas bilateralmente no giro frontal superior e médio e no precuneus, com ativação predominante do hemisfério direito. Outros estudos descobriram que o precuneos se ativou em uma recordação episódica bem sucedida.[78] Como ele foi ativado na condição de memória familiar de uma memória episódica, essa ativação pode ser explicada pela recordação bem sucedida da melodia.

Quando se trata de memória para alturas musicais, aparentemente existe uma rede cerebral dinâmica e distribuída que facilita o processo de memória de alturas. Gaab, Gaser, Zaehle, Jancke e Schlaug (2003) examinaram a anatomia funcional para memória de altura utilizando imagem por ressonância magnética funcional.[79] A análise quantitativa da performance em uma atividade envolvendo memória para alturas resultou em correlações significativas entre boas performances e o giro supramarginal assim como o cerebelo dorsolateral. Os achados indicam que o cerebelo dorsolateral pode atuar como um processador discriminativo de alturas e o giro supramarginal pode atuar como local de armazenamento à curto-prazo de informações de alturas. O hemisfério esquerdo sobressaiu em tarefas de memória de alturas comparado ao direito.

Efeitos terapêuticos da música para a memória editar

Treinamentos musicais têm demonstrado ajudar memória . Altenmuller et al. estudaram a diferença entre instrução musical ativa e passiva e descobriram que, em um período de tempo mais longo, os alunos ensinados ativamente retinham muito mais informações do que os alunos ensinados passivamente. Os alunos com ensino ativo também apresentaram maior ativação do córtex cerebral. Os alunos ensinados passivamente não estavam perdendo seu tempo; eles, junto com o grupo ativo, exibiram maior atividade do hemisfério esquerdo, o que é típico de músicos treinados.[80]

Pesquisas sugerem que ouvimos as mesmas canções repetidamente por causa do sentimento de nostalgia. Um estudo importante, publicado na revista Memory & Cognition, descobriu que a música permite que a mente evoque memórias do passado.[81]

Atenção editar

Treder et al.[82] identificaram correlatos neurais de atenção quando da escuta de padrões de música polifônica simplificada. Em um experimento musical excêntrico baseado na escuta de áudios, os participantes alternaram a atenção seletiva entre três diferentes instrumentos, cada instrumento ocasionalmente tocando uma ou várias notas divergentes de um padrão repetitivo. Comparando instrumentos notados e não notados, análises de PRE mostraram respostas específicas quanto ao instrumento e quanto ao tema (tema musical) incluindo P300 e componentes auditivos antecipados. Os instrumentos notados poderiam ter sido classificados como desligados com alto grau de precisão. Isso indica que a atenção prestada a um instrumento em particular em uma música polifônica pode ser inferida por EEG em andamento, uma descoberta que é potencialmente relevante para a construção de mais interfaces cérebro-computador baseadas em escuta musical.

Desenvolvimento editar

Crianças de quatro anos de idade com aptidões musicais demonstraram ter maior coerência intra-hemisférica do hemisfério esquerdo.[80] Músicos também mostraram ter mais desenvolvidos porções anteriores do corpo caloso no estudo de Cowell et al. de 1992. Isso foi confirmado no estudo de Schlaug et al. de 1995, que descobriu que músicos eruditos entre 21 e 36 anos têm significantemente maior controle do o corpo caloso anterior do que não-musicistas. Schlaug também descobriu que há uma forte correlação de exposição musical antes da idade de sete anos e um grande aumento no tamanho do corpo caloso. Essas fibras estreitam os hemisférios esquerdo e direito sugerindo aumento na retransmissão entre ambos os lados do cérebro. Isso sugere uma fusão entre o processo tonal-emotivo-espacial do hemisfério direito e o processo linguístico do hemisfério esquerdo. Essa ampla comunicação entre diferentes áreas do cérebro pode contribuir para que a habilidade musical ajude a funcionalidade da memória.

Imparidade editar

Distonia focal da mão editar

Distonia focal da mão é uma disordem de movimento relacionada com atividades ocupacionais que requerem movimentos repetitivos da mão.[83] Está associada com processos anormais nos córtices pré-motor e sensório primário. Um estudo com Imagem por Ressonância Magnética Funcional examinou cinco guitarristas com distonia focal da mão.[84] O estudo reproduziu uma tarefa específica para distonia da mão ao fazer os guitarristas usarem um braço de guitarra real dentro de um scanner, bem como tocar um exercício nesta guitarra para acionar a anormalidade de movimento da mão. Os guitarristas distônicos apresentaram significativamente mais ativação do córtex sensório-motor primário contralateral bem como uma subativação bilateral de áreas pré-motoras. Esse padrão de ativação representa um recrutamento anormal de áreas corticais relacionadas a controle motor. Mesmo em músicos profissionais, o envolvimento generalizado da região cortical bilateral é necessária para produzir complexos movimentos manuais como escalas e arpejos. A mudança anormal da ativação pré-motora para a sensório-motora correlaciona diretamente com a distonia de mão induzida pela guitarra.

Agnosia musical editar

Agnosia musical, uma agnosia auditiva, é uma síndrome de deficiência seletiva no reconhecimento musical.[85] Três casos de agnosia musical foram examinados por Dalla Bella e Peretz (1999); CN, GL e IR. Todos os três pacientes sofreram danos bilaterais no córtex auditivo, o que resultou em dificuldades musicais, enquanto a compreensão da fala permaneceu intacta. A deficiência é específica para o reconhecimento de melodias antes familiares. Eles são poupados no reconhecimento de sons ambientes e no reconhecimento de letras. Peretz (1996) estudou a agnosia musical do paciente CN mais a fundo e relatou uma deficiência inicial no processamento de alturas enquanto o processamento temporal foi poupado.[86] Posteriormente, CN recuperou suas habilidades de processamento de alturas, mas permaneceu com a deficiência no reconhecimento de melodia e nos juízos quanto a familiaridade.

Agnosias musicais podem ser categorizadas baseado no processo do qual é deficiente o indivíduo.[87] Agnosia musical aperceptiva é relacionada com a deficiência ao nível da análise perceptiva envolvendo a inabilidade de decodificar uma informação musical corretamente. Agnosia musical associativa é a deficiência do sistema representacional o qual distorce o reconhecimento de uma música. Muitos casos de agnosia musical resultaram de casos cirúrgicos envolvendo a artéria média. Estudos com pacientes têm arregimentado uma vasta quantidade de evidências demonstrando que o lado esquerdo do cérebro é mais adequado para guardar representações de memória musical de longo prazo e que o lado direito é importante no controle do acesso a essas representações. Agnosias musicais associativas tendem a ser causadas por danos no hemisfério esquerdo do cérebro, enquanto agnosia musical aperceptiva reflete os danos no hemisfério direito.

Amusia congênita editar

Amusia congênita, também conhecida como surdez musical, é o termo para problemas musicais congênitos os quais não são atribuíveis à retardos mentais, falta de exposição a música ou surdez propriamente dita, ou mesmo dano cerebral após o nascimento.[88] Em estudos de fMRI, descobriu-se que cérebros amúsicos têm menos matéria branca e córtex mais espesso no córtex frontal inferior direito do que os cérebros do grupo controle. Essas diferenças sugerem desenvolvimento neuronal anormal no córtex auditivo e no giro frontal inferior, duas áreas que são importantes no processamento de alturas musicais.

Estudos com aqueles que apresentam amusia sugerem que diferentes processos retóricos estão envolvidos entre a fala e a música. Amúsicos congênitos carecem da habilidade de distinguir entre alturas e, assim, são, por exemplo, insensíveis à dissonâncias e ao toque de uma nota errada ao piano. Eles também não podem ser ensinados a se lembrar de uma melodia ou entoar uma canção; ainda assim, eles são capazes de ouvir a entonação de um discurso, por exemplo, distinguir entre “você fala português” e “você fala português?”, quando falado ou perguntado.

Dano amigdalar editar

 
Danos à amígdala podem debilitar o reconhecimento de músicas sombrias.

Danos à amígdala acarreta deficiências emocionais seletivas no que se refere a reconhecimento musical. Gosselin, Peretz, Johnsen e Adolphs (2007) estudaram S.M., uma paciênte com danos bilaterais na amígdala, porém com o lobo temporal intacto e descobriram que S.M. era incapaz de reconhecer músicas sombrias e tristes.[89] A percepção de S.M. era normal para músicas alegres, assim como era sua habilidade em usar deixas, como tempo, para distinguir entre músicas alegre e felizes. Afigura-se que danos específicos à amígdala pode comprometer seletivamente a capacidade de reconhecimento de músicas assustadoras.

Déficit seletivo de leitura musical editar

Deficiências musicais específicas podem resultar de danos cerebrais, deixando outras habilidades musicais intactas. Cappelletti, Waley-Cohen, Butterworth e Kopelman (2000) estudaram o caso único do paciente P.K.C., músico profissional que tinha danos no lobo temporal posterior e uma pequena lesão occipitotemporal.[90] Após sofrer danos nessas regiões, P.K.C. foi seletivamente prejudicado em habilidades de leitura, escrita e compreensão de notação musical, mas manteve outras habilidades musicais. A capacidade de ler em voz alta letras, palavras, números e símbolos, incluindo símbolos musicais, permaneceu. No entanto, P.K.C. ficou incapacitado de ler notas musicais em pauta, independentemente se a atividade envolvia nomear com letras convencionais, cantando ou tocando. Apesar do déficit específico, P.K.C. reteve a habilidade de lembrar e tocar melodias novas e familiares.

Arritmia auditiva editar

Arritmia de modalidade auditiva é definida como um distúrbio do senso rítmico; inclui déficits como a incapacidade de tocar alguma música ritmicamente, de manter o tempo da música e de discriminar entre padrões e reproduzi-los rítmicamente.[91] Uma pesquisa sobre elementos das funções rítmicas examinou o paciente H.J., que adquiriu arritmia depois de sofrer um infarto temporoparietal direito. Danos nessa região prejudicou o paciente em seu sistema central de timing, o qual é essencialmente a base da sua deficiencia rítmica global. H.J. foi incapaz de gerar pulsos constantes em uma atividade de ritmo. Essas descobertas sugerem que manter o tempo musical depende do funcionamento do córtex auditivo temporal direito.

Referências

  1. Kandler, Karl; Clause, Amanda; Noh, Jihyun (2009). «Tonotopic reorganization of developing auditory brainstem circuits». Nature Neuroscience. 12: 711–7. PMC 2780022 . PMID 19471270. doi:10.1038/nn.2332 
  2. Arlinger, S; Elberling, C; Bak, C; Kofoed, B; Lebech, J; Saermark, K (1982). «Cortical magnetic fields evoked by frequency glides of a continuous tone». Electroencephalography and Clinical Neurophysiology. 54: 642–53. PMID 6183097. doi:10.1016/0013-4694(82)90118-3 
  3. Köppl, Christine (1997). «Phase Locking to High Frequencies in the Auditory Nerve and Cochlear Nucleus Magnocellularis of the Barn Owl, Tyto alba». Journal of Neuroscience. 17: 3312–21. PMC 6573645 . PMID 9096164. doi:10.1523/JNEUROSCI.17-09-03312.1997 
  4. Dreyer, A.; Delgutte, B. (2006). «Phase Locking of Auditory-Nerve Fibers to the Envelopes of High-Frequency Sounds: Implications for Sound Localization». Journal of Neurophysiology. 96: 2327–41. PMC 2013745 . PMID 16807349. doi:10.1152/jn.00326.2006 
  5. Laudanski, J.; Coombes, S.; Palmer, A. R.; Sumner, C. J. (2009). «Mode-Locked Spike Trains in Responses of Ventral Cochlear Nucleus Chopper and Onset Neurons to Periodic Stimuli». Journal of Neurophysiology. 103: 1226–37. PMC 2887620 . PMID 20042702. doi:10.1152/jn.00070.2009 
  6. Liu, L.-F.; Palmer, AR; Wallace, MN (2006). «Phase-Locked Responses to Pure Tones in the Inferior Colliculus». Journal of Neurophysiology. 95: 1926–35. PMID 16339005. doi:10.1152/jn.00497.2005 
  7. Wallace, M. N.; Anderson, L. A.; Palmer, A. R. (2007). «Phase-Locked Responses to Pure Tones in the Auditory Thalamus». Journal of Neurophysiology. 98: 1941–52. PMID 17699690. doi:10.1152/jn.00697.2007 
  8. Skoe, Erika; Kraus, Nina (2010). «Auditory Brain Stem Response to Complex Sounds: A Tutorial». Ear and Hearing. 31: 302–24. PMC 2868335 . PMID 20084007. doi:10.1097/AUD.0b013e3181cdb272 
  9. Hyde, Krista L.; Peretz, Isabelle; Zatorre, Robert J. (2008). «Evidence for the role of the right auditory cortex in fine pitch resolution». Neuropsychologia. 46: 632–9. PMID 17959204. doi:10.1016/j.neuropsychologia.2007.09.004 
  10. Patterson, Roy D; Uppenkamp, Stefan; Johnsrude, Ingrid S; Griffiths, Timothy D (2002). «The Processing of Temporal Pitch and Melody Information in Auditory Cortex». Neuron. 36: 767–76. PMID 12441063. doi:10.1016/S0896-6273(02)01060-7 
  11. Deutsch, D. (2013). «Absolute pitch In D. Deutsch (Ed.)». The Psychology of Music, 3rd Edition: 141–182. ISBN 9780123814609. doi:10.1016/B978-0-12-381460-9.00005-5  PDF Document
  12. Takeuchi, Annie H.; Hulse, Stewart H. (1993). «Absolute pitch». Psychological Bulletin. 113: 345–61. PMID 8451339. doi:10.1037/0033-2909.113.2.345 
  13. Zatorre, Robert J.; Perry, David W.; Beckett, Christine A.; Westbury, Christopher F.; Evans, Alan C. (1998). «Functional anatomy of musical processing in listeners with absolute pitch and relative pitch». Proceedings of the National Academy of Sciences of the United States of America. 95: 3172–7. Bibcode:1998PNAS...95.3172Z. PMC 19714 . PMID 9501235. doi:10.1073/pnas.95.6.3172 
  14. Brattico, Elvira; Tervaniemi, Mari; Näätänen, Risto; Peretz, Isabelle (2006). «Musical scale properties are automatically processed in the human auditory cortex». Brain Research. 1117: 162–74. PMID 16963000. doi:10.1016/j.brainres.2006.08.023 
  15. «rhythm | Definition of rhythm in English by Oxford Dictionaries». Oxford Dictionaries | English. Consultado em 31 de maio de 2019 
  16. a b c Tramo, M. J. (2001). «BIOLOGY AND MUSIC: Enhanced: Music of the Hemispheres». Science. 291: 54–6. PMID 11192009. doi:10.1126/science.10.1126/science.1056899 
  17. Snyder, Joel S.; Large, Edward W. (2005). «Gamma-band activity reflects the metric structure of rhythmic tone sequences». Cognitive Brain Research. 24: 117–26. PMID 15922164. doi:10.1016/j.cogbrainres.2004.12.014 
  18. Krumhansl, Carol (1990). Cognitive Foundations of Musical Pitch. New York: Oxford University Press. ISBN 978-0-19-514836-7 [falta página]
  19. Janata, P.; Birk, JL; Van Horn, JD; Leman, M; Tillmann, B; Bharucha, JJ (2002). «The Cortical Topography of Tonal Structures Underlying Western Music». Science. 298: 2167–70. Bibcode:2002Sci...298.2167J. PMID 12481131. doi:10.1126/science.1076262 
  20. a b c d e f g h i Zatorre, R. J.; Halpern, A. R. (2005). «Mental concerts: musical imagery and auditory cortex». Neuron. 47: 9–12. PMID 15996544. doi:10.1016/j.neuron.2005.06.013 
  21. a b Buhusi, C. V.; Meck, W. H. (2005). «What makes us tick? Functional and neural mechanisms of interval timing». Nature Reviews Neuroscience. 6: 755–765. PMID 16163383. doi:10.1038/nrn1764 
  22. Ivry, R. B.; Spencer, R. M. (2004). «The neural representation of time». Curr. Opin. Neurobiol. 14: 225–232. PMID 15082329. doi:10.1016/j.conb.2004.03.013 
  23. Spencer, R. M.; Zelaznik, H. N.; Diedrichson, J.; Ivry, R. B. (2003). «Disrupted timing of discontinuous but not continuous movements by cerebellar lesions». Science. 300: 1437–1439. Bibcode:2003Sci...300.1437S. PMID 12775842. doi:10.1126/science.1083661 
  24. Wing, A. M. (2002). «Voluntary timing and brain function: an information processing approach». Brain Cogn. 48: 7–30. PMID 11812030. doi:10.1006/brcg.2001.1301 
  25. Mauk, M. D.; Buonomano, D. V. (2004). «The neural basis of temporal processing». Annu. Rev. Neurosci. 27: 307–340. PMID 15217335. doi:10.1146/annurev.neuro.27.070203.144247 
  26. Lewis, P. A.; Miall, R. C. (2003). «Distinct systems for automatic and cognitively controlled time measurement: evidence from neuroimaging». Curr. Opin. Neurobiol. 13: 250–255. PMID 12744981. doi:10.1016/s0959-4388(03)00036-9 
  27. Graybiel, A. M. (2005). «The basal ganglia: learning new tricks and loving it.». Curr. Opin. Neurobiol. 15: 638–644. PMID 16271465. doi:10.1016/j.conb.2005.10.006 
  28. a b Doyon, J.; Penhune, V. B.; Ungerleider, L. G. (2003). «Distinct contribution of the cortico-striatal and corticocerebellar systems to motor skill learning». Neuropsychologia. 41: 252–262. PMID 12457751. doi:10.1016/s0028-3932(02)00158-6 
  29. Penhune, V. B.; Doyon, J. (2005). «Cerebellum and M1 interaction during early learning of timed motor sequences». NeuroImage. 26: 801–812. PMID 15955490. doi:10.1016/j.neuroimage.2005.02.041 
  30. Hikosaka, O.; Nakamura, H.; Sakai, K.; Nakahara, H. (2002). «Central mechanisms of motor skill learning». Curr. Opin. Neurobiol. 12: 217–222. PMID 12015240. doi:10.1016/s0959-4388(02)00307-0 
  31. Thach, W. T. (1998). «A role for the cerebellum in learning movement coordination». Neurobiol. Learn. Mem. 70: 177–188. PMID 9753595. doi:10.1006/nlme.1998.3846 
  32. Garraux, G.; et al. (2005). «Shared brain areas but not functional connections in controlling movement timing and order». J. Neurosci. 25: 5290–5297. PMC 6724991 . PMID 15930376. doi:10.1523/jneurosci.0340-05.2005 
  33. Sakai, K.; Hikosaka, O.; Nakamura, H. (2004). «Emergence of rhythm during motor learning». Trends Cogn. Sci. 8: 547–553. PMID 15556024. doi:10.1016/j.tics.2004.10.005 
  34. Kennerley, S. W.; Sakai, K.; Rushworth, M. F. (2004). «Organization of action sequences and the role of the pre-SMA». J. Neurophysiol. 91: 978–993. PMID 14573560. doi:10.1152/jn.00651.2003 
  35. Janata, P.; Grafton, S. T. (2003). «Swinging in the brain: shared neural substrates for behaviors related to sequencing and music». Nature Neuroscience. 6: 682–687. PMID 12830159. doi:10.1038/nn1081 
  36. Schubotz, R. I.; von Cramon, D. Y. (2003). «Functional-anatomical concepts of human premotor cortex: evidence from fMRI and PET studies» (PDF). NeuroImage. 20: S120–S131. PMID 14597305. doi:10.1016/j.neuroimage.2003.09.014 
  37. Johnson, P. B.; Ferraina, S.; Bianchi, L.; Caminiti, R. (1996). «Cortical networks for visual reaching: physiological and anatomical organization of frontal and parietal lobe arm regions. Cereb». Cortex. 6: 102–119. PMID 8670643. doi:10.1093/cercor/6.2.102  
  38. Rizzolatti, G.; Luppino, G.; Matelli, M. (1998). «The organization of the cortical motor system: new concepts». Electroencephalogr. Clin. Neurophysiol. 106: 283–296. PMID 9741757. doi:10.1016/s0013-4694(98)00022-4 
  39. Large, E. W.; Palmer, C. (2002). «Perceiving temporal regularity in music.». Cogn Sci. 26: 1–37. doi:10.1207/s15516709cog2601_1  
  40. Thaut, M. H.; McIntosh, G. C.; Rice, R. R. (1997). «Rhythmic facilitation of gait training in hemiparetic stroke rehabilitation». J. Neurol. Sci. 151: 207–212. PMID 9349677. doi:10.1016/s0022-510x(97)00146-9 
  41. McIntosh, G. C.; Brown, S. H.; Rice, R. R.; Thaut, M. H. (1997). «Rhythmic auditory-motor facilitation of gait patterns in patients with Parkinson's disease». J. Neurol. Neurosurg. Psychiatry. 62: 22–26. PMC 486690 . PMID 9010395. doi:10.1136/jnnp.62.1.22 
  42. Repp, B. H. (1999). «Effects of auditory feedback deprivation on expressive piano performance». Music Perception. 16: 409–438. JSTOR 40285802. doi:10.2307/40285802 
  43. Pfordresher, P. Q.; Palmer, C. (2006). «Effects of hearing the past, present, or future during music performance». Percept. Psychophys. 68: 362–376. PMID 16900830. doi:10.3758/bf03193683  
  44. Hickok, G.; Poeppel, D. (2004). «Dorsal and ventral streams: a framework for understanding aspects of the functional anatomy of language». Cognition. 92: 67–99. PMID 15037127. doi:10.1016/j.cognition.2003.10.011 
  45. Hickok, G.; Buchsbaum, B.; Humphries, C.; Muftuler, T. (2003). «Auditory–motor interaction revealed by fMRI: speech, music, and working memory in area SPT». J. Cogn. Neurosci. 15: 673–682. PMID 12965041. doi:10.1162/089892903322307393 
  46. Rizzolatti, G.; Fogassi, L.; Gallese, V. (2001). «Neurophysiological mechanisms underlying the understanding and imitation of action». Nature Reviews Neuroscience. 2: 661–670. PMID 11533734. doi:10.1038/35090060 
  47. Kohler, E.; et al. (2002). «Hearing sounds, understanding actions: action representation in mirror neurons». Science. 297: 846–848. Bibcode:2002Sci...297..846K. PMID 12161656. doi:10.1126/science.1070311 
  48. Keysers, C.; et al. (2003). «Audiovisual mirror neurons and action recognition. Exp». Brain Res. 153: 628–636. PMID 12937876. doi:10.1007/s00221-003-1603-5 
  49. a b Brown, Steven; Martinez, Michael J.; Parsons, Lawrence M. (2006). «Music and language side by side in the brain: A PET study of the generation of melodies and sentences». European Journal of Neuroscience. 23: 2791–803. PMID 16817882. doi:10.1111/j.1460-9568.2006.04785.x 
  50. Jentschke, Sebastian; Koelsch, Stefan; Sallat, Stephan; Friederici, Angela D. (2008). «Children with Specific Language Impairment Also Show Impairment of Music-syntactic Processing». Journal of Cognitive Neuroscience. 20: 1940–51. PMID 18416683. doi:10.1162/jocn.2008.20135 
  51. Stewart, Lauren; Walsh, Vincent; Frith, UTA; Rothwell, John (2006). «Transcranial Magnetic Stimulation Produces Speech Arrest but Not Song Arrest» (PDF). Annals of the New York Academy of Sciences. 930: 433–5. Bibcode:2001NYASA.930..433S. PMID 11458860. doi:10.1111/j.1749-6632.2001.tb05762.x 
  52. Koelsch, Stefan; Gunter, Thomas C.; v Cramon, D.Yves; Zysset, Stefan; Lohmann, Gabriele; Friederici, Angela D. (2002). «Bach Speaks: A Cortical "Language-Network" Serves the Processing of Music». NeuroImage. 17: 956–66. PMID 12377169. doi:10.1006/nimg.2002.1154  
  53. Daltrozzo, Jérôme; Schön, Daniele (2009). «Conceptual Processing in Music as Revealed by N400 Effects on Words and Musical Targets». Journal of Cognitive Neuroscience. 21: 1882–92. PMID 18823240. doi:10.1162/jocn.2009.21113 
  54. Deutsch, Diana; Henthorn, Trevor; Marvin, Elizabeth; Xu, Hongshuai (2006). «Absolute pitch among American and Chinese conservatory students: Prevalence differences, and evidence for a speech-related critical period». The Journal of the Acoustical Society of America. 119: 719–22. Bibcode:2006ASAJ..119..719D. PMID 16521731. doi:10.1121/1.2151799 
  55. Deutsch, Diana; Dooley, Kevin; Henthorn, Trevor; Head, Brian (2009). «Absolute pitch among students in an American music conservatory: Association with tone language fluency». The Journal of the Acoustical Society of America. 125: 2398–403. Bibcode:2009ASAJ..125.2398D. PMID 19354413. doi:10.1121/1.3081389 
  56. Gaser, C; Schlaug, G (2003). «Brain structures differ between musicians and non-musicians». The Journal of Neuroscience. 23: 9240–5. PMC 6740845 . PMID 14534258. doi:10.1523/JNEUROSCI.23-27-09240.2003 
  57. a b Croom, Adam M. (2012). «Music, Neuroscience, and the Psychology of Well-Being: A Précis». Frontiers in Psychology. 2. 393 páginas. PMC 3249389 . PMID 22232614. doi:10.3389/fpsyg.2011.00393 
  58. Krings, Timo; Töpper, Rudolf; Foltys, Henrik; Erberich, Stephan; Sparing, Roland; Willmes, Klaus; Thron, Armin (2000). «Cortical activation patterns during complex motor tasks in piano players and control subjects. A functional magnetic resonance imaging study». Neuroscience Letters. 278: 189–93. PMID 10653025. doi:10.1016/S0304-3940(99)00930-1 
  59. Koeneke, Susan; Lutz, Kai; Wüstenberg, Torsten; Jäncke, Lutz (2004). «Long-term training affects cerebellar processing in skilled keyboard players». NeuroReport. 15: 1279–82. PMID 15167549. doi:10.1097/01.wnr.0000127463.10147.e7 
  60. Koelsch, Stefan; Gunter, Tomas; Friederici, Angela D.; Schröger, Erich (2000). «Brain Indices of Music Processing: "Nonmusicians" are Musical». Journal of Cognitive Neuroscience. 12: 520–41. PMID 10931776. doi:10.1162/089892900562183 
  61. Koelsch, Stefan; Schroger, Erich; Gunter, Thomas C. (2002). «Music matters: Preattentive musicality of the human brain». Psychophysiology. 39: 38–48. PMID 12206294. doi:10.1111/1469-8986.3910038 
  62. Koelsch, Stefan; Maess, Burkhard; Grossmann, Tobias; Friederici, Angela D. (2003). «Electric brain responses reveal gender differences in music processing». NeuroReport. 14: 709–13. PMID 12692468. doi:10.1097/00001756-200304150-00010 
  63. Koelsch, Stefan; Grossmann, Tobias; Gunter, Thomas C.; Hahne, Anja; Schröger, Erich; Friederici, Angela D. (2003). «Children Processing Music: Electric Brain Responses Reveal Musical Competence and Gender Differences». Journal of Cognitive Neuroscience. 15: 683–93. PMID 12965042. doi:10.1162/jocn.2003.15.5.683 
  64. Deutsch, D (fevereiro de 1978). «Pitch memory: An advantage for the left-handed». Science. 199: 559–560. Bibcode:1978Sci...199..559D. PMID 622558. doi:10.1126/science.622558 
  65. Deutsch, Diana (1980). «Handedness and Memory for Tonal Pitch». In: Herron. Neuropsychology of Lefthandedness. [S.l.: s.n.] pp. 263–71 
  66. Deutsch, Diana (1974). «An auditory illusion». Nature. 251: 307–9. Bibcode:1974Natur.251..307D. PMID 4427654. doi:10.1038/251307a0 
  67. Deutsch, Diana (1983). «The octave illusion in relation to handedness and familial handedness background». Neuropsychologia. 21: 289–93. PMID 6877583. doi:10.1016/0028-3932(83)90047-7 
  68. Deutsch, Diana (1975). «Two-channel listening to musical scales». The Journal of the Acoustical Society of America. 57: 1156–60. Bibcode:1975ASAJ...57.1156D. PMID 1127169. doi:10.1121/1.380573 
  69. Deutsch, D. (1999). «Grouping mechanisms in music». In: Deutsch. The psychology of music 2nd ed. [S.l.: s.n.] pp. 299–348 
  70. Halpern, Andrea R. (2006). «Cerebral Substrates of Musical Imagery». Annals of the New York Academy of Sciences. 930: 179–92. Bibcode:2001NYASA.930..179H. PMID 11458829. doi:10.1111/j.1749-6632.2001.tb05733.x 
  71. Herholz, Sibylle C.; Lappe, Claudia; Knief, Arne; Pantev, Christo (2008). «Neural basis of music imagery and the effect of musical expertise». European Journal of Neuroscience. 28: 2352–60. PMID 19046375. doi:10.1111/j.1460-9568.2008.06515.x 
  72. Zatorre, Robert J.; Halpern, Andrea R.; Perry, David W.; Meyer, Ernst; Evans, Alan C. (1996). «Hearing in the Mind's Ear: A PET Investigation of Musical Imagery and Perception». Journal of Cognitive Neuroscience. 8: 29–46. PMID 23972234. doi:10.1162/jocn.1996.8.1.29 
  73. Blood, A. J.; Zatorre, R. J. (2001). «Intensely pleasurable responses to music correlate with activity in brain regions implicated in reward and emotion». Proceedings of the National Academy of Sciences. 98: 11818–11823. Bibcode:2001PNAS...9811818B. PMC 58814 . PMID 11573015. doi:10.1073/pnas.191355898 
  74. Collins, Francis S.; Fleming, Renée; Rutter, Deborah; Iyengar, Sunil; Tottenham, Nim; Patel, Aniruddh D.; Limb, Charles; Johnson, Julene K.; Holochwost, Steven J. (21 de março de 2018). «NIH/Kennedy Center Workshop on Music and the Brain: Finding Harmony». Neuron (em English). 97: 1214–1218. ISSN 0896-6273. PMC 6688399 . PMID 29566791. doi:10.1016/j.neuron.2018.02.004 
  75. Schmidt, Louis A.; Trainor, Laurel J. (2001). «Frontal brain electrical activity (EEG) distinguishes valence and intensity of musical emotions». Cognition & Emotion. 15: 487–500. doi:10.1080/02699930126048 
  76. Baird, Amee; Samson, Séverine (2009). «Memory for Music in Alzheimer's Disease: Unforgettable?». Neuropsychology Review. 19: 85–101. PMID 19214750. doi:10.1007/s11065-009-9085-2 
  77. Platel, Hervé; Baron, Jean-Claude; Desgranges, Béatrice; Bernard, Frédéric; Eustache, Francis (2003). «Semantic and episodic memory of music are subserved by distinct neural networks». NeuroImage. 20: 244–56. PMID 14527585. doi:10.1016/S1053-8119(03)00287-8 
  78. Kapur, Shitij; Craik, Fergus I. M.; Jones, Corey; Brown, Gregory M.; Houle, Sylvain; Tulving, Endel (1995). «Functional role of the prefrontal cortex in retrieval of memories: A PET study». NeuroReport. 6: 1880–4. PMID 8547589. doi:10.1097/00001756-199510020-00014 
  79. Gaab, Nadine; Gaser, Christian; Zaehle, Tino; Jancke, Lutz; Schlaug, Gottfried (2003). «Functional anatomy of pitch memory—an fMRI study with sparse temporal sampling». NeuroImage. 19: 1417–26. PMID 12948699. doi:10.1016/S1053-8119(03)00224-6 
  80. a b Burriss, Kathleen Glascott; Strickland, Susan J. (2001). «Review of Research: Music and the Brain in Childhood Development». Childhood Education. 78: 100–103. doi:10.1080/00094056.2002.10522714 
  81. Schulkind, Matthew D.; Hennis, Laura Kate; Rubin, David C. (1 de novembro de 1999). «Music, emotion, and autobiographical memory: They're playing your song». Memory & Cognition (em inglês). 27: 948–955. ISSN 1532-5946. PMID 10586571. doi:10.3758/BF03201225  |hdl-access= requer |hdl= (ajuda)
  82. Treder, Matthias; Purwins, Hendrik; Miklody, Daniel; Sturm, Irene; Blankertz, Benjamin (2014). «Decoding auditory attention to instruments in polyphonic music using single-trial EEG classification» (PDF). Journal of Neural Engineering. 11 (2). 026009 páginas. Bibcode:2014JNEng..11b6009T. PMID 24608228. doi:10.1088/1741-2560/11/2/026009 
  83. Chen, R; Hallett, M (1998). «Focal dystonia and repetitive motion disorders». Clinical Orthopaedics and Related Research: 102–6. PMID 9646753 
  84. Pujol, J.; Roset-Llobet, J.; Rosinés-Cubells, D.; Deus, J.; Narberhaus, B.; Valls-Solé, J.; Capdevila, A.; Pascual-Leone, A. (2000). «Brain Cortical Activation during Guitar-Induced Hand Dystonia Studied by Functional MRI». NeuroImage. 12: 257–67. PMID 10944408. doi:10.1006/nimg.2000.0615 
  85. Dalla Bella, Simone; Peretz, Isabelle (1999). «Music Agnosias: Selective Impairments of Music Recognition After Brain Damage». Journal of New Music Research. 28: 209–216. doi:10.1076/jnmr.28.3.209.3108 
  86. Peretz, Isabelle (1996). «Can We Lose Memory for Music? A Case of Music Agnosia in a Nonmusician». Journal of Cognitive Neuroscience. 8: 481–96. PMID 23961980. doi:10.1162/jocn.1996.8.6.481 
  87. Ayotte, J. (2000). «Patterns of music agnosia associated with middle cerebral artery infarcts». Brain. 123: 1926–38. PMID 10960056. doi:10.1093/brain/123.9.1926  
  88. Peretz, Isabelle (2008). «Musical Disorders: From Behavior to Genes». Current Directions in Psychological Science. 17: 329–333. doi:10.1111/j.1467-8721.2008.00600.x 
  89. Gosselin, Nathalie; Peretz, Isabelle; Johnsen, Erica; Adolphs, Ralph (2007). «Amygdala damage impairs emotion recognition from music». Neuropsychologia. 45: 236–44. PMID 16970965. doi:10.1016/j.neuropsychologia.2006.07.012 
  90. Cappelletti, M.; Waley-Cohen, H.; Butterworth, B.; Kopelman, M. (2000). «A selective loss of the ability to read and to write music». Neurocase. 6: 321–332. doi:10.1080/13554790008402780 
  91. Wilson, Sarah J; Pressing, Jeffrey L; Wales, Roger J (2002). «Modelling rhythmic function in a musician post-stroke». Neuropsychologia. 40: 1494–505. PMID 11931954. doi:10.1016/S0028-3932(01)00198-1