Singularidade tecnológica

hipótese que relaciona o crescimento tecnológico desenfreado da super inteligência artificial a mudanças irreversíveis ​​na civilização humana

Singularidade tecnológica[1] é a hipótese que relaciona o crescimento tecnológico desenfreado da super inteligência artificial a mudanças irreversíveis ​​na civilização humana.[2] Segundo essa hipótese, a "reação desenfreada" de um agente inteligente atualizável com capacidade de auto-aperfeiçoamento (como um computador que executa inteligência artificial baseada em software) geraria cada vez mais rapidamente, indivíduos dotados de uma super inteligência poderosa que, qualitativamente, ultrapassaria toda a inteligência humana. A utilização do termo "singularidade" se deu a partir da década de 1950,[3] com John von Neumann, no sentido em que o progresso tecnológico estaria associado a uma mudança acelerada: "A aceleração do progresso tecnológico e as mudanças no modo de vida humano dão uma aparência de singularidade essencial na história da raça, para além da qual os assuntos humanos, como os conhecemos, não podem continuar."[4] Autores como I. J. Good e Vernor Vinge ecoaram esse ponto de vista.[2][5] The Coming Singularity, 1993, é um ensaio de Vinge que relaciona o fim da era humana com o avanço tecnológico da super inteligência a taxas incompreensíveis.[6]

Gráfico logarítmico contendo quinze listas de mudanças paradigmáticas para eventos-chave na história da humanidade, que mostra uma tendência de natureza exponencial. Listas preparadas por Dorion Sagan, Paul D. Boyer, Enciclopédia Britânica, Museu Americano de História Natural e Universidade do Arizona, dentre outros, e compiladas por Ray Kurzweil.

Em 2012, ocorreu a Cúpula da Singularidade, onde Stuart Armstrong apresentou seu estudo de previsões de inteligência artificial (AGI - Artificial General Intelligence), através do qual se encontrou uma ampla gama de datas previstas, com um valor médio de 2040.[7]

Manifestações editar

Explosão da inteligência editar

Em 1965, I. J. Good especulou que a inteligência artificial poderia provocar uma explosão de inteligência, propondo um cenário onde, à medida que os computadores são potencializados, há o aumento da possibilidade de construção de máquinas com maior capacidade inventiva e de solução de problemas que o próprio homem. Máquinas cada vez mais capazes seriam desenvolvidas a partir desta, acelerando o auto-aperfeiçoamento recursivo, resultando numa enorme mudança qualitativa antes de quaisquer limites superiores impostos pelas leis da física ou da computação teórica.[8]

Estimativas editar

 
Quadro representativo sobre as previsões de Gordon Moore em relação ao aumento do poder de processamento dos computadores.

Para fazer uma estimativa precisa de quando exatamente a inteligência artificial conseguirá alcançar níveis superiores à inteligência humana muitos índices tem sido usados e comparados. A lei de Moore, em vigor há mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra, enquanto os custos permanecem constantes, é extensamente usada como modelo nos estudos sobre singularidade tecnológica.

No modelo de singularidade tecnológica como consequência natural do acelerado progresso técnico-científico, vários outros índices também têm sido utilizados. Dentre eles podemos destacar: o número crescente de publicações científicas anuais, o número crescente de patentes registradas e a crescente concorrência econômica e industrial internacional.

A maior parte daqueles que pesquisam ou discutem a singularidade tecnológica acreditam que esta possa decorrer entre os anos de 2025 e 2070, embora seja perfeitamente possível que esta demore mais a ocorrer ou, simplesmente, não ocorra.

Em 2011, Kurzweil observou tendências existentes e concluiu que a singularidade estava se tornando mais provável de ocorrer em torno de 2045. Ele disse à revista Time: "Vamos fazer com sucesso a engenharia reversa do cérebro humano em meados dos anos 2020. No final dessa década, os computadores terão inteligência no mesmo nível humano." [9]

Emergência da super inteligência editar

John von Neumann, Vernor Vinge e Ray Kurzweil definem a emergência da super inteligência em termos de sua criação. Eles argumentam que é difícil ou impossível para os seres humanos atuais prever o que seria da humanidade futura em um mundo pós-singularidade.[6][10]

Contra-singularidade editar

Para alguns escritores, a "singularidade" deve ser utilizada de forma mais ampla, para referir-se a quaisquer mudanças radicais em nossa sociedade provocadas por novas tecnologias, a exemplo da nanotecnologia molecular,[11][12][13] enquanto que, para Vinge e outros mais, tais mudanças não se qualificam como uma verdadeira singularidade sem o acréscimo da super inteligência.[6] Muitos escritores também ligam a singularidade a observações de crescimento exponencial em várias tecnologias (tendo a Lei de Moore como exemplo mais proeminente), usando-as como base para prever a ocorrência da singularidade em algum momento durante o século XXI.[14]

Plausibilidade editar

Estudiosos como Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier e Gordon Moore, cuja lei de Moore é frequentemente citada em apoio ao conceito, disputam a plausibilidade de uma singularidade tecnológica.[15][16][17]

Causa reivindicada: crescimento exponencial editar

A ideia de que a tecnologia da computação cresce exponencialmente, sugerida pela Lei de Moore, é comumente citada como motivo para esperar uma singularidade em um futuro relativamente próximo, e vários autores propuseram generalizações acerca. Hans Moravec, um cientista de informática e futurista, propôs em um livro de 1998[18] que a curva de crescimento exponencial poderia ser estendida através de tecnologias de computação anteriores ao circuito integrado.

Kurzweil postula uma lei de retornos acelerados em que a velocidade das mudanças tecnológicas (e, em geral, todos os processos evolutivos[19]) aumenta exponencialmente, generalizando a Lei de Moore da mesma maneira que a proposta de Moravec e também inclui tecnologia material (especialmente como aplicado à nanotecnologia), tecnologia médica e outros.[20] Entre 1986 e 2007, a capacidade específica das máquinas para calcular informações per capita foi aproximadamente dobrada a cada 14 meses; A capacidade per capita dos computadores de propósito geral do mundo duplicou a cada 18 meses; A capacidade global de telecomunicações per capita dobrou a cada 34 meses; E a capacidade de armazenamento mundial per capita dobrou a cada 40 meses.[21]

Este mesmo autor, reserva o termo "singularidade" para um rápido aumento da inteligência (ao contrário de outras tecnologias), escrevendo, por exemplo, que "a singularidade nos permitirá transcender essas limitações de nossos corpos e cérebros biológicos... Não haverá distinção, pós-singularidade, entre humanos e máquinas ".[22] Ele também define sua data prevista da singularidade (2045) em termos de quando ele espera que as inteligências baseadas em computador excedam significativamente a soma total do poder humano, escrevendo que todo avanço na computação antes dessa data "não representará a singularidade" porque o que é feito "ainda não corresponde a uma profunda expansão da nossa inteligência."[23]

Acelerando a mudança editar

Há proponentes da singularidade que argumentam a sua inevitabilidade através da extrapolação de tendências passadas, especialmente aquelas que relacionam a redução de lacunas entre melhorias tecnológicas. Num contexto de progresso tecnológico, em um dos primeiros usos do termo "singularidade", Ulam fala de uma conversa com o falecido John von Neumann sobre acelerar a mudança:

Uma conversa centrada no progresso sempre acelerado da tecnologia e nas mudanças no modo de vida humana, que aparenta abordar uma singularidade essencial na história da raça, para além da qual os assuntos humanos, como os conhecemos, não puderam continuar.[4]

Kurzweil afirma que o progresso tecnológico segue um padrão de crescimento exponencial, seguindo o que ele chama de "Lei de Retornos Aceleradores". Sempre que a tecnologia se aproxima de uma barreira, as novas tecnologias irão superá-la, escreve Kurzweil. Ele prevê que as mudanças de paradigma se tornarão cada vez mais comuns, levando a "mudanças tecnológicas tão rápidas e profundas, que representam uma ruptura no tecido da história humana".[24] Kurzweil acredita que a singularidade ocorrerá até 2045.[25] Suas previsões diferem da de Vinge, na medida em que ele prevê uma ascensão gradual para a singularidade, ao invés da inteligência super-humana auto-aperfeiçoada de Vinge.

Os perigos citados incluem os comumente associados à nanotecnologia molecular e à engenharia genética. Essas ameaças são questões importantes para os defensores da singularidade e as críticas, e foram objeto do artigo da revista Bill Wired "Porque o futuro não precisa de nós".[5][26]

Críticas editar

Alguns críticos afirmam que nenhum computador ou máquina jamais conseguirá inteligência humana, enquanto outros afirmam que a definição de inteligência é irrelevante se o resultado líquido for o mesmo.[27]

Steven Pinker afirmou em 2008:

(...) Não há o menor motivo para acreditar em uma singularidade que vem. O fato de que você pode visualizar um futuro em sua imaginação não é prova de que seja provável ou mesmo possível. Olhe para cidades abobadadas, comboio de jet-pack, cidades subaquáticas, edifícios de milha-alta e automóveis de energia nuclear - todos os grampos de fantasias futuristas quando eu era uma criança que nunca chegou. O poder de processamento completo não é um pó de duendes que soluciona magicamente todos os seus problemas. (...)[15]

Universidade da Califórnia, Berkeley, o professor de filosofia John Searle escreve:

[Computadores] têm, literalmente, [...], nenhuma inteligência, motivação, autonomia ou poder de ação próprio. Nós os projetamos para se comportarem como se tivessem algum tipo de psicologia, mas não há nenhuma realidade psicológica para os processos ou comportamentos correspondentes. [...] [A máquina não tem crenças, desejos, [ou] motivações.[28]

Martin Ford em The Lights in the Tunnel: automação, tecnologia de aceleração e economia do futuro[29] postulam um "paradoxo tecnológico" na medida em que, antes da singularidade, poderia ocorrer a maioria dos trabalhos de rotina na economia, caso fossem do tipo automatizado, uma vez que isso exigiria um nível de tecnologia inferior ao da singularidade. Isso causaria o desemprego maciço e a queda da demanda dos consumidores, o que, por sua vez, destruiria o incentivo para investir nas tecnologias que seriam necessárias para promover a singularidade. O deslocamento de trabalho é cada vez mais não limitado ao trabalho tradicionalmente considerado "rotineiro".[30]

Theodore Modis[31][32] e Jonathan Huebner[33] argumentam que a taxa de inovação tecnológica não só deixou de aumentar, mas agora está diminuindo. A evidência para este declínio é que o aumento das taxas de clock do computador está diminuindo, mesmo quando a previsão de Moore de densidade de circuito exponencialmente crescente continua a manter. Isto ocorre devido à acumulação de calor excessiva a partir do chip, que não pode ser dissipado rápido o suficiente para evitar que o chip funda quando se opera a velocidades mais elevadas. Avanços em velocidade podem ser possíveis no futuro em virtude de projetos de CPU mais eficientes em termos de energia e processadores de várias células.[34] Enquanto Kurzweil usava os recursos de Modis, e o trabalho de Modis estava em torno da aceleração da mudança, Modis distanciou-se da tese de Kurzweil de uma "singularidade tecnológica", alegando que não tem rigor científico.[31]

Em uma contabilidade empírica detalhada, The Progress of Computing, de William Nordhaus, argumentou que, antes de 1940, os computadores seguiram o crescimento muito mais lento de uma economia industrial tradicional, rejeitando as extrapolações da lei de Moore aos computadores do século XIX.[35]

Em um artigo de 2007, Schmidhuber afirmou que a frequência de "eventos notáveis" subjetivamente parece estar se aproximando de uma singularidade do século XXI, mas advertiu os leitores a levarem tais parcelas de eventos subjetivos com um grão de sal: talvez, com diferenças de memória recentes e distantes, os eventos poderiam criar uma ilusão de aceleração de mudança onde não existe.[36]

Paul Allen argumenta o oposto de retornos acelerados, o freio de complexidade;[17] quanto mais progresso a ciência faz para a compreensão da inteligência, mais difícil torna-se fazer progressos adicionais. Um estudo do número de patentes mostra que a criatividade humana não mostra retornos acelerados, mas, de fato, como sugerido por Joseph Tainter em The Collapse of Complex Societies[37], uma lei de retornos decrescentes. O número de patentes por mil atingiu o pico no período de 1850 a 1900 e tem vindo a diminuir desde então.[33] O crescimento da complexidade eventualmente se torna auto-limitante e leva a um amplo "colapso geral dos sistemas".

Jaron Lanier refuta a ideia de que a singularidade é inevitável. Ele afirma: "Eu não acho que a tecnologia está se criando. Não é um processo autônomo".[38] Ele continua afirmando: "A razão de acreditar na agência humana sobre o determinismo tecnológico é que você pode ter uma economia onde as pessoas ganham seu próprio caminho e inventam suas próprias vidas. Se você estrutura uma sociedade para não enfatizar a agência humana individual, é a mesma coisa operacional que negar a influência, a dignidade e a autodeterminação das pessoas... abraçar [a ideia da singularidade] seria uma celebração de dados ruins e políticas ruins. "[39]

O economista Robert J. Gordon, em The Rise and Fall of American Growth: O padrão de vida dos EUA desde a Guerra Civil (2016), ressalta que o crescimento econômico medido desacelerou em 1970 e abrandou ainda mais desde a crise financeira de 2008 e argumenta que os dados econômicos não mostram vestígios de uma singularidade que vem, como imaginou o matemático IJ Bom.[40]

Além das críticas gerais ao conceito de singularidade, vários críticos levantaram problemas com o gráfico icônico de Kurzweil. Uma linha de crítica é que um gráfico log-log dessa natureza é inerentemente tendencioso em direção a um resultado direto. Outros identificam viés de seleção nos pontos que Kurzweil escolhe usar. Por exemplo, a bióloga PZ Myers aponta que muitos dos "eventos" evolutivos iniciais foram escolhidos arbitrariamente.[41] Kurzweil refutou isso, traçando eventos evolutivos de 15 fontes neutras e mostrando que eles se encaixam em uma linha direta em um gráfico log-log. The Economist zombou do conceito com um gráfico extrapolando que o número de lâminas em uma navalha, que aumentou ao longo dos anos de um para até cinco, aumentará cada vez mais rápido até o infinito.[42]

Ramificações editar

Incerteza e risco editar

O termo "singularidade tecnológica" reflete a ideia de que tal mudança pode acontecer de repente, e que é difícil prever como o novo mundo resultante funcionaria.[43][44] Não está claro se uma explosão de inteligência desse tipo seria benéfica ou prejudicial, ou mesmo uma ameaça existencial[45][46], uma vez que a questão não foi tratada pela maioria dos pesquisadores de inteligência artificial, embora o tema da inteligência artificial amigável venha sendo investigado pelo Future of Humanity Institute e pelo Machine Intelligence Research Institute.[43]

Próximo passo da evolução sociobiológica editar

Embora a singularidade tecnológica geralmente seja vista como um evento súbito, alguns estudiosos argumentam que a atual velocidade de mudança já se encaixa nesta descrição. Além disso, alguns argumentam que já estamos no meio de uma grande transição evolutiva que combina tecnologia, biologia e sociedade. A tecnologia digital infiltrou o tecido da sociedade humana a um grau de dependência indiscutível e muitas vezes sustentável. Um artigo de 2016 na Trends in Ecology & Evolution argumenta que "os seres humanos já adotam fusões de biologia e tecnologia. Passamos a maior parte do nosso tempo de vigília a se comunicar através de canais mediados digitalmente... confiamos na inteligência artificial com nossas vidas através de travagem antibloqueio em carros e pilotos automáticos em aviões... Com um em cada três casamentos na América começando on-line, os algoritmos digitais também estão desempenhando um papel na ligação e reprodução de pares humanos ". O artigo argumenta que, a partir da perspectiva da evolução, várias transições principais de evolução anteriores transformaram a vida através de inovações em armazenamento e replicação de informações (RNA, DNA, multicelularidade e cultura e linguagem). Na fase atual da evolução da vida, a biosfera à base de carbono gerou um sistema cognitivo (humano) capaz de criar tecnologia que resultará em uma transição evolutiva comparável. A informação digital criada pelos humanos atingiu uma magnitude similar à informação biológica na biosfera. Desde a década de 1980, "a quantidade de informações digitais armazenadas dobrou cerca de 2,5 anos, atingindo cerca de 5 zettabytes em 2014 (5x10 ^ 21 bytes). Em termos biológicos, existem 7,2 bilhões de humanos no planeta, cada um com um genoma de 6,2 Bilhões de nucleotídeos. Uma vez que um byte pode codificar quatro pares de nucleótidos, os genomas individuais de cada humano no planeta poderiam ser codificados por aproximadamente 1x10 ^ 19 bytes. O reino digital armazenou 500 vezes mais informações do que isso em 2014 (... veja a figura)... A quantidade total de DNA contida em todas as células da Terra é estimada em cerca de 5,3 x 10 ^ 37 pares de bases, equivalente a 1,325 x 10 ^ 37 bytes de informação. Se o crescimento no armazenamento digital continuar na sua taxa atual de 30 -38% de crescimento composto por ano, [20] irá rivalizar com o conteúdo total de informação contido em todo o DNA em todas as células da Terra em cerca de 110 anos. Isso representaria uma duplicação da quantidade de informações armazenadas no biosfera em um período de tempo total de apenas 150 anos".[47]

Implicações para a sociedade humana editar

Em fevereiro de 2009, sob os auspícios da Associação para o Avanço da Inteligência Artificial (AAAI), Eric Horvitz presidiu uma reunião com cientistas da computação, pesquisadores de inteligência artificial e roboticistas em Asilomar, em Pacific Grove, Califórnia. O objetivo era discutir o impacto potencial da possibilidade hipotética de que os robôs pudessem se tornar auto-suficientes e capazes de tomar suas próprias decisões. Eles discutiram até que ponto os computadores e os robôs poderiam adquirir autonomia e até que ponto eles poderiam usar tais habilidades para colocar ameaças ou perigos.

Algumas máquinas são programadas com várias formas de semi-autonomia, incluindo a capacidade de localizar suas próprias fontes de energia e escolher alvos para atacar com armas. Além disso, alguns vírus informáticos podem evadir a eliminação e, de acordo com os cientistas presentes, poderia, portanto, ser dito ter atingido um estágio de "barata" da inteligência da máquina. Os participantes da conferência observaram que a autoconsciência, tal como descrita na ficção científica, é improvável, mas que existem outros perigos e armadilhas potenciais.[48]

Imortalidade editar

The Singularity is Near, publicado por Kurzweil em 2005, sugere que os avanços médicos permitiriam às pessoas proteger seus corpos contra os efeitos do envelhecimento, tornando a expectativa de vida ilimitada. Kurzweil argumenta que os avanços tecnológicos em medicina nos permitirão consertar e substituir continuamente componentes defeituosos em nossos corpos, prolongando a vida a uma idade indeterminada.[49] Ele sugere terapia genética somática; Após vírus sintéticos com informações genéticas específicas, o próximo passo seria aplicar essa tecnologia à terapia genética, substituindo DNA humano por genes sintetizados.[50]

Além de ampliar a vida operacional do corpo físico, Jaron Lanier defende uma forma de imortalidade chamada "Ascensão Digital" que envolve "pessoas morrendo em carne e sendo carregadas em um computador e permanecendo conscientes".[51] O singularismo também foi comparado a uma religião por John Horgan.[52]

História do conceito editar

Em seu obituário para John von Neumann, Ulam lembrou de uma conversa sobre o "progresso sempre acelerado da tecnologia e as mudanças no modo de vida humana, que dão a aparência de aproximação de uma singularidade essencial na história da raça para além da qual os assuntos humanos como os conhecemos, não podem continuar".[4]

Em 1965, Good escreveu seu ensaio postulando uma "explosão de inteligência" de auto-aperfeiçoamento recursivo de uma inteligência de máquina. Em 1985, em "The Time Scale of Artificial Intelligence", o pesquisador de inteligência artificial Ray Solomonoff articulou matematicamente a noção relacionada do que ele chamou de "ponto infinito": se uma comunidade de pesquisa de AIs de auto-aperfeiçoamento humano levar quatro anos para dobrar sua própria velocidade, depois serão dois anos, depois um e assim por diante, até que suas capacidades aumentam infinitamente em tempo finito.[5][52]

Em 1983, Vinge popularizou muito a explosão de inteligência de Good em vários escritos, primeiro abordando o tópico impresso na edição de janeiro de 1983 da revista Omni. Nesta peça de ação, Vinge parece ter sido o primeiro a usar o termo "singularidade" de forma especificamente vinculada à criação de máquinas inteligentes:[53][54] "Em breve criaremos inteligências maiores que as nossas. Quando isso acontecer, a história humana alcançará uma espécie de singularidade, uma transição intelectual tão impenetrável quanto o espaço-tempo atado no centro de um buraco negro, e o mundo passará muito além do nosso entendimento. Essa singularidade, acredito, já assombra vários escritores de ficção científica. Isso impossibilita a extrapolação realista para um futuro interestelar. Para escrever uma história definida há mais de um século, é preciso uma guerra nuclear entre... para que o mundo permaneça inteligível."

O artigo de HisVinge de 1993 intitulado "The Coming Technological Singularity: How to Survive na Era Pós-Humana"[6] se espalhou amplamente na internet e ajudou a popularizar a ideia.[55] Este artigo contém a afirmação: "Dentro de trinta anos, teremos os meios tecnológicos para criar inteligência sobre-humana. Pouco depois, a era humana será encerrada". Vinge argumenta que os autores de ciência-ficção não podem escrever personagens de pós-singularidade realistas que superam o intelecto humano, pois os pensamentos de tal intelecto estariam além da capacidade dos humanos de expressar.[6]

Em 2000, Bill Joy, tecnólogo proeminente e co-fundador da Sun Microsystems, expressou preocupação com os perigos potenciais da singularidade.[26]

Em 2005, Kurzweil publicou The Singularity is Near. A campanha publicitária de Kurzweil incluiu uma aparição no The Daily Show com Jon Stewart.[54]

Em 2007, Eliezer Yudkowsky sugeriu que muitas das variadas definições que foram atribuídas à "singularidade" são mutuamente incompatíveis em vez de se apoiarem.[12][56] Por exemplo, Kurzweil extrapola as trajetórias tecnológicas atuais após a chegada do IA auto-aperfeiçoado ou da inteligência sobre-humana, que Yudkowsky argumenta, representa uma tensão com o aumento descontínuo proposto por I. J. Good na inteligência e na tese de Vinge sobre a imprevisibilidade.[12]

Em 2009, o fundador da Kurzweil e do X-Prize, Peter Diamandis, anunciou o estabelecimento da Singularity University, um instituto privado não acreditado cuja missão declarada é "educar, inspirar e capacitar líderes para aplicar tecnologias exponenciais para enfrentar os grandes desafios da humanidade".[57] Financiado por Google, Autodesk, ePlanet Ventures e um grupo de líderes da indústria de tecnologia, a Singularity University é baseada no Centro de Pesquisa Ames da NASA em Mountain View, Califórnia. A organização sem fins lucrativos administra um programa anual de pós-graduação de dez semanas durante o verão do norte do hemisfério, que abrange dez diferentes tecnologias e faixas aliadas e uma série de programas executivos ao longo do ano.

Política editar

Em 2007, o Comitê Econômico conjunto do Congresso dos Estados Unidos divulgou um relatório sobre o futuro da nanotecnologia. Prevê mudanças tecnológicas e políticas significativas no futuro a meio prazo, incluindo a possível singularidade tecnológica.[58][59][60]

O ex-presidente dos Estados Unidos, Barack Obama falou sobre a singularidade em sua entrevista à Wired em 2016:[61] "Uma coisa sobre a qual não falamos demais, e eu só quero voltar, é que temos que pensar nas implicações econômicas. Porque a maioria das pessoas não está gastando muito tempo agora se preocupando com a singularidade - eles estão preocupados com "Bem, meu trabalho vai ser substituído por uma máquina?"

Organizações e instituições relacionadas editar

Existem várias organizações e instituições que pretendem participar ativamente e/ou promovem estudos acerca da singularidade tecnológica. Dentre estas podemos destacar:

  • Singularity Institute for Artificial Intelligence: instituto de pesquisa sem fins lucrativos que já vem promovendo há algum tempo o estudo e o avanço das pesquisas na área da inteligência artificial e prega que a singularidade tecnológica pode ser totalmente benéfica, ao contrário do que muitos acreditam. Estão atualmente trabalhando para dar forma ao que o estatístico britânico Irving John Good chamou de "explosão de inteligência" e têm como objetivo adicional promover uma discussão e uma compreensão mais ampla sobre a inteligência artificial e seus benefícios.
  • Acceleration Studies Foundation: organização educacional sem fins lucrativos que visa a promover estudos e pesquisas (e também conseguir investimentos para as mesmas) acerca da aceleração do progresso científico e tecnológico e da aceleração das mudanças sociais, políticas, culturais e econômicos de nossa sociedade. É também responsável por uma conferência anual realizada na Universidade de Stanford, nos Estados Unidos, onde se discute a aceleração das inovações tecnológicas e o seu impacto social, promovendo para tal introspecções multidisciplinares acerca de assuntos muitas vezes relacionados à singularidade tecnológica.
  • Associação Transumanista Mundial: fundada em 1998 pelo filósofo sueco Nick Bostrom, director do Instituto do Futuro da Humanidade, criado na Faculdade de Filosofia de Oxford, encabeça inúmeras delegações em todo o mundo, mas não deixa de ser uma especificidade do Ocidente industrializado. Os transumanistas têm por base na sua argumentação o êxito das nanotecnologias e defendem que a ciência está prestes a passar a Humanidade e vai obrigá-la a ultrapassar-se a si mesma. Raymond Kurzweil, engenheiro e futurologista americano, publicou Human 2.0 (“Singularidade”, em português). Ligado ao tema em questão, esta publicação contempla a próxima fusão entre o ser humano e a máquina e o aparecimento de sistemas supra-inteligentes. Os movimentos transumanistas pretendem o nascimento de um mundo sem limitações, que nos força a ser meros seres humanos. Amanhã, deixará de ser necessário nascer, as doenças terão desaparecido e a morte deixará de ser imposta, esta recusa da condição humana denota uma rejeição a tudo o que a natureza nos impõe.
  • Google, Yahoo! e Nasa juntos resolveram apoiar um colégio que ensina os alunos a lidar com um mundo onde a tecnologia pode tornar-se mais esperta do que os seres humanos. A Singularity University terá a sua base no programa espacial do Ames Campus no Vale do Silício, E.U.A. Seu chanceler será o controverso futurista Raymond Kurzweil, cujo livro escrito em 2005, "A Singularidade está próxima", inspirou o nome da escola. A Singularity University aceitou 30 alunos na sua primeira turma, no verão de 2009, aumentando para 120 no ano seguinte. Apesar do seu nome, a instituição não é realmente uma universidade, mas vai oferecer nove semanas de cursos no intuito de assegurar uma tecnologia para melhorar a situação da humanidade, em vez de prejudicá-la. Os cursos foram concebidos para ver como os alunos podem usar a tecnologia de forma a resolver problemas mundiais, como a pobreza, a fome, as doenças, o aquecimento global e a redução do abastecimento energético.

Cultura popular editar

A singularidade é referenciada em inúmeras obras de ficção científica. No romance de ficção científica de Greg Bear, Blood Music (1983), ocorre uma singularidade em questão de horas. David Brin's Lungfish (1987) propõe que a IA seja dada num corpo humanoide e que seja criada e ensinada da mesma forma que nós. No romance Neuromancer de 1984 de William Gibson, as inteligências artificiais capazes de melhorar seus próprios programas são rigorosamente reguladas por "policiais Turing" especiais para garantir que nunca excedam um certo nível de inteligência, e a trama se centra nos esforços de uma dessas IA para contornar seu controle.[62][63] Em 1998 Me / Days de Greg Benford, é legalmente necessário que uma memória de AI seja apagada após cada trabalho.[62]

Toda a trama da Transcendência de Wally Pfister se concentra em um cenário de singularidade.[64] No filme de ciência científica de 2013, ela segue o relacionamento romântico de um homem com uma IA altamente inteligente, que eventualmente aprende como se melhorar e cria uma explosão de inteligência. O filme de 1982, Blade Runner, e o filme de 2015, Ex Machina, são duas visões ligeiramente distópicas sobre o impacto da inteligência artificial. Ao contrário de Blade Runner, Her e Ex Machina tentam apresentar cenários "futuros plausíveis" que se destinam a atrapalhar o público como "não apenas possível, mas altamente provável".[65]

Alguns exemplos exacerbados de singularidade em filmes são HAL 9000 em 2001: A Space Odyssey (parafraseando a conversa do entrevistador da BBC com Dave Bowman: "HAL tem emoções reais?" "Bem, ele age como se tivesse emoções reais, mas, então, ele foi programado dessa forma para que possamos interagir mais facilmente com ele. Mas quanto a ele ter emoções reais, não tenho certeza se é algo que alguém pode realmente responder.") que se funde com Dave em uma singularidade tecno-biológica em 2010: Odyssey Two; também uma fusão do Capitão Decker (com o simulacro AI do tenente Ilia) e V'Ger (também no início uma singularidade puramente tecnológica) em Star Trek: The Motion Picture, em ambos os casos, a fusão tecno-biológica que culmina em uma singularidade transdimensional, este último foi fortemente influenciado por Ray Bradbury, e também apresentou sofrimentos relacionados à sexualidade.

Muitas dessas representações fictícias postulam intervenção por um agente externo muito avançado (raça Clindar de 2001, alienígenas superiores, ou as entidades máquina-planeta do filme Star Trek que expandiram o V'Ger, mas que precisava que o elemento "humano" se tornasse transcendente).

Essa conquista tecno-biológica de transcendência singular é muito diferente das transcendências místicas como a teoria cristã (postulando a necessidade de um redentor intermediário), ou o nirvana das religiões asiáticas (através de Buda, bodhisattvas, etc.) para um plano superior de ser, realização que não necessita necessariamente de aumento tecnológico, mas ainda exige uma entidade já em tal nível, como uma espécie de guia.

Ver também editar

Referências

  1. Cadwalladr, Carole (2014). "Are the robots about to rise? Google's new director of engineering thinks so…" The Guardian. Guardian News and Media Limited.
  2. a b Singularity hypotheses: A Scientific and Philosophical Assessment. Dordrecht: Springer. 2012. pp. 1–2. ISBN 9783642325601.
  3. Socrates on April 18, 2012. "[1]" Singularity. www.singularityweblog.com. Retrieved 2016-12-24.
  4. a b c Ulam, Stanislaw (May 1958). "Tribute to John von Neumann". 64, #3, part 2. Bulletin of the American Mathematical Society: 5.
  5. a b c Chalmers, David. "The singularity: A philosophical analysis." Journal of Consciousness Studies 17.9-10 (2010): 7-65.
  6. a b c d e Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", originally in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993
  7. Armstrong, Stuart. "How We're Predicting AI", from the 2012 Singularity Conference
  8. Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965. Archived May 1, 2012, at the Wayback Machine.
  9. Revista Time 2045: The Year Man Becomes Immortal.
  10. Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  11. "h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways". Hplusmagazine.com. Retrieved 2011-09-09.
  12. a b c Yudkowsky, Eliezer. The Singularity: Three Major Schools
  13. Sandberg, Anders. An overview of models of technological singularity
  14. "Max More and Ray Kurzweil on the Singularity". KurzweilAI. Retrieved 2011-09-09.
  15. a b "Tech Luminaries Address Singularity – IEEE Spectrum". Spectrum.ieee.org. Retrieved 2011-09-09.
  16. "Who's Who In The Singularity – IEEE Spectrum". Spectrum.ieee.org. Retrieved 2011-09-09.
  17. a b Paul Allen: The Singularity Isn't Near, retrieved 2015-04-12
  18. Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. p. 61.
  19. Ray Kurzweil, The Age of Spiritual Machines, Viking, 1999, p. 30 and p. 32
  20. Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
  21. "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  22. Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  23. Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005. "So we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s. This is roughly equal to our estimate for the capacity of all living biological human intelligence ... This state of computation in the early 2030s will not represent the Singularity, however, because it does not yet correspond to a profound expansion of our intelligence. By the mid-2040s, however, that one thousand dollars' worth of computation will be equal to 1026 cps, so the intelligence created per year (at a total cost of about $1012) will be about one billion times more powerful than all human intelligence today. That will indeed represent a profound change, and it is for that reason that I set the date for the Singularity—representing a profound and disruptive transformation in human capability—as 2045."
  24. Kurzweil, Raymond (2001), "The Law of Accelerating Returns", Nature Physics, Lifeboat Foundation, 4 (7): 507, Bibcode:2008NatPh...4..507B, doi:10.1038/nphys1010, retrieved 2007-08-07
  25. The Singularity Is Near
  26. a b Joy, Bill (April 2000), "Why the future doesn't need us", Wired Magazine, Viking Adult (8.04), ISBN 0-670-03249-2, retrieved 2007-08-07
  27. Dreyfus & Dreyfus 2000, p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.' Hawking (1998): 'Some people say that computers can never show true intelligence whatever that may be. But it seems to me that if very complicated chemical molecules can operate in humans to make them intelligent then equally complicated electronic circuits can also make computers act in an intelligent way. And if they are intelligent they can presumably design computers that have even greater complexity and intelligence.'
  28. John R. Searle, “What Your Computer Can’t Know”, The New York Review of Books, 9 October 2014, p. 54.
  29. Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, Acculant Publishing, 2009, ISBN 978-1-4486-5981-4
  30. Markoff, John (2011-03-04). "Armies of Expensive Lawyers, Replaced by Cheaper Software". The New York Times.
  31. a b Theodore Modis, Forecasting the Growth of Complexity and Change, Technological Forecasting & Social Change, 69, No 4, 2002 Archived June 15, 2012, at the Wayback Machine.
  32. Modis, Theodore. The Singularity Myth
  33. a b Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide Innovation", Technological Forecasting & Social Change, October 2005, pp. 980–6
  34. Krazit, Tom. Intel pledges 80 cores in five years, CNET News, 26 September 2006.
  35. See, e.g., Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V. A Compact Macromodel of World System Evolution // Journal of World-Systems Research 11/1 (2005): 79–93. Archived August 14, 2015, at the Wayback Machine.
  36. Nordhaus, W. D. (2007). Two Centuries of Productivity Growth in Computing. The Journal of Economic History, 67(1), 128–159. http://doi.org/10.1017/S0022050707000058
  37. Schmidhuber, Jürgen. "New millennium AI and the convergence of history." Challenges for computational intelligence. Springer Berlin Heidelberg, 2007. 15-35.
  38. Tainter, Joseph (1988) "The Collapse of Complex Societies" (Cambridge University Press)
  39. Jaron Lanier (2013). "Who Owns the Future?". New York: Simon & Schuster.
  40. William D. Nordhaus, "Why Growth Will Fall" (a review of Robert J. Gordon, The Rise and Fall of American Growth: The U.S. Standard of Living Since the Civil War, Princeton University Press, 2016, ISBN 978-0691147727, 762 pp., $39.95), The New York Review of Books, vol. LXIII, no. 13 (August 18, 2016), p. 68.
  41. Myers, PZ, Singularly Silly Singularity, retrieved 2009-04-13
  42. Anonymous (18 March 2006), "More blades good", The Economist, London, 378 (8469), p. 85
  43. a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan, eds., "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF), Global Catastrophic Risks, Oxford University Press: 303, Bibcode:2008gcr..book..303Y, ISBN 978-0-19-857050-9, archived from the original (PDF) on August 7, 2008
  44. "The Uncertain Future". theuncertainfuture.com; a future technology and world-modeling project.
  45. GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom
  46. "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". nickbostrom.com.
  47. "Information in the Biosphere: Biological and Digital Worlds", Gillings, M. R., Hilbert, M., & Kemp, D. J. (2016), Trends in Ecology & Evolution, 31(3), 180–189; free access to the article http://escholarship.org/uc/item/38f4b791
  48. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  49. The Singularity Is Near, p.215.
  50. The Singularity is Near, p.216.
  51. Lanier, Jaron (2010). You Are Not a Gadget: A Manifesto. New York: Alfred A. Knopf. p. 26. ISBN 0307269647.
  52. a b Horgan, John (2008). "The Consciousness Conundrum". Retrieved 2016-01-03.
  53. Solomonoff, R.J. "The Time Scale of Artificial Intelligence: Reflections on Social Effects", Human Systems Management, Vol 5, pp. 149–153, 1985.
  54. a b Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 88
  55. Vinge did not actually use the phrase "technological singularity" in the Omni op-ed, but he did use this phrase in the short story collection Threats and Other Promises from 1988, writing in the introduction to his story "The Whirligig of Time" (p. 72): Barring a worldwide catastrophe, I believe that technology will achieve our wildest dreams, and soon. When we raise our own intelligence and that of our creations, we are no longer in a world of human-sized characters. At that point we have fallen into a technological "black hole," a technological singularity.
  56. Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 89
  57. Episode dated 23 August 2006 on Internet Movie Database
  58. Sandberg, Anders. "An overview of models of technological singularity." Roadmaps to AGI and the Future of AGI Workshop, Lugano, Switzerland, March. Vol. 8. 2010.
  59. Singularity University at its official website
  60. [1]
  61. Dadich, Scott. "Barack Obama Talks AI, Robo Cars, and the Future of the World"
  62. a b Yampolskiy, Roman V. "What to Do with the Singularity Paradox?." Philosophy and Theory of Artificial Intelligence. Springer Berlin Heidelberg, 2013. 397-413.
  63. Gibson, William. Neuromancer. Penguin, 2000.
  64. Godfrey, Alex. "Transcendence director Wally Pfister on singularity". Retrieved 12 August 2016.
  65. Alsop, Elizabeth. "In Pop Culture, the Future Is Almost Now". Retrieved 12 August 2016.

Ligações externas editar