Superintelligence: Paths, Dangers, Strategies

Superintelligence: Paths, Dangers, Strategies (em português: Superinteligência: Caminhos, Perigos, Estratégias) é um livro de 2014 do filósofo Nick Bostrom. Ele explora como a superinteligência poderia ser criada e quais seriam suas características e motivações.[2] Ele argumenta que a superinteligência, se criada, seria difícil de controlar e que poderia dominar o mundo para atingir seus objetivos. O livro também apresenta estratégias para ajudar a criar superinteligências cujos objetivos beneficiem a humanidade.[3] Ele foi particularmente influente por levantar preocupações sobre o risco existencial da inteligência artificial.[4]

Superintelligence:
Paths, Dangers, Strategies
Autor(es) Nick Bostrom
Idioma Inglês
País Reino Unido
Assunto Inteligência artificial
Gênero Filosofia, ciência popular
Editora Oxford University Press[1]
Formato Impresso, livro digital, audiolivro
Lançamento 3 de julho de 2014 (Reino Unido)
1 de setembro de 2014 (Estados Unidos)
Páginas 352
ISBN 978-0199678112
Cronologia
Global Catastrophic Risks

Sinopse

editar

Não se sabe se a inteligência artificial de nível humano chegará em questão de anos, no final deste século, ou somente nos séculos futuros. Independentemente da escala de tempo inicial, uma vez que a inteligência de máquina em nível humano seja desenvolvida, um sistema “superinteligente” que “exceda em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse” provavelmente se seguirá com uma rapidez surpreendente. Essa superinteligência seria muito difícil de controlar.

Embora as metas finais das superinteligências possam variar muito, uma superinteligência funcional gerará espontaneamente, como subobjetivos naturais, “metas instrumentais”, como autopreservação e integridade do conteúdo da meta, aprimoramento cognitivo e aquisição de recursos. Por exemplo, um agente cujo único objetivo final é resolver a hipótese de Riemann (uma famosa conjectura matemática não resolvida) poderia criar e agir com base em um subobjetivo de transformar a Terra inteira em alguma forma de computronium (material hipotético otimizado para computação) para auxiliar no cálculo. A superinteligência resistiria proativamente a qualquer tentativa externa de desligá-la ou de impedir a conclusão de seu subobjetivo. Para evitar essa catástrofe existencial, é necessário resolver com sucesso o “problema de controle da IA” para a primeira superinteligência. A solução pode envolver alimentar a superinteligência com metas compatíveis com a sobrevivência e o bem-estar humanos. Resolver o problema de controle é surpreendentemente difícil porque a maioria das metas, quando traduzidas em código implementável por máquina, leva a consequências imprevistas e indesejáveis.

A coruja na capa do livro faz alusão a uma analogia que Bostrom chama de “Fábula inacabada dos pardais”.[5] Um grupo de pardais decide encontrar um filhote de coruja e criá-lo como seu servo.[6] Eles imaginam ansiosamente “como a vida seria fácil” se tivessem uma coruja para ajudar a construir seus ninhos, defender os pardais e libertá-los para uma vida de lazer. Os pardais iniciam a difícil busca por um ovo de coruja; apenas Scronkfinkle, um “pardal caolho de temperamento irritadiço”, sugere pensar na complicada questão de como domar a coruja antes de trazê-la “para o nosso meio”. Os outros pardais se recusam; a busca por um ovo de coruja já será difícil o suficiente por si só: “Por que não pegar a coruja primeiro e resolver os detalhes mais tarde?” Bostrom afirma que “não se sabe como a história termina”, mas ele dedica seu livro a Scronkfinkle.[5][4]

Recepção

editar

O livro ficou em 17º lugar na lista do The New York Times de livros de ciências mais vendidos em agosto de 2014.[7] No mesmo mês, o magnata Elon Musk ganhou as manchetes ao concordar com o livro de que a inteligência artificial é potencialmente mais perigosa do que as armas nucleares.[8][9][10] O trabalho de Bostrom sobre superinteligência também influenciou a preocupação de Bill Gates com os riscos existenciais que a humanidade enfrentará no próximo século.[11][12] Em uma entrevista de março de 2015 com o CEO da Baidu, Robin Li, Gates disse que “recomendaria muito” o livro Superintelligence: Paths, Dangers, Strategies.[13] De acordo com o The New Yorker, os filósofos Peter Singer e Derek Parfit “o receberam como uma obra importante”.[4] Sam Altman escreveu em 2015 que o livro é a melhor coisa que ele já leu sobre os riscos da IA.[14]

O editor de ciências do Financial Times considerou que os textos de Bostrom “às vezes entram em uma linguagem opaca que trai sua formação como professor de filosofia”, mas demonstram de forma convincente que o risco da superinteligência é grande o suficiente para que a sociedade comece a pensar agora em maneiras de dotar a futura inteligência das máquinas de valores positivos.[15] Uma resenha publicada no The Guardian apontou que “até mesmo as máquinas mais sofisticadas criadas até agora são inteligentes apenas em um sentido limitado” e que “as expectativas de que a IA logo superaria a inteligência humana foram frustradas pela primeira vez na década de 1960”, mas a resenha encontra um ponto em comum com Bostrom ao aconselhar que “seria imprudente descartar completamente a possibilidade”.[3]

Alguns dos colegas de Bostrom sugerem que a guerra nuclear representa uma ameaça maior para a humanidade do que a superinteligência, assim como a perspectiva futura da utilização da nanotecnologia e da biotecnologia como armas.[3] A revista The Economist afirmou que “Bostrom é forçado a passar grande parte do livro discutindo especulações construídas sobre conjecturas plausíveis... mas o livro é valioso mesmo assim. As implicações da introdução de uma segunda espécie inteligente na Terra são abrangentes o suficiente para merecer uma reflexão profunda, mesmo que a perspectiva de realmente fazer isso pareça remota."[2] Ronald Bailey escreveu na revista Reason que Bostrom defende com veemência que resolver o problema do controle da IA é a "tarefa essencial de nossa era".[16] De acordo com Tom Chivers, do The Daily Telegraph, o livro é difícil de ler, mas ainda assim gratificante.[6] Um crítico do Journal of Experimental & Theoretical Artificial Intelligence afirmou que o “estilo de redação do livro é claro” e elogiou o livro por evitar “jargões excessivamente técnicos”.[17] Um crítico do Philosophy considerou Superintelligence: Paths, Dangers, Strategies “mais realista” do que The Singularity Is Near, de Ray Kurzweil.[18]

Veja também

editar

Referências

editar
  1. «Superintelligent Swede snapped up by OUP». The Bookseller. 21 de novembro de 2013 
  2. a b «Clever cogs». The Economist. 9 de agosto de 2014. Consultado em 9 de agosto de 2014 
  3. a b c Henderson, Caspar (17 de julho de 2014). «Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review». The Guardian. Consultado em 30 de julho de 2014 
  4. a b c Khatchadourian, Raffi (2015). «The Doomsday Invention». The New Yorker (em inglês). Consultado em 29 de março de 2020 
  5. a b Adams, Tim (12 de junho de 2016). «Nick Bostrom: 'We are like small children playing with a bomb'». The Observer. Consultado em 29 de março de 2020 
  6. a b Chivers, Tom (10 de agosto de 2014). «Superintelligence by Nick Bostrom, review: 'a hard read'». The Telegraph. Consultado em 16 de agosto de 2014 
  7. «Best Selling Science Books». The New York Times. 8 de setembro de 2014. Consultado em 9 de novembro de 2014 
  8. Dean, James (5 de agosto de 2014). «Artificial intelligence 'may wipe out the human race'». The Times. Consultado em 5 de agosto de 2014 
  9. Augenbraun, Eliene (4 de agosto de 2014). «Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes"». CBC News. Consultado em 5 de agosto de 2014 
  10. Bratton, Benjamin H. (23 de fevereiro de 2015). «Outing A.I.: Beyond the Turing Test». The New York Times. Consultado em 4 de março de 2015 
  11. Mack, Eric (28 de janeiro de 2015). «Bill Gates Says You Should Worry About Artificial Intelligence». Forbes. Consultado em 19 de fevereiro de 2015 
  12. Lumby, Andrew (28 de janeiro de 2015). «Bill Gates Is Worried About the Rise of the Machines». The Fiscal Times. Consultado em 19 de fevereiro de 2015 
  13. Kaiser Kuo (31 de março de 2015). «Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015». YouTube. Consultado em 8 de abril de 2015 
  14. Black, Melia Russell, Julia. «He's played chess with Peter Thiel, sparred with Elon Musk and once, supposedly, stopped a plane crash: Inside Sam Altman's world, where truth is stranger than fiction». Business Insider (em inglês). Consultado em 15 de agosto de 2023 
  15. Cookson, Clive (13 de julho de 2014). «Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom». The Financial Times. Consultado em 30 de julho de 2014. Cópia arquivada em 6 de agosto de 2014 
  16. Bailey, Ronald (12 de setembro de 2014). «Will Superintelligent Machines Destroy Humanity?». Reason. Consultado em 16 de setembro de 2014 
  17. Thomas, Joel (Julho de 2015). «In defense of philosophy: a review of Nick Bostrom». Journal of Experimental & Theoretical Artificial Intelligence. 28 (6): 1089–1094. doi:10.1080/0952813X.2015.1055829  
  18. Richmond, Sheldon (8 de julho de 2015). «Superintelligence: Paths, Dangers, Strategies.». Philosophy. 91 (1): 125–130. doi:10.1017/S0031819115000340