Site menu Resenha de livro: The Brain Makers

Resenha de livro: The Brain Makers

Continuo não amando meu Kindle, mas de vez em quando tenho comprado um e-book. A depender do livro, a diferença de preço é brutal. Fora a satisfação imediata da vontade de ler um certo livro. Outro plus é poder ler no celular.

Já tinha me programado há um tempo para comprar o livro The Brain Makers: The History of Artificial Intelligence, de HP Newquist. Em geral os livros que compro são muito caros, então vou "espalhando" essas compras na linha do tempo. Mas este custou 20 Janjas, surpreendentemente barato.

A edição original cobria a história dos anos 1950 até 1994, não sem antes dedicar bastante texto às questões filosóficas e teológicas envolvendo "máquinas pensantes", incluindo fraudes históricas como a máquina de jogar xadrez de relojoaria, que escondia habilmente um enxadrista anão. Essa parte é meio modorrenta, a história fica boa quando finalmente engata o pós-guerra.

A versão atualizada ganhou conteúdo que cobre brevemente o que aconteceu entre 1994 e 2018, quando as redes neurais ressurgiram com força total. Considerando a explosão da IA nos últimos 2 ou 3 anos (estou escrevendo isto em 2025), o livro já está merecendo uma nova extensão.

Mas o principal valor do livro é justamente contar a história no período em que IA não aparecia todo dia no noticiário. Ao contrário do que possa parecer, a história da IA é parte indissociável da história da computação. Apesar dos pesquisadores de IA não terem conseguido resultados espetaculares durante décadas, e até anteontem serem motivo de piada por conta disso, muitos subprodutos desse esforço foram úteis em outros contextos. Mais ou menos tão "inútil" quanto a corrida espacial.

O primeiro grande problema da IA é definir o que é "inteligência artificial". O primeiro instinto é definir como algo que é fácil para um humano fazer, mas difícil para uma máquina. É uma definição tentadora, porém escorregadia. A cada resultado nessa direção que os pesquisadores atingiam, movia-se a definição para mais adiante, dando a sensação que IA nunca entregava nada concreto.

Era considerado impossível a um computador jogar o jogo-da-velha. Quando isso foi resolvido, alguém disse que jogo-da-velha é determinístico, que o difícil mesmo era o xadrez. Quando o computador aprendeu a jogar xadrez, alguém disse "quero ver jogar Go". E assim por diante. Muita coisa que hoje consideramos normal e esperado que um computador faça, que ninguém ousaria chamar de inteligência, já esteve do lado de lá dessa fronteira.

O guarda-chuva da pesquisa IA englobava coisas como robôs e visão computacional, que à primeira vista parecem relacionados com IA (segundo uma visão antropocêntrica de inteligência, indissociável dos sentidos) mas não são realmente IA. Já faz décadas que robôs e visão computacional são utilizados na indústria e nem por isso temos medo que essas máquinas façam uma rebelião.

Conforme contado de forma detalhada no livro, a grande mancada da comunidade de IA foi desprezar as redes neurais por longas décadas. Idealizadas ainda nos anos 1940 e pela primeira vez implementadas em 1957 por Frank Rosenblatt em seu Perceptron Mark I, muitos pesquisadores torciam o nariz para elas.

Em particular, o influente livro Perceptrons, lançado em 1969, "provava" (baseando-se nas limitações específicas do Mark I) que redes neurais não poderiam aprender funções complexas, como reconhecimento de caracteres. Foi este um engano honesto? Ou foi escrito na maldade para capturar o dinheiro dos fundos de pesquisa? O júri ainda está deliberando...

A pesquisa de IA concentrou-se em sistemas especialistas até meados dos anos 1990 — sempre com muito hype, muitas promessas, e pouca entrega. Houve alguns resultados encorajadores aqui e ali, mas... A grande estrela dessa escola era a linguagem de programação LISP. Era excelente e revolucionária em muitos aspectos, é influente até os dias atuais, porém muito exigente para rodar em computadores "normais" da época.

Disto, surgiu o mercado das "máquinas LISP", computadores com suporte de hardware para rodar LISP de forma eficiente, construídas por ex-pesquisadores de IA que devem ter cruzado com Gordon Gecko na rua e descobriram que ganhar dinheiro poderia ser uma coisa boa. Tais máquinas eram necessárias para fazer pesquisa "séria" em IA (que era sinônimo de LISP e sistemas especialistas nesta época).

O hype era um grande motor de vendas, porém as máquinas LISP eram o objeto de desejo de todo hacker digno do nome. Além da linguagem, tinham muitos outros diferenciais como interface gráfica, mouse e rede. Pareciam ter vindo do futuro, como os protótipos da Xerox PARC.

Porém, os computadores "normais" foram ficando cada vez mais rápidos e capazes, e no final dos anos 1980 o mercado das máquinas LISP secou. As empresas foram descobrindo que não era impossível desenvolver sistemas especialistas em C, e também ficou viável rodar LISP em PCs ou Macs. Ademais, todo mundo que tinha bolso fundo o suficiente para comprar uma máquina LISP e ver qualé, já tinha comprado, e já tinha constatado que não fazia milagres.

O berço da IA moderna é o laboratório de IA da MIT. Ali também nasceu a "cultura hacker" — da devoção total ao computador, negligenciando todos os demais aspectos da vida, inclusive tomar banho.

Um dos principais integrantes do IA Lab era ninguém menos que Richard M. Stallman. Ele não sentiu-se atraído pela grana, e via como "traidores do movimento" os colegas que migraram para os dois fabricantes de máquinas LISP comerciais. Ameaçou inclusive dinamitar a Symbolics, vista como a "menos pura" das duas por aproveitar-se do código originalmente desenvolvido na MIT e não devolver à komunidade o que desenvolvia internamente.

A seu tempo, sempre fiel aos princípios do IA Lab, RMS fundou a Free Software Foundation. Antes disso, RMS criou o famoso editor Emacs, quase todo escrito em seu próprio dialeto de LISP. Além de ser o primeiro programa do projeto GNU, é o "filho" com mais traços do "pai", tanto por ser livre quanto por ser baseado na linguagem oficial do AI Lab.

Um dos métodos de hypear IA, e conseguir mais recursos para pesquisa em IA, era apontar para ameaças externas. Se outros países, potencialmente inimigos, estavam investindo pesadamente em IA, era preciso investir também para não correr o risco, mesmo pequeno, de ficar para trás.

Nos anos 1980, o Japão criou uma iniciativa multisetorial para pesquisa em IA, com o objetivo final de criar computadores fundamentalmente diferentes e otimizados para IA. Houve pontos positivos: finalmente alguém deu a merecida atenção às redes neurais, e também à sua prima pobre fuzzy logic. O ocidente ficou com a pulga atrá da orelha.

Ao contrário dos prognósticos, este não foi um segundo Pearl Harbor. O excessivo foco em hardware (alinhado com o que a indústria japonesa estava acostumada a produtizar) foi uma possível causa. A fuzzy logic apareceu em alguns eletrodomésticos, e este recurso das máquinas fotográficas Nikon parece ser inspirado em técnicas de IA, misturando lógica difusa com sistema especialista.

Outro susto, este não citado no livro, mas testemunhado por este seu criado, foi a queda do muro de Berlim. Comentava-se à boca pequena que os países do bloco comunista possuíam tecnologia avançada e inédita, inclusive de IA, e agora estavam livres para tomar o mercado de assalto com elas. (Ecos dessa crença estão nos filmes Raposa de Fogo e Caçada ao Outubro Vermelho.) Mas não aconteceu nada, e como me confidenciou um amigo comunista, "essa foi a maior brochada da História".