História da inteligência artificial - History of artificial intelligence

A história da Inteligência Artificial ( IA ) começou na antiguidade , com mitos, histórias e rumores de seres artificiais dotados de inteligência ou consciência por mestres artesãos. As sementes da IA ​​moderna foram plantadas por filósofos clássicos que tentaram descrever o processo do pensamento humano como a manipulação mecânica de símbolos. Esse trabalho culminou com a invenção do computador digital programável na década de 1940, uma máquina baseada na essência abstrata do raciocínio matemático. Este dispositivo e as idéias por trás dele inspiraram um punhado de cientistas a começar a discutir seriamente a possibilidade de construir um cérebro eletrônico.

O campo de pesquisa em IA foi fundado em um workshop realizado no campus do Dartmouth College durante o verão de 1956. Os participantes se tornariam os líderes da pesquisa em IA por décadas. Muitos deles previram que uma máquina tão inteligente quanto um ser humano existiria em não mais do que uma geração, e eles receberam milhões de dólares para tornar essa visão realidade.

Eventualmente, tornou-se óbvio que os desenvolvedores comerciais e pesquisadores subestimaram grosseiramente a dificuldade do projeto. Em 1973, em resposta às críticas de James Lighthill e à pressão contínua do Congresso, os governos dos EUA e do Reino Unido pararam de financiar pesquisas não direcionadas em inteligência artificial, e os anos difíceis que se seguiram seriam mais tarde conhecidos como " inverno AI ". Sete anos depois, uma iniciativa visionária do governo japonês inspirou os governos e a indústria a fornecer bilhões de dólares à IA, mas no final dos anos 80 os investidores ficaram desiludidos e retiraram o financiamento novamente.

O investimento e o interesse em IA cresceram nas primeiras décadas do século 21, quando o aprendizado de máquina foi aplicado com sucesso a muitos problemas na academia e na indústria devido a novos métodos, a aplicação de hardware de computador poderoso e a coleta de imensos conjuntos de dados.

Precursores

Precursores míticos, fictícios e especulativos

Mito e lenda

Na mitologia grega, Talos era um gigante construído em bronze que atuava como guardião da ilha de Creta. Ele jogaria pedras nos navios dos invasores e completaria 3 circuitos diários ao redor do perímetro da ilha. De acordo com a Bibliotheke do pseudo-Apolodoro , Hefesto forjou o Talos com a ajuda de um ciclope e deu o autômato como um presente a Minos . Na Argonautica , Jasão e os Argonautas o derrotaram por meio de um único tampão perto de seu pé que, uma vez removido, permitia que o ichor vital fluísse de seu corpo e o deixasse inanimado.

Pigmalião foi um lendário rei e escultor da mitologia grega, famoso por ser representado nas Metamorfoses de Ovídio . No décimo livro do poema narrativo de Ovídio, Pigmalião fica enojado com as mulheres ao testemunhar a maneira como os Propoetides se prostituem. Apesar disso, ele faz oferendas no templo de Vênus pedindo a deusa de trazer para ele uma mulher apenas como uma estátua que ele carvexreThe primeiro relato escrito sobre a tomada de golem é encontrado nos escritos de Eleazar ben Judah de Worms circa 12-13th C. Durante a Idade Média, acreditava-se que a animação de um Golem poderia ser alcançada pela inserção de um pedaço de papel com qualquer um dos nomes de Deus nele, na boca da figura de barro. Ao contrário de autômatos lendários como Brazen Heads , um Golem era incapaz de falar.

Meios alquímicos de inteligência artificial

Representação de um homúnculo do Fausto de Goethe

Em Da Natureza das Coisas , escrito pelo alquimista nascido na Suíça, Paracelsus , ele descreve um procedimento que afirma poder fabricar um "homem artificial". Colocando o "esperma de um homem" no esterco de cavalo e alimentando-o com o "sangue do Arcano do Homem" após 40 dias, a mistura se tornará uma criança viva. Antecedendo Paracelso foi a visão de Jābir ibn Hayyān sobre o homúnculo: Takwin em Fausto, A Segunda Parte da Tragédia por Johann Wolfgang von Goethe , um Homúnculo alquimicamente fabricado, destinado a viver para sempre no frasco em que foi feito, se esforça para ser nascido em um corpo humano completo. Após o início desta transformação, no entanto, o frasco se estilhaça e o Homúnculo morre.

Ficção moderna

No século 19, as idéias sobre os homens e as máquinas pensantes artificial foram desenvolvidos na ficção, como em Mary Shelley 's Frankenstein ou Karel Capek ' s RUR (Robôs Universal de Rossum) , e da especulação, como Samuel Butler 's " Darwin entre as máquinas , "e em instâncias do mundo real, incluindo " Maelzel's Chess Player "de Edgar Allan Poe . A IA se tornou um tópico regular da ficção científica até o presente.

Autômatos

Autômatos programáveis ​​de Al-Jazari (1206 CE)

Autômatos humanóides realistas foram construídos por artesãos de todas as civilizações, incluindo Yan Shi , Herói de Alexandria , Al-Jazari , Pierre Jaquet-Droz e Wolfgang von Kempelen . Os mais antigos autômatos conhecidos eram as estátuas sagradas do antigo Egito e da Grécia . Os fiéis acreditavam que o artesão havia imbuído essas figuras de mentes muito reais, capazes de sabedoria e emoção - Hermes Trismegistus escreveu que "ao descobrir a verdadeira natureza dos deuses, o homem foi capaz de reproduzi-la".

Durante o início do período moderno, esses lendários autômatos possuíam a habilidade mágica de responder às perguntas que lhes eram feitas. Dizia-se que o alquimista e estudioso do final da Idade Média Roger Bacon havia fabricado uma cabeça de bronze , tendo desenvolvido a lenda de ter sido um mago. Essas lendas eram semelhantes ao mito nórdico da Cabeça de Mímir. De acordo com a lenda, Mímir era conhecido por seu intelecto e sabedoria, e foi decapitado na Guerra Æsir-Vanir. Odin disse ter "embalsamado" a cabeça com ervas e proferido encantamentos sobre ela, de modo que a cabeça de Mímir permaneceu capaz de transmitir sabedoria a Odin. Odin então manteve a cabeça perto dele para um conselho.

Raciocínio formal

A inteligência artificial é baseada no pressuposto de que o processo do pensamento humano pode ser mecanizado. O estudo do raciocínio mecânico - ou "formal" - tem uma longa história. Filósofos chineses , indianos e gregos, todos desenvolveram métodos estruturados de dedução formal no primeiro milênio AEC. Suas ideias foram desenvolvidas ao longo dos séculos por filósofos como Aristóteles (que deu uma análise formal do silogismo ), Euclides (cujos Elementos era um modelo de raciocínio formal), al-Khwārizmī (que desenvolveu a álgebra e deu seu nome a " algoritmo " ) e filósofos escolásticos europeus , como William de Ockham e Duns Scotus .

O filósofo espanhol Ramon Llull (1232–1315) desenvolveu várias máquinas lógicas dedicadas à produção de conhecimento por meios lógicos; Lúlio descreveu suas máquinas como entidades mecânicas que podiam combinar verdades básicas e inegáveis ​​por meio de operações lógicas simples, produzidas pela máquina por significados mecânicos, de modo a produzir todo o conhecimento possível. O trabalho de Lúlio teve grande influência em Gottfried Leibniz , que redefiniu suas idéias.

Gottfried Leibniz , que especulou que a razão humana poderia ser reduzida ao cálculo mecânico

No século 17, Leibniz , Thomas Hobbes e René Descartes exploraram a possibilidade de que todo pensamento racional pudesse ser tornado tão sistemático quanto a álgebra ou a geometria. Hobbes escreveu em Leviathan : "a razão nada mais é do que cálculo". Leibniz imaginou uma linguagem universal de raciocínio (sua caracteristica universalis ) que reduziria a argumentação ao cálculo, de modo que "não haveria mais necessidade de disputa entre dois filósofos do que entre dois contadores. Pois bastaria levar seus lápis nas mãos, para baixo às suas lousas e a dizerem uns aos outros (com um amigo como testemunha, se quisessem): Vamos calcular . " Esses filósofos começaram a articular a hipótese do sistema de símbolos físicos que se tornaria a fé norteadora da pesquisa em IA.

No século 20, o estudo da lógica matemática proporcionou o avanço essencial que fez a inteligência artificial parecer plausível. As fundações tinha sido criado por obras como Boole 's as leis do pensamento e Frege ' s Begriffsschrift . Com base no sistema de Frege , Russell e Whitehead apresentaram um tratamento formal dos fundamentos da matemática em sua obra-prima, os Principia Mathematica em 1913. Inspirado pelo sucesso de Russell , David Hilbert desafiou os matemáticos das décadas de 1920 e 30 a responder a esta questão fundamental : "pode ​​todo o raciocínio matemático ser formalizado?" Sua pergunta foi respondida por Gödel 's prova de incompletude , Turing ' s máquina e Church 's Lambda calculus .

Foto do Exército dos EUA do ENIAC na Escola de Engenharia Elétrica de Moore.

A resposta deles foi surpreendente de duas maneiras. Primeiro, eles provaram que havia, de fato, limites para o que a lógica matemática poderia realizar. Mas, em segundo lugar (e mais importante para a IA), seu trabalho sugeria que, dentro desses limites, qualquer forma de raciocínio matemático poderia ser mecanizada. A tese de Church-Turing implicava que um dispositivo mecânico, embaralhando símbolos tão simples como 0 e 1, poderia imitar qualquer processo concebível de dedução matemática. O insight principal foi a máquina de Turing - uma construção teórica simples que capturou a essência da manipulação de símbolos abstratos. Esta invenção inspiraria um punhado de cientistas a começar a discutir a possibilidade de máquinas pensantes.

Ciência da Computação

Máquinas de calcular foram construídas na antiguidade e melhoradas ao longo da história por muitos matemáticos, incluindo (mais uma vez) o filósofo Gottfried Leibniz . No início do século 19, Charles Babbage projetou um computador programável (a Máquina Analítica ), embora nunca tenha sido construído. Ada Lovelace especulou que a máquina "poderia compor peças musicais elaboradas e científicas de qualquer grau de complexidade ou extensão". (Ela é frequentemente considerada a primeira programadora por causa de um conjunto de notas que escreveu que detalha completamente um método para calcular os números de Bernoulli com a Engine.)

Os primeiros computadores modernos foram as enormes máquinas de decifrar códigos da Segunda Guerra Mundial (como Z3 , ENIAC e Colossus ). As duas últimas dessas máquinas foram baseadas na base teórica lançada por Alan Turing e desenvolvida por John von Neumann .

O nascimento da inteligência artificial 1952-1956

O IBM 702: um computador usado pela primeira geração de pesquisadores de IA.

Nas décadas de 1940 e 50, um punhado de cientistas de diversos campos (matemática, psicologia, engenharia, economia e ciências políticas) começaram a discutir a possibilidade de criar um cérebro artificial. O campo de pesquisa em inteligência artificial foi fundado como uma disciplina acadêmica em 1956.

Cibernética e primeiras redes neurais

As primeiras pesquisas em máquinas pensantes foram inspiradas por uma confluência de ideias que se tornaram predominantes no final dos anos 1930, 1940 e início dos anos 1950. Pesquisas recentes em neurologia mostraram que o cérebro era uma rede elétrica de neurônios que disparava em pulsos de tudo ou nada. A cibernética de Norbert Wiener descreveu o controle e a estabilidade nas redes elétricas. A teoria da informação de Claude Shannon descreveu sinais digitais (isto é, sinais de tudo ou nada). A teoria da computação de Alan Turing mostrou que qualquer forma de computação pode ser descrita digitalmente. A estreita relação entre essas idéias sugere que talvez seja possível construir um cérebro eletrônico .

Exemplos de trabalho nessa linha incluem robôs como as tartarugas de W. Gray Walter e a Besta Johns Hopkins . Essas máquinas não usavam computadores, eletrônicos digitais ou raciocínio simbólico; eles eram controlados inteiramente por circuitos analógicos.

Walter Pitts e Warren McCulloch analisaram redes de neurônios artificiais idealizados e mostraram como eles poderiam realizar funções lógicas simples em 1943. Eles foram os primeiros a descrever o que pesquisadores posteriores chamariam de rede neural . Um dos alunos inspirados por Pitts e McCulloch era o jovem Marvin Minsky , então um estudante de pós-graduação de 24 anos. Em 1951 (com Dean Edmonds) ele construiu a primeira máquina de rede neural, o SNARC . Minsky se tornaria um dos líderes e inovadores mais importantes em IA pelos próximos 50 anos.

Teste de Turing

Em 1950, Alan Turing publicou um artigo marcante no qual ele especulou sobre a possibilidade de criar máquinas que pensam. Ele notou que "pensar" é difícil de definir e criou seu famoso Teste de Turing . Se uma máquina pudesse manter uma conversa (por meio de um teletipo ) indistinguível de uma conversa com um ser humano, então seria razoável dizer que a máquina estava "pensando". Essa versão simplificada do problema permitiu a Turing argumentar de forma convincente que uma "máquina pensante" era pelo menos plausível e o artigo respondia a todas as objeções mais comuns à proposição. O Teste de Turing foi a primeira proposta séria na filosofia da inteligência artificial .

AI do jogo

Em 1951, usando a máquina Ferranti Mark 1 da Universidade de Manchester , Christopher Strachey escreveu um programa de damas e Dietrich Prinz escreveu um para o xadrez. O programa de damas de Arthur Samuel , desenvolvido em meados dos anos 50 e início dos 60, acabou adquirindo habilidade suficiente para desafiar um amador respeitável. A IA de jogos continuaria a ser usada como uma medida de progresso na IA ao longo de sua história.

O raciocínio simbólico e o teórico lógico

Quando o acesso a computadores digitais se tornou possível em meados dos anos 50, alguns cientistas reconheceram instintivamente que uma máquina que podia manipular números também podia manipular símbolos e que a manipulação de símbolos poderia muito bem ser a essência do pensamento humano. Esta foi uma nova abordagem para a criação de máquinas pensantes.

Em 1955, Allen Newell e (futuro Prêmio Nobel) Herbert A. Simon criaram o " Teórico da Lógica " (com a ajuda de JC Shaw ). O programa acabaria por provar 38 dos primeiros 52 teoremas nos Principia Mathematica de Russell e Whitehead e encontrar novas e mais elegantes provas para alguns. Simon disse que eles "resolveram o venerável problema mente / corpo , explicando como um sistema composto de matéria pode ter as propriedades da mente". (Esta foi uma das primeiras declarações da posição filosófica que John Searle chamaria mais tarde de " IA forte ": que as máquinas podem conter mentes da mesma forma que os corpos humanos.)

Dartmouth Workshop 1956: o nascimento da IA

O Dartmouth Workshop de 1956 foi organizado por Marvin Minsky , John McCarthy e dois cientistas seniores: Claude Shannon e Nathan Rochester, da IBM . A proposta para a conferência incluía esta afirmação: "cada aspecto da aprendizagem ou qualquer outra característica da inteligência pode ser descrito com tanta precisão que uma máquina pode ser feita para simulá-lo". Os participantes incluíram Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell e Herbert A. Simon , todos os quais criariam programas importantes durante as primeiras décadas de pesquisa em IA. Na conferência, Newell e Simon estreou o " Teórico da Lógica " e McCarthy persuadiu os participantes a aceitar "Inteligência Artificial" como o nome da área. A conferência de Dartmouth de 1956 foi o momento em que a IA ganhou seu nome, sua missão, seu primeiro sucesso e seus principais jogadores, e é amplamente considerada o nascimento da IA. O termo "Inteligência Artificial" foi escolhido por McCarthy para evitar associações com a cibernética e conexões com o influente ciberneticista Norbert Wiener .

AI simbólica 1956-1974

Os programas desenvolvidos nos anos após o Dartmouth Workshop foram, para a maioria das pessoas, simplesmente "surpreendentes": os computadores estavam resolvendo problemas de álgebra, provando teoremas em geometria e aprendendo a falar inglês. Poucos na época teriam acreditado que tal comportamento "inteligente" por máquinas fosse possível. Os pesquisadores expressaram um otimismo intenso em privado e na mídia impressa, prevendo que uma máquina totalmente inteligente seria construída em menos de 20 anos. Agências governamentais como a DARPA despejaram dinheiro no novo campo.

Abordagens

Houve muitos programas de sucesso e novas direções no final dos anos 50 e 60. Entre os mais influentes estavam estes:

Raciocínio como pesquisa

Muitos dos primeiros programas de IA usavam o mesmo algoritmo básico . Para atingir algum objetivo (como ganhar um jogo ou provar um teorema), eles avançavam passo a passo em direção a ele (fazendo um movimento ou uma dedução) como se estivessem procurando em um labirinto, retrocedendo sempre que chegavam a um beco sem saída. Esse paradigma foi denominado " raciocínio como pesquisa ".

A principal dificuldade era que, para muitos problemas, o número de caminhos possíveis pelo "labirinto" era simplesmente astronômico (situação conhecida como " explosão combinatória "). Os pesquisadores reduziriam o espaço de busca usando heurísticas ou " regras práticas " que eliminariam os caminhos que provavelmente não conduziriam a uma solução.

Newell e Simon tentaram capturar uma versão geral deste algoritmo em um programa chamado " General Problem Solver ". Outros programas de "busca" foram capazes de realizar tarefas impressionantes, como resolver problemas de geometria e álgebra, como o Geometry Theorem Prover de Herbert Gelernter (1958) e o SAINT , escrito pelo aluno de Minsky James Slagle (1961). Outros programas buscavam metas e submetas para planejar ações, como o sistema STRIPS desenvolvido em Stanford para controlar o comportamento de seu robô Shakey .

Um exemplo de rede semântica

Linguagem natural

Um objetivo importante da pesquisa em IA é permitir que os computadores se comuniquem em línguas naturais como o inglês. Um sucesso inicial foi o programa STUDENT de Daniel Bobrow , que podia resolver problemas de álgebra do ensino médio.

Uma rede semântica representa conceitos (por exemplo, "casa", "porta") como nós e relações entre os conceitos (por exemplo, "tem-a") como ligações entre os nós. O primeiro programa AI para usar uma rede semântica foi escrito por Ross Quillian ea versão mais bem sucedida (e controverso) foi Roger Schank 's teoria da dependência conceitual .

O ELIZA de Joseph Weizenbaum podia realizar conversas tão realistas que os usuários ocasionalmente eram enganados ao pensar que estavam se comunicando com um ser humano e não com um programa (veja o efeito ELIZA ). Mas, na verdade, ELIZA não tinha ideia do que estava falando. Ela simplesmente deu uma resposta pronta ou repetiu o que foi dito a ela, reformulando sua resposta com algumas regras gramaticais. ELIZA foi o primeiro chatterbot .

Micro-mundos

No final dos anos 60, Marvin Minsky e Seymour Papert, do Laboratório de IA do MIT , propuseram que a pesquisa em IA deveria se concentrar em situações artificialmente simples conhecidas como micro-mundos. Eles apontaram que em ciências de sucesso como a física, os princípios básicos eram frequentemente mais bem compreendidos usando modelos simplificados como aviões sem atrito ou corpos perfeitamente rígidos. Grande parte da pesquisa se concentrou em um " mundo de blocos " , que consiste em blocos coloridos de várias formas e tamanhos dispostos em uma superfície plana.

Este paradigma levou a um trabalho inovador em visão de máquina por Gerald Sussman (que liderou a equipe), Adolfo Guzman , David Waltz (que inventou a " propagação de restrições ") e, especialmente, Patrick Winston . Ao mesmo tempo, Minsky e Papert construíram um braço robótico que poderia empilhar blocos, trazendo o mundo dos blocos à vida. A realização culminante do programa micro-mundial foi o SHRDLU de Terry Winograd . Ele podia se comunicar em frases comuns em inglês, planejar operações e executá-las.

Autômatos

No Japão, a Universidade Waseda iniciou o projeto WABOT em 1967 e, em 1972, concluiu o WABOT-1, o primeiro robô humanóide "inteligente" em escala real do mundo , ou andróide . Seu sistema de controle de membros permitia caminhar com os membros inferiores, segurar e transportar objetos com as mãos, por meio de sensores táteis. Seu sistema de visão permitiu medir distâncias e direções para objetos usando receptores externos, olhos e ouvidos artificiais. E seu sistema de conversação permitia que ele se comunicasse com uma pessoa em japonês, com uma boca artificial.

Otimismo

A primeira geração de pesquisadores de IA fez estas previsões sobre seu trabalho:

  • 1958, HA Simon e Allen Newell : "dentro de dez anos um computador digital será o campeão mundial de xadrez" e "dentro de dez anos um computador digital irá descobrir e provar um novo teorema matemático importante."
  • 1965, HA Simon : "as máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer."
  • 1967, Marvin Minsky : "Dentro de uma geração ... o problema de criar 'inteligência artificial' estará substancialmente resolvido."
  • 1970, Marvin Minsky (na Life Magazine ): "Dentro de três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio."

Financiamento

Em junho de 1963, o MIT recebeu uma doação de US $ 2,2 milhões da recém-criada Agência de Projetos de Pesquisa Avançada (mais tarde conhecida como DARPA ). O dinheiro foi usado para financiar o projeto MAC, que incluiu o "Grupo AI" fundado por Minsky e McCarthy cinco anos antes. A DARPA continuou a fornecer três milhões de dólares por ano até os anos 70. A DARPA fez doações semelhantes para o programa de Newell e Simon na CMU e para o Stanford AI Project (fundado por John McCarthy em 1963). Outro importante laboratório de IA foi estabelecido na Universidade de Edimburgo por Donald Michie em 1965. Essas quatro instituições continuariam a ser os principais centros de pesquisa (e financiamento) de IA na academia por muitos anos.

O dinheiro foi oferecido com poucas restrições : JCR Licklider , então diretor da ARPA , acreditava que sua organização deveria "financiar pessoas, não projetos!" e permitiu que os pesquisadores seguissem quaisquer direções que pudessem interessá-los. Isso criou uma atmosfera descontraída no MIT que deu origem à cultura hacker , mas essa abordagem "sem intervenção" não duraria.

O primeiro inverno AI 1974-1980

Na década de 1970, a IA foi sujeita a críticas e contratempos financeiros. Os pesquisadores de IA não conseguiram avaliar a dificuldade dos problemas que enfrentaram. Seu tremendo otimismo havia gerado expectativas impossivelmente altas e, quando os resultados prometidos não se materializaram, o financiamento para a IA desapareceu. Ao mesmo tempo, o campo de connectionism (ou redes neurais ) foi fechado quase completamente por 10 anos por Marvin Minsky 's crítica devastadora de perceptrons . Apesar das dificuldades com a percepção pública da IA ​​no final dos anos 70, novas ideias foram exploradas em programação lógica , raciocínio de senso comum e muitas outras áreas.

Os problemas

No início dos anos 70, as capacidades dos programas de IA eram limitadas. Mesmo os mais impressionantes só podiam lidar com versões triviais dos problemas que deveriam resolver; todos os programas eram, em certo sentido, "brinquedos". Os pesquisadores de IA começaram a se deparar com vários limites fundamentais que não podiam ser superados na década de 1970. Embora alguns desses limites sejam conquistados nas décadas posteriores, outros ainda bloqueiam o campo até hoje.

  • Potência limitada do computador : não havia memória ou velocidade de processamento suficientes para realizar algo realmente útil. Por exemplo, o trabalho bem-sucedido de Ross Quillian sobre a linguagem natural foi demonstrado com um vocabulário de apenas vinte palavras, porque era tudo o que cabia na memória. Hans Moravec argumentou em 1976 que os computadores ainda eram milhões de vezes fracos demais para exibir inteligência. Ele sugeriu uma analogia: a inteligência artificial requer potência do computador da mesma forma que aeronaves requerem potência . Abaixo de um certo limite, é impossível, mas, à medida que a potência aumenta , eventualmente pode se tornar mais fácil. Com relação à visão computacional, Moravec estimou que simplesmente combinar as capacidades de detecção de borda e movimento da retina humana em tempo real exigiria um computador de uso geral capaz de 10 9 operações / segundo (1000 MIPS). A partir de 2011, os aplicativos práticos de visão computacional exigem de 10.000 a 1.000.000 MIPS. Em comparação, o supercomputador mais rápido em 1976, o Cray-1 (vendendo no varejo de US $ 5 milhões a US $ 8 milhões), era capaz de apenas cerca de 80 a 130 MIPS, e um computador desktop típico da época alcançava menos de 1 MIPS.
  • Intratabilidade e a explosão combinatória . Em 1972, Richard Karp (baseado no teorema de Stephen Cook de 1971) mostrou que há muitos problemas que provavelmente só podem ser resolvidos em tempo exponencial (no tamanho das entradas). Encontrar soluções ótimas para esses problemas requer uma quantidade inimaginável de tempo de computador, exceto quando os problemas são triviais. Isso quase certamente significava que muitas das soluções de "brinquedo" usadas pela IA provavelmente nunca seriam escaladas para sistemas úteis.
  • Conhecimento e raciocínio de senso comum . Muitas aplicações importantes de inteligência artificial, como visão ou linguagem natural, requerem simplesmente enormes quantidades de informações sobre o mundo: o programa precisa ter alguma ideia do que pode estar olhando ou do que está falando. Isso requer que o programa saiba quase todas as mesmas coisas sobre o mundo que uma criança. Os pesquisadores logo descobriram que essa era umaquantidadeverdadeiramente vasta de informações. Ninguém em 1970 poderia construir um banco de dados tão grande e ninguém sabia como um programa pode obter tantas informações.
  • Paradoxo de Moravec : provar teoremas e resolver problemas de geometria é comparativamente fácil para computadores, mas uma tarefa supostamente simples como reconhecer um rosto ou cruzar uma sala sem esbarrar em nada é extremamente difícil. Isso ajuda a explicar por que a pesquisa em visão e robótica fez tão pouco progresso em meados dos anos 1970.
  • Os quadros e qualificação problemas . Pesquisadores de IA (como John McCarthy ) que usaram a lógica descobriram que não podiam representar deduções comuns que envolviam planejamento ou raciocínio padrão sem fazer mudanças na própria estrutura da lógica. Eles desenvolveram novas lógicas (como lógicas não monotônicas e lógicas modais ) para tentar resolver os problemas.

O fim do financiamento

As agências que financiaram pesquisas em IA (como o governo britânico , DARPA e NRC ) ficaram frustradas com a falta de progresso e acabaram cortando quase todo o financiamento para pesquisas não direcionadas em IA. O padrão começou em 1966, quando o relatório ALPAC apareceu criticando os esforços de tradução automática. Depois de gastar 20 milhões de dólares, o NRC encerrou todo o apoio. Em 1973, o relatório Lighthill sobre o estado da pesquisa em IA na Inglaterra criticou o fracasso total da IA ​​em atingir seus "objetivos grandiosos" e levou ao desmantelamento da pesquisa em IA naquele país. (O relatório mencionou especificamente o problema da explosão combinatória como uma razão para as falhas da IA.) A DARPA ficou profundamente desapontada com os pesquisadores que trabalhavam no programa de Pesquisa de Compreensão da Fala na CMU e cancelou uma concessão anual de três milhões de dólares. Em 1974, era difícil encontrar financiamento para projetos de IA.

Hans Moravec atribuiu a crise às previsões irrealistas de seus colegas. "Muitos pesquisadores foram apanhados em uma teia de exageros crescentes." No entanto, havia outro problema: desde a aprovação da Emenda Mansfield em 1969, a DARPA estava sob crescente pressão para financiar "pesquisas diretas orientadas para a missão, ao invés de pesquisas básicas não direcionadas". O financiamento para a exploração criativa e livre que ocorreu nos anos 60 não viria da DARPA . Em vez disso, o dinheiro foi direcionado a projetos específicos com objetivos claros, como tanques autônomos e sistemas de gerenciamento de batalha.

Críticas de todo o campus

Vários filósofos tinham fortes objeções às afirmações feitas por pesquisadores de IA. Um dos primeiros foi John Lucas , que argumentou que o teorema da incompletude de Gödel mostrou que um sistema formal (como um programa de computador) nunca poderia ver a verdade de certas afirmações, enquanto um ser humano poderia. Hubert Dreyfus ridicularizou as promessas quebradas da década de 1960 e criticou os pressupostos da IA, argumentando que o raciocínio humano na verdade envolvia muito pouco "processamento de símbolos" e uma grande quantidade de " know how " incorporado , instintivo e inconsciente . John Searle 's Chinese Room argumento, apresentado em 1980, tentou mostrar que um programa não pode ser dito para 'entender' os símbolos que ele usa (uma qualidade chamada de ' intencionalidade '). Se os símbolos não têm significado para a máquina, argumentou Searle, então a máquina não pode ser descrita como "pensando".

Essas críticas não foram levadas a sério pelos pesquisadores de IA, muitas vezes porque pareciam tão distantes do ponto. Problemas como intratabilidade e conhecimento do senso comum pareciam muito mais imediatos e sérios. Não estava claro que diferença " know how " ou " intencionalidade " fazia em um programa de computador real. Minsky disse de Dreyfus e Searle "eles entendem mal e devem ser ignorados." Dreyfus, que ensinava no MIT , foi rejeitado: ele disse mais tarde que os pesquisadores de IA "não ousavam ser vistos almoçando comigo". Joseph Weizenbaum , o autor de ELIZA , sentiu que o tratamento que seus colegas deram a Dreyfus foi pouco profissional e infantil. Embora fosse um crítico franco das posições de Dreyfus, ele "deixou claro deliberadamente que a maneira de tratar um ser humano não era deles".

Weizenbaum começou a ter sérias dúvidas éticas sobre a IA quando Kenneth Colby escreveu um "programa de computador que pode conduzir o diálogo psicoterapêutico" baseado em ELIZA. Weizenbaum ficou perturbado porque Colby viu um programa estúpido como uma ferramenta terapêutica séria. Uma rixa começou, e a situação não foi melhorada quando Colby não deu crédito a Weizenbaum por sua contribuição para o programa. Em 1976, Weizenbaum publicou Computer Power and Human Reason, que argumentou que o uso indevido da inteligência artificial tem o potencial de desvalorizar a vida humana.

Perceptrons e o ataque ao conexionismo

Um perceptron era uma forma de rede neural introduzida em 1958 por Frank Rosenblatt , que fora colega de escola de Marvin Minsky na Escola de Ciências do Bronx . Como a maioria dos pesquisadores de IA, ele estava otimista sobre seu poder, prevendo que "o perceptron pode eventualmente ser capaz de aprender, tomar decisões e traduzir idiomas". Um programa ativo de pesquisa sobre o paradigma foi realizado ao longo da década de 1960, mas foi interrompido repentinamente com a publicação do livro Perceptrons de Minsky e Papert de 1969 . Isso sugeria que havia severas limitações para o que os perceptrons podiam fazer e que as previsões de Frank Rosenblatt haviam sido grosseiramente exageradas. O efeito do livro foi devastador: virtualmente nenhuma pesquisa foi feita sobre conexionismo por 10 anos. Eventualmente, uma nova geração de pesquisadores ressuscitaria o campo e, a partir daí, ele se tornaria uma parte vital e útil da inteligência artificial. Rosenblatt não viveria para ver isso, pois morreu em um acidente de barco logo após a publicação do livro.

Raciocínio lógico e simbólico: os "neats"

A lógica foi introduzida na pesquisa de IA já em 1959, por John McCarthy em sua proposta Advice Taker . Em 1963, J. Alan Robinson descobriu um método simples para implementar a dedução em computadores, o algoritmo de resolução e unificação . No entanto, implementações diretas, como aquelas tentadas por McCarthy e seus alunos no final dos anos 1960, eram especialmente intratáveis: os programas exigiam números astronômicos de etapas para provar teoremas simples. Uma abordagem mais frutífera da lógica foi desenvolvida na década de 1970 por Robert Kowalski na Universidade de Edimburgo , e logo isso levou à colaboração dos pesquisadores franceses Alain Colmerauer e Philippe Roussel, que criaram a bem-sucedida linguagem de programação lógica Prolog . Prolog usa um subconjunto de lógica ( cláusulas de Horn , intimamente relacionadas a "regras" e " regras de produção ") que permitem computação tratável. Regras continuariam a ser influente, fornecendo uma base para Edward Feigenbaum 's sistemas especialistas eo trabalho contínuo por Allen Newell e Herbert A. Simon que levaria a Soar e suas teorias unificadas da cognição .

Os críticos da abordagem lógica notaram, como Dreyfus , que os seres humanos raramente usavam a lógica ao resolver problemas. Experimentos de psicólogos como Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman e outros forneceram provas. McCarthy respondeu que o que as pessoas fazem é irrelevante. Ele argumentou que o que é realmente necessário são máquinas que possam resolver problemas - não máquinas que pensem como as pessoas.

Frames e scripts: as "brigas"

Entre os críticos da abordagem de McCarthy estavam seus colegas de todo o país no MIT . Marvin Minsky , Seymour Papert e Roger Schank estavam tentando resolver problemas como "compreensão de histórias" e "reconhecimento de objetos" que exigiam que uma máquina pensasse como uma pessoa. Para usar conceitos comuns como "cadeira" ou "restaurante", eles tinham que fazer as mesmas suposições ilógicas que as pessoas normalmente faziam. Infelizmente, conceitos imprecisos como esses são difíceis de representar na lógica. Gerald Sussman observou que "usar uma linguagem precisa para descrever conceitos essencialmente imprecisos não os torna mais precisos". Schank descreveu suas abordagens "anti-lógicas" como " desleixadas ", em oposição aos paradigmas " legais " usados ​​por McCarthy , Kowalski , Feigenbaum , Newell e Simon .

Em 1975, em um artigo seminal, Minsky observou que muitos de seus colegas pesquisadores "desalinhados" estavam usando o mesmo tipo de ferramenta: uma estrutura que captura todas as nossas suposições de bom senso sobre algo. Por exemplo, se usarmos o conceito de pássaro, há uma constelação de fatos que imediatamente vêm à mente: podemos supor que ele voa, come minhocas e assim por diante. Sabemos que esses fatos nem sempre são verdadeiros e que as deduções usando esses fatos não serão "lógicas", mas esses conjuntos estruturados de suposições fazem parte do contexto de tudo o que dizemos e pensamos. Ele chamou essas estruturas de " quadros ". Schank usou uma versão de frames que chamou de " scripts " para responder com sucesso a perguntas sobre contos em inglês. Muitos anos depois , a programação orientada a objetos adotaria a ideia essencial de " herança " da pesquisa de IA em quadros.

Boom 1980–1987

Na década de 1980, uma forma de programa de IA chamada " sistemas especialistas " foi adotada por corporações em todo o mundo e o conhecimento tornou-se o foco das principais pesquisas em IA. Naqueles mesmos anos, o governo japonês financiou agressivamente a IA com seu projeto de computador de quinta geração . Outro evento encorajador no início dos anos 1980 foi o renascimento do conexionismo na obra de John Hopfield e David Rumelhart . Mais uma vez, a IA obteve sucesso.

A ascensão dos sistemas especialistas

Um sistema especialista é um programa que responde a perguntas ou resolve problemas sobre um domínio específico do conhecimento, usando regras lógicas derivadas do conhecimento de especialistas. Os primeiros exemplos foram desenvolvidos por Edward Feigenbaum e seus alunos. Dendral , iniciado em 1965, identificou compostos a partir de leituras de espectrômetro. MYCIN , desenvolvido em 1972, diagnosticou doenças infecciosas do sangue. Eles demonstraram a viabilidade da abordagem.

Os sistemas especialistas restringiam-se a um pequeno domínio de conhecimento específico (evitando assim o problema do conhecimento do senso comum ) e seu design simples tornava relativamente fácil construir e modificar os programas depois de implementados. Em suma, os programas provaram ser úteis : algo que a AI não havia conseguido alcançar até então.

Em 1980, um sistema especialista chamado XCON foi concluído na CMU para a Digital Equipment Corporation . Foi um enorme sucesso: estava economizando para a empresa 40 milhões de dólares anualmente em 1986. Corporações em todo o mundo começaram a desenvolver e implantar sistemas especialistas e em 1985 estavam gastando mais de um bilhão de dólares em IA, a maior parte em IA interna departamentos. Uma indústria cresceu para apoiá-los, incluindo empresas de hardware como Symbolics e Lisp Machines e empresas de software como IntelliCorp e Aion .

A revolução do conhecimento

O poder dos sistemas especialistas veio do conhecimento especializado que eles continham. Eles faziam parte de uma nova direção na pesquisa de IA que vinha ganhando terreno ao longo dos anos 70. "Os pesquisadores de IA estavam começando a suspeitar - com relutância, pois violava o cânone científico da parcimônia - que a inteligência poderia muito bem ser baseada na capacidade de usar grandes quantidades de conhecimento diverso de maneiras diferentes", escreve Pamela McCorduck . “[A] grande lição da década de 1970 foi que o comportamento inteligente dependia muito de lidar com o conhecimento, às vezes um conhecimento bastante detalhado, de um domínio onde estava determinada tarefa”. Os sistemas baseados no conhecimento e a engenharia do conhecimento tornaram-se o foco principal da pesquisa em IA na década de 1980.

A década de 1980 também viu o nascimento do Cyc , a primeira tentativa de atacar o problema do conhecimento de senso comum diretamente, criando um enorme banco de dados que conteria todos os fatos mundanos que a pessoa comum conhece. Douglas Lenat , que iniciou e liderou o projeto, argumentou que não há atalho - a única maneira de as máquinas saberem o significado dos conceitos humanos é ensiná-los, um conceito por vez, à mão. O projeto não estava previsto para ser concluído por muitas décadas.

Os programas de xadrez HiTech e Deep Thought derrotaram os mestres do xadrez em 1989. Ambos foram desenvolvidos pela Carnegie Mellon University ; O desenvolvimento do Deep Thought pavimentou o caminho para o Deep Blue .

O dinheiro retorna: o projeto da Quinta Geração

Em 1981, o Ministério do Comércio e Indústria Internacional do Japão reservou US $ 850 milhões para o projeto de computador de quinta geração . Seus objetivos eram escrever programas e construir máquinas que pudessem conversar, traduzir idiomas, interpretar imagens e raciocinar como seres humanos. Para desgosto dos desalinhados , eles escolheram o Prolog como a linguagem de computador principal para o projeto.

Outros países responderam com novos programas próprios. O Reino Unido deu início ao projeto Alvey de £ 350 milhões . Um consórcio de empresas americanas formou a Microelectronics and Computer Technology Corporation (ou "MCC") para financiar projetos de grande escala em IA e tecnologia da informação. A DARPA também respondeu, fundando a Strategic Computing Initiative e triplicando seu investimento em IA entre 1984 e 1988.

Uma rede de Hopfield com quatro nós.

O renascimento do conexionismo

Em 1982, o físico John Hopfield conseguiu provar que uma forma de rede neural (agora chamada de " rede de Hopfield ") pode aprender e processar informações de uma maneira completamente nova. Na mesma época, Geoffrey Hinton e David Rumelhart popularizaram um método de treinamento de redes neurais denominado " retropropagação ", também conhecido como modo reverso de diferenciação automática publicado por Seppo Linnainmaa (1970) e aplicado a redes neurais por Paul Werbos . Essas duas descobertas ajudaram a reviver o campo do conexionismo .

O novo campo foi unificado e inspirado pelo aparecimento do Processamento Distribuído Paralelo em 1986 - uma coleção de dois volumes de artigos editados por Rumelhart e o psicólogo James McClelland . As redes neurais se tornariam comercialmente bem-sucedidas na década de 1990, quando começaram a ser usadas como motores de programas como reconhecimento óptico de caracteres e reconhecimento de voz .

O desenvolvimento da integração em larga escala de óxido metálico (MOS) (VLSI), na forma de tecnologia MOS complementar ( CMOS ), possibilitou o desenvolvimento da tecnologia prática de rede neural artificial (ANN) na década de 1980. Uma publicação de referência na área foi o livro Analog VLSI Implementation of Neural Systems, de 1989, de Carver A. Mead e Mohammed Ismail.

Busto: o segundo inverno AI 1987-1993

O fascínio da comunidade empresarial pela IA cresceu e diminuiu na década de 1980 no padrão clássico de uma bolha econômica . O colapso foi devido ao fracasso dos fornecedores comerciais em desenvolver uma ampla variedade de soluções viáveis. Como dezenas de empresas faliram, a percepção era de que a tecnologia não era viável. No entanto, o campo continuou avançando apesar das críticas. Numerosos pesquisadores, incluindo os desenvolvedores de robótica Rodney Brooks e Hans Moravec , defenderam uma abordagem inteiramente nova para a inteligência artificial.

AI inverno

O termo " inverno da IA " foi cunhado por pesquisadores que sobreviveram aos cortes de financiamento de 1974, quando ficaram preocupados com o fato de que o entusiasmo pelos sistemas especialistas havia saído do controle e que a decepção certamente viria em seguida. Seus temores eram bem fundamentados: no final dos anos 1980 e no início dos anos 1990, a IA sofreu uma série de reveses financeiros.

A primeira indicação de uma mudança no clima foi o colapso repentino do mercado de hardware especializado de IA em 1987. Os computadores desktop da Apple e IBM vinham ganhando velocidade e potência e em 1987 eles se tornaram mais poderosos do que as máquinas Lisp mais caras feitas por Simbólicos e outros. Não havia mais um bom motivo para comprá-los. Uma indústria inteira no valor de meio bilhão de dólares foi demolida da noite para o dia.

Eventualmente, os primeiros sistemas especialistas bem-sucedidos, como o XCON , provaram ser muito caros para manter. Eles eram difíceis de atualizar, não podiam aprender, eram " frágeis " (ou seja, podiam cometer erros grotescos quando recebiam dados incomuns) e eram vítimas de problemas (como o problema de qualificação ) que haviam sido identificados anos antes. Os sistemas especialistas provaram ser úteis, mas apenas em alguns contextos especiais.

No final da década de 1980, a Strategic Computing Initiative cortou o financiamento da IA ​​"profunda e brutalmente". A nova liderança da DARPA decidiu que a IA não era "a próxima onda" e direcionou fundos para projetos que pareciam mais prováveis ​​de produzir resultados imediatos.

Em 1991, a impressionante lista de objetivos redigida em 1981 para o Projeto de Quinta Geração do Japão não havia sido alcançada. De fato, alguns deles, como "manter uma conversa casual", não foram atendidos em 2010. Como em outros projetos de IA, as expectativas eram muito maiores do que era realmente possível.

Mais de 300 empresas de IA foram fechadas, faliram ou foram adquiridas no final de 1993, encerrando efetivamente a primeira onda comercial de IA.

Nouvelle AI e razão incorporada

No final da década de 1980, vários pesquisadores defenderam uma abordagem completamente nova para a inteligência artificial, baseada na robótica. Eles acreditavam que, para mostrar inteligência real, uma máquina precisa ter um corpo - ela precisa perceber, se mover, sobreviver e lidar com o mundo. Eles argumentaram que essas habilidades sensório-motoras são essenciais para habilidades de nível superior, como o raciocínio do senso comum, e que o raciocínio abstrato era, na verdade, a habilidade humana menos interessante ou importante (ver o paradoxo de Moravec ). Eles defenderam a construção da inteligência "de baixo para cima".

A abordagem reviveu as ideias da cibernética e da teoria do controle que eram impopulares desde os anos sessenta. Outro precursor foi David Marr , que viera para o MIT no final dos anos 1970 com uma formação bem-sucedida em neurociência teórica para liderar o grupo que estudava a visão . Ele rejeitou todas as abordagens simbólicas ( tanto a lógica de McCarthy quanto os quadros de Minsky ), argumentando que a IA precisava entender a maquinaria física da visão de baixo para cima antes que qualquer processamento simbólico ocorresse. (O trabalho de Marr seria interrompido pela leucemia em 1980.)

Em um artigo de 1990, "Elefantes não jogam xadrez", o pesquisador de robótica Rodney Brooks mirou diretamente na hipótese do sistema de símbolos físicos , argumentando que os símbolos nem sempre são necessários, pois "o mundo é seu melhor modelo. Está sempre exatamente para cima até o momento. Ele sempre tem todos os detalhes que precisam ser conhecidos. O truque é senti-lo de maneira adequada e com frequência suficiente. " Nas décadas de 1980 e 1990, muitos cientistas cognitivos também rejeitaram o modelo de processamento de símbolos da mente e argumentaram que o corpo era essencial para o raciocínio, uma teoria chamada de tese da mente corporificada .

AI 1993-2011

O campo da IA, agora com mais de meio século, finalmente alcançou alguns de seus objetivos mais antigos. Ele começou a ser usado com sucesso em toda a indústria de tecnologia, embora um pouco nos bastidores. Parte do sucesso deveu-se ao aumento do poder do computador e parte foi alcançada concentrando-se em problemas isolados específicos e perseguindo-os com os mais altos padrões de responsabilidade científica. Ainda assim, a reputação da IA, pelo menos no mundo dos negócios, era menos do que imaculada. Dentro do campo, havia pouco consenso sobre as razões do fracasso da IA ​​em realizar o sonho de inteligência de nível humano que havia capturado a imaginação do mundo na década de 1960. Juntos, todos esses fatores ajudaram a fragmentar a IA em subcampos concorrentes focados em problemas ou abordagens particulares, às vezes até sob novos nomes que disfarçavam o pedigree manchado de "inteligência artificial". A IA foi mais cautelosa e bem-sucedida do que nunca.

Marcos e lei de Moore

Em 11 de maio de 1997, o Deep Blue se tornou o primeiro sistema computadorizado de xadrez a derrotar o atual campeão mundial de xadrez, Garry Kasparov . O supercomputador era uma versão especializada de uma estrutura produzida pela IBM e era capaz de processar o dobro de movimentos por segundo do que durante a primeira partida (que o Deep Blue havia perdido), supostamente 200 milhões de movimentos por segundo. O evento foi transmitido ao vivo pela internet e recebeu mais de 74 milhões de acessos.

Em 2005, um robô de Stanford venceu o Grande Desafio da DARPA ao dirigir autonomamente por 131 milhas ao longo de uma trilha deserta não ensaiada. Dois anos depois, uma equipe da CMU venceu o DARPA Urban Challenge ao navegar de forma autônoma 55 milhas em um ambiente urbano, cumprindo os perigos de trânsito e todas as leis de trânsito. Em fevereiro de 2011, em um Jeopardy! quiz show partida de exibição, IBM 's sistema de atendimento pergunta , Watson , derrotou os dois maiores Jeopardy! campeões, Brad Rutter e Ken Jennings , por uma margem significativa.

Esses sucessos não foram devidos a algum novo paradigma revolucionário, mas principalmente à tediosa aplicação de habilidades de engenharia e ao tremendo aumento na velocidade e capacidade do computador nos anos 90. Na verdade, o computador do Deep Blue era 10 milhões de vezes mais rápido do que o Ferranti Mark 1 que Christopher Strachey ensinou a jogar xadrez em 1951. Esse aumento dramático é medido pela lei de Moore , que prevê que a velocidade e a capacidade de memória dos computadores dobrem a cada dois anos, como resultado da contagem de transistores de semicondutor de óxido metálico (MOS) que dobra a cada dois anos. O problema fundamental do "poder bruto do computador" estava sendo lentamente superado.

Agentes inteligentes

Um novo paradigma denominado " agentes inteligentes " tornou-se amplamente aceito durante a década de 1990. Embora pesquisadores anteriores tenham proposto abordagens modulares de "dividir e conquistar" para IA, o agente inteligente não atingiu sua forma moderna até que Judea Pearl , Allen Newell , Leslie P. Kaelbling e outros trouxeram conceitos da teoria da decisão e economia para o estudo da IA . Quando a definição do economista de um agente racional foi casada com a definição da ciência da computação de um objeto ou módulo , o paradigma do agente inteligente estava completo.

Um agente inteligente é um sistema que percebe seu ambiente e executa ações que maximizam suas chances de sucesso. Por esta definição, programas simples que resolvem problemas específicos são "agentes inteligentes", assim como seres humanos e organizações de seres humanos, como empresas . O paradigma do agente inteligente define a pesquisa em IA como "o estudo de agentes inteligentes". Esta é uma generalização de algumas definições anteriores de IA: ela vai além do estudo da inteligência humana; ele estuda todos os tipos de inteligência.

O paradigma deu aos pesquisadores licença para estudar problemas isolados e encontrar soluções verificáveis ​​e úteis. Fornecia uma linguagem comum para descrever problemas e compartilhar suas soluções entre si e com outros campos que também usavam conceitos de agentes abstratos, como economia e teoria de controle . Esperava-se que uma arquitetura de agente completa (como o SOAR de Newell ) um dia permitiria aos pesquisadores construir sistemas mais versáteis e inteligentes a partir de agentes inteligentes em interação .

A "vitória dos melhores"

Os pesquisadores de IA começaram a desenvolver e usar ferramentas matemáticas sofisticadas mais do que no passado. Houve uma percepção generalizada de que muitos dos problemas que a IA precisava resolver já estavam sendo trabalhados por pesquisadores em áreas como matemática , engenharia elétrica , economia ou pesquisa operacional . A linguagem matemática compartilhada permitiu um nível mais alto de colaboração com campos mais estabelecidos e bem-sucedidos e a obtenção de resultados mensuráveis ​​e comprováveis; A IA havia se tornado uma disciplina "científica" mais rigorosa. Russell & Norvig (2003) descrevem isso como nada menos do que uma "revolução" e "a vitória dos melhores ".

O livro influente de Judea Pearl de 1988 trouxe a teoria da probabilidade e da decisão para a IA. Entre as muitas novas ferramentas em uso estavam redes bayesianas , modelos ocultos de Markov , teoria da informação , modelagem estocástica e otimização clássica . Descrições matemáticas precisas também foram desenvolvidas para paradigmas de " inteligência computacional ", como redes neurais e algoritmos evolutivos .

IA nos bastidores

Algoritmos originalmente desenvolvidos por pesquisadores de IA começaram a aparecer como partes de sistemas maiores. A IA havia resolvido muitos problemas muito difíceis e suas soluções provaram ser úteis em toda a indústria de tecnologia, como mineração de dados , robótica industrial , logística, reconhecimento de voz , software bancário, diagnóstico médico e mecanismo de busca do Google .

O campo da IA ​​recebeu pouco ou nenhum crédito por esses sucessos nos anos 1990 e no início dos anos 2000. Muitas das maiores inovações da IA ​​foram reduzidas ao status de apenas mais um item no baú de ferramentas da ciência da computação. Nick Bostrom explica "Um monte de IA de ponta foi filtrado para aplicações gerais, muitas vezes sem ser chamado de IA porque uma vez que algo se torna útil e comum o suficiente não é mais rotulado de IA."

Muitos pesquisadores em AI na década de 1990 deliberadamente chamado seu trabalho por outros nomes, tais como informática , sistemas baseados em conhecimento , sistemas cognitivos ou inteligência computacional . Em parte, isso pode ter ocorrido porque eles consideravam seu campo fundamentalmente diferente de IA, mas também os novos nomes ajudam a obter financiamento. No mundo comercial, pelo menos, as promessas fracassadas do inverno de IA continuaram a assombrar a pesquisa de IA nos anos 2000, como relatou o New York Times em 2005: "Cientistas da computação e engenheiros de software evitaram o termo inteligência artificial por medo de serem vistos como selvagens sonhadores com olhos ".

Previsões (ou "Onde está o HAL 9000?")

Em 1968, Arthur C. Clarke e Stanley Kubrick imaginaram que, por volta do ano 2001 , existiria uma máquina com uma inteligência que igualava ou ultrapassava a capacidade dos seres humanos. O personagem que eles criaram, HAL 9000 , foi baseado na crença compartilhada por muitos pesquisadores de IA de que tal máquina existiria no ano 2001.

Em 2001, o fundador da IA, Marvin Minsky, perguntou "Então a questão é por que não adquirimos o HAL em 2001?" Minsky acreditava que a resposta é que os problemas centrais, como o raciocínio do senso comum , estavam sendo negligenciados, enquanto a maioria dos pesquisadores buscava coisas como aplicações comerciais de redes neurais ou algoritmos genéticos . John McCarthy , por outro lado, ainda culpava o problema da qualificação . Para Ray Kurzweil , a questão é o poder do computador e, usando a Lei de Moore , ele previu que máquinas com inteligência de nível humano aparecerão em 2029. Jeff Hawkins argumentou que a pesquisa da rede neural ignora as propriedades essenciais do córtex humano , preferindo modelos simples que tenham teve sucesso na resolução de problemas simples. Havia muitas outras explicações e para cada uma havia um programa de pesquisa correspondente em andamento.

Aprendizagem profunda, big data e inteligência artificial geral: 2011-presente

Nas primeiras décadas do século 21, o acesso a grandes quantidades de dados (conhecidos como " big data "), computadores mais baratos e rápidos e técnicas avançadas de aprendizado de máquina foram aplicados com sucesso a muitos problemas em toda a economia. Na verdade, o McKinsey Global Institute estimou em seu famoso artigo "Big data: a próxima fronteira para inovação, competição e produtividade" que "em 2009, quase todos os setores da economia dos EUA tinham pelo menos uma média de 200 terabytes de dados armazenados" .

Em 2016, o mercado de produtos, hardware e software relacionados à IA atingiu mais de 8 bilhões de dólares, e o New York Times relatou que o interesse pela IA havia atingido um "frenesi". As aplicações de big data começaram a atingir outros campos também, como modelos de treinamento em ecologia e para diversas aplicações em economia . Avanços no aprendizado profundo (particularmente redes neurais convolucionais profundas e redes neurais recorrentes ) impulsionaram o progresso e a pesquisa em processamento de imagem e vídeo, análise de texto e até mesmo reconhecimento de fala.

Aprendizagem profunda

O aprendizado profundo é um ramo do aprendizado de máquina que modela abstrações de alto nível em dados usando um gráfico profundo com muitas camadas de processamento. De acordo com o teorema da aproximação universal , profundidade não é necessária para uma rede neural ser capaz de aproximar funções contínuas arbitrárias. Mesmo assim, existem muitos problemas comuns a redes superficiais (como overfitting ) que as redes profundas ajudam a evitar. Como tal, as redes neurais profundas são capazes de gerar de forma realista modelos muito mais complexos em comparação com suas contrapartes superficiais.

No entanto, o aprendizado profundo tem seus próprios problemas. Um problema comum para redes neurais recorrentes é o problema do gradiente de desaparecimento , que ocorre quando os gradientes passados ​​entre as camadas encolhem gradualmente e literalmente desaparecem à medida que são arredondados para zero. Muitos métodos foram desenvolvidos para abordar este problema, como unidades de memória de longo prazo .

As arquiteturas de rede neural profunda de última geração às vezes podem até rivalizar com a precisão humana em campos como a visão computacional, especificamente em coisas como o banco de dados MNIST e o reconhecimento de sinais de trânsito.

Mecanismos de processamento de linguagem alimentados por mecanismos de pesquisa inteligentes podem facilmente vencer humanos na resposta a perguntas triviais gerais (como IBM Watson ), e desenvolvimentos recentes em aprendizagem profunda produziram resultados surpreendentes na competição com humanos, em coisas como Go e Doom (que, sendo um jogo de tiro em primeira pessoa , gerou alguma controvérsia).

Big Data

Big data refere-se a uma coleção de dados que não podem ser capturados, gerenciados e processados ​​por ferramentas de software convencionais dentro de um determinado período de tempo. É uma grande quantidade de recursos de tomada de decisão, percepção e otimização de processos que exigem novos modelos de processamento. Na era do Big Data, escrita por Victor Meyer Schonberg e Kenneth Cooke , big data significa que, em vez de análise aleatória (pesquisa de amostra), todos os dados são usados ​​para análise. As características 5V do big data (propostas pela IBM): Volume , Velocidade , Variedade , Valor , Veracidade . A importância estratégica da tecnologia de big data não é dominar grandes informações de dados, mas especializar-se nesses dados significativos. Em outras palavras, se o big data for comparado a um setor, a chave para perceber a lucratividade nesse setor é aumentar a " capacidade de processo " dos dados e realizar o " valor agregado " dos dados por meio do " processamento ".

Inteligência Artificial Geral

Inteligência geral é a capacidade de resolver qualquer problema, em vez de encontrar uma solução para um problema específico. Inteligência geral artificial (ou "AGI") é um programa que pode aplicar inteligência a uma ampla variedade de problemas, da mesma forma que os humanos.

Ben Goertzel e outros argumentaram no início dos anos 2000 que a pesquisa de IA em grande parte desistiu do objetivo original do campo de criar inteligência geral artificial. A pesquisa da AGI foi fundada como um subcampo separado e, em 2010, havia conferências acadêmicas, laboratórios e cursos universitários dedicados à pesquisa da AGI, bem como consórcios privados e novas empresas.

A inteligência artificial geral também é referida como "IA forte", "IA completa" ou inteligência sintética em oposição a " IA fraca " ou "IA estreita". (Fontes acadêmicas reservam "IA forte" para se referir a máquinas capazes de experimentar a consciência.)

Veja também

Notas

Referências