História da inteligência artificial - History of artificial intelligence


Da Wikipédia, a enciclopédia livre

A história da Inteligência Artificial ( AI ) começou na antiguidade , com mitos, histórias e rumores de seres artificiais dotados de inteligência ou consciência por mestres artesãos; como Pamela McCorduck escreve, AI começou com "um desejo antigo de forjar os deuses."

As sementes da AI moderna foram plantadas por filósofos clássicos que tentaram descrever o processo de pensamento humano como a manipulação mecânica de símbolos. Este trabalho culminou com a invenção do computador digital programável na década de 1940, uma máquina baseada na essência abstrata do raciocínio matemático. Este dispositivo e as idéias por trás inspirou um punhado de cientistas para começar discutindo seriamente a possibilidade de construir um cérebro eletrônico.

O campo da AI pesquisa foi fundada em uma oficina realizada no campus de Dartmouth College durante o verão de 1956. Aqueles que assistiram iria se tornar os líderes de pesquisa AI durante décadas. Muitos deles previu que uma máquina tão inteligente quanto um ser humano que existe em não mais do que uma geração, e eles receberam milhões de dólares para tornar esta visão em realidade.

Eventualmente, tornou-se óbvio que eles tinham grosseiramente subestimado a dificuldade do projeto. Em 1973, em resposta às críticas de James Lighthill e pressão contínua do congresso, a US e governos britânico parou de financiamento da investigação não dirigida em inteligência artificial, e os anos difíceis que se seguiram mais tarde seria conhecido como um " inverno AI ". Sete anos mais tarde, uma iniciativa visionária pelos governo japonês governos inspirados e indústria para fornecer AI com bilhões de dólares, mas no final dos anos 80 os investidores tornaram-se desiludido com a ausência do poder de computador necessários (hardware) e retirou-se a financiar novamente.

Investimento e interesse em AI explodiu nas primeiras décadas do século 21, quando a aprendizagem de máquina foi aplicado com sucesso a muitos problemas na academia e na indústria devido à presença de hardware de computador poderoso.


precursores

O sonho da inteligência artificial foi o primeiro pensamento de em filosofias indianas como as de Charvaka , um famoso filosofia tradição que remonta a 1500 aC e sobreviventes documentos cerca de 600 aC. McCorduck (2004) escreve: " a inteligência artificial de uma forma ou de outra é uma idéia que tem permeado história intelectual, um sonho na necessidade urgente de ser realizado", expresso em mitos, lendas, histórias, especulações e relojoaria da humanidade autômatos .

AI no mito, ficção e especulação

Homens mecânicos e seres artificiais aparecem em mitos gregos , como os robôs de ouro de Hefesto e de Pygmalion Galatea . Na Idade Média, houve rumores de místicos ou secretos alquímicos meio de colocar a mente na matéria, tais como Jābir ibn Hayyān 's Takwin , Paracelsus ' homunculus e rabino Judah Loew 's Golem . No século 19, as idéias sobre homens artificiais e máquinas pensantes foram desenvolvidos na ficção, como em Mary Shelley 's Frankenstein ou Karel Capek ' s RUR (Robôs Universais de Rossum) , e da especulação, como Samuel Butler 's " Darwin entre as máquinas ". AI continua a ser um elemento importante da ficção científica para o presente.

autômatos

Al-Jazari de autómatos programáveis (1206 CE)

Humanóide realistas autômatos foram construídos pelo artesão de toda civilização, incluindo Yan Shi , Heron de Alexandria , Al-Jazari , Pierre Jaquet-Droz , e Wolfgang von Kempelen . Os autômatos mais antigos conhecidos eram as estátuas sagradas de antigo Egito e Grécia . Os fiéis acreditavam que artesão tinha imbuído estes números com mentes muito reais, capazes de sabedoria e na emoção Hermes Trismegisto escreveu que "ao descobrir a verdadeira natureza dos deuses, o homem tem sido capaz de reproduzi-lo."

raciocínio formal

A inteligência artificial é baseada na suposição de que o processo de pensamento humano pode ser mecanizada. O estudo da -reasoning mecânica, ou "formal" tem uma longa história. Chineses , indianos e gregos filósofos todos desenvolvidos métodos estruturados de dedução formal no primeiro milênio aC. Suas idéias foram desenvolvidas ao longo dos séculos por filósofos como Aristóteles (que deu uma análise formal do silogismo ), Euclides (cujos elementos era um modelo de raciocínio formal), al-Khwarizmi (que desenvolveu a álgebra e deu seu nome para " algoritmo " ) e europeus escolares filósofos como William de Ockham e Duns Scotus .

Filósofo maiorquino Ramon Llull (1232-1315) desenvolveu várias máquinas lógicas dedicadas à produção de conhecimento por meio lógicos; Llull descreveu suas máquinas como entidades mecânicos que poderiam combinar verdades básicas e inegáveis por operações lógicas simples, produzidos pela máquina por significados mecânicos, de tal forma a produzir todo o conhecimento possível. O trabalho de Llull teve uma grande influência sobre Gottfried Leibniz , que revalorizar suas idéias.

Gottfried Leibniz , que especulou que a razão humana poderia ser reduzido para cálculo mecânico

No século 17, Leibniz , Thomas Hobbes e René Descartes explorou a possibilidade de que todo o pensamento racional poderia ser feito tão sistemático como álgebra ou geometria. Hobbes escreveu famosa no Leviatã : "a razão é nada, mas acerto de contas". Leibniz imaginou uma linguagem universal de raciocínio (seu universalis characteristica ) que reduziria a argumentação de cálculo, de modo que "não haveria mais necessidade de disputa entre dois filósofos do que entre dois contadores. Para isso seria suficiente para levar seus lápis na mão, para baixo às suas lousas e dizer uns aos outros (com um amigo como testemunha, se eles gostaram): Vamos calcular ". Estes filósofos tinham começado a articular o sistema de símbolos físicos hipótese de que se tornaria a fé orientador da pesquisa AI.

No século 20, o estudo da lógica matemática desde que o avanço essencial que fez inteligência artificial parece plausível. As fundações tinha sido criado por obras como Boole 's as leis do pensamento e Frege ' s Begriffsschrift . Com base Frege 'sistema s, Russell e Whitehead apresentou um tratamento formal dos fundamentos da matemática em sua obra-prima, o Principia Mathematica em 1913. Inspirado por Russell ' sucesso s, David Hilbert desafiou os matemáticos da década de 1920 e 30s para responder a esta questão fundamental : "pode tudo do raciocínio matemático ser formalizado?" Sua pergunta foi respondida por Gödel 's prova de incompletude , Turing ' s máquina e Church 's Lambda calculus .

O ENIAC, na Escola Moore de Engenharia Elétrica. Esta foto foi artificialmente escurecidas, obscurecendo detalhes, tais como as mulheres que estavam presentes e os equipamentos IBM em uso.

Sua resposta foi surpreendente de duas maneiras. Primeiro, eles provaram que houve, de fato, limita ao que a lógica matemática poderia realizar. Mas em segundo lugar (e mais importante para AI) seu trabalho sugeriu que, dentro desses limites, qualquer forma de raciocínio matemático poderia ser mecanizada. A tese de Church-Turing implicou que um dispositivo mecânico, arrastando símbolos tão simples como 0 e 1, poderia imitar qualquer processo concebível de dedução matemática. A chave da compreensão foi a máquina de Turing -a construção teórica simples que capturou a essência da manipulação de símbolos abstratos. Esta invenção iria inspirar um punhado de cientistas para começar a discutir a possibilidade de máquinas pensantes.

Ciência da Computação

Máquinas de calcular foram construídos na antiguidade e melhorado ao longo da história por muitos matemáticos, incluindo (mais uma vez) filósofo Gottfried Leibniz . No início do século 19, Charles Babbage projetou um computador programável (a Máquina Analítica ), embora nunca foi construído. Ada Lovelace especularam que a máquina "pode compor peças elaboradas e científicas de música de qualquer grau de complexidade ou extensão". (Ela é muitas vezes creditado como o primeiro programador por causa de um conjunto de notas que ela escreveu que completamente detalhe um método para calcular números de Bernoulli com o motor.)

Os primeiros computadores modernos foram o código enorme quebrando máquinas da Segunda Guerra Mundial (como Z3 , ENIAC e Colossus ). Os dois últimos dessas máquinas foram baseados no fundamento teórico colocado por Alan Turing e desenvolvida por John von Neumann .

O nascimento da inteligência artificial 1952-1956

O IBM 702: um computador usado pela primeira geração de pesquisadores de IA.

Na década de 1940 e 50, um punhado de cientistas de diversas áreas (matemática, psicologia, engenharia, economia e ciência política) começaram a discutir a possibilidade de criar um cérebro artificial. O campo da inteligência artificial pesquisa foi fundada como uma disciplina acadêmica em 1956.

Cibernética e redes neurais início

A pesquisa mais adiantada em máquinas pensantes foi inspirado por uma confluência de idéias que se tornaram predominantes no final de 1930, 1940 e início dos anos 1950. Pesquisas recentes em neurologia tinha mostrado que o cérebro era uma rede elétrica de neurônios que disparavam em todas ou nada pulsos. Norbert Wiener 's Cibernética descrito de controlo e estabilidade nas redes eléctricas. Claude Shannon da teoria da informação de sinais digitais (sinais descritos ou seja, tudo-ou-nada). Alan Turing 's teoria da computação mostrou que qualquer forma de cálculo poderia ser descrito digitalmente. A estreita relação entre essas idéias sugeriu que poderia ser possível construir um cérebro eletrônico .

Exemplos de trabalho nesse sentido inclui robôs, como W. Grey Walter 's tartarugas eo Johns Hopkins Besta . Estas máquinas não usam computadores, eletrônica digital ou raciocínio simbólico; eles foram inteiramente controlado por circuitos analógicos.

Walter Pitts e Warren McCulloch analisados redes de artificiais idealizadas neurônios e mostrou como eles podem executar funções lógicas simples. Eles foram os primeiros a descrever o que pesquisadores posteriores chamariam de uma rede neural . Um dos estudantes inspirados em Pitts e McCulloch era um jovem Marvin Minsky , então um estudante de pós-graduação de 24 anos de idade. Em 1951 (com Dean Edmonds) que ele construiu a primeira máquina de rede neural, o SNARC . Minsky viria a se tornar um dos líderes mais importantes e inovadores em AI para os próximos 50 anos.

teste de Turing

Em 1950, Alan Turing publicou um documento histórico no qual ele especulou sobre a possibilidade de criar máquinas que pensam. Ele observou que "pensar" é difícil de definir e concebeu seu famoso teste de Turing . Se uma máquina poderia manter uma conversa (mais de um teletipo ) que era indistinguível de uma conversa com um ser humano, então era razoável dizer que a máquina estava "pensando". Esta versão simplificada do problema permitiu Turing para argumentar de forma convincente que uma "máquina de pensar" era pelo menos plausível e papel respondeu a todas as objeções mais comuns para a proposição. O Teste de Turing foi a primeira proposta séria na filosofia da inteligência artificial .

jogo AI

Em 1951, usando o Ferranti Mark 1 máquina da Universidade de Manchester , Christopher Strachey escreveu um programa de damas e Dietrich Prinz escreveu um para o xadrez. Arthur Samuel programa damas 's, desenvolvido na década de 50 médias e início dos anos 60, acabou alcançando habilidade suficiente para desafiar um amador respeitável. Jogo AI continuaria a ser usado como uma medida de progresso no AI longo de sua história.

raciocínio simbólico eo Logic Theorist

Quando o acesso a computadores digitais tornou-se possível em meados dos anos cinqüenta, alguns cientistas instintivamente reconheceu que uma máquina que pudesse manipular números também poderia manipular símbolos e que a manipulação de símbolos poderia muito bem ser a essência do pensamento humano. Esta foi uma nova abordagem para a criação de máquinas pensantes.

Em 1955, Allen Newell e (futuro Prêmio Nobel) Herbert A. Simon criou o " Logic Theorist " (com a ajuda de JC Shaw ). O programa acabaria por revelar-se 38 dos primeiros 52 teoremas em Russell e Whitehead Principia Mathematica , e encontrar novas e mais elegantes provas para alguns. Simon disse que tinha "resolvido o venerável problema mente / corpo , explicando como um sistema composto de matéria pode ter as propriedades da mente." (Esta foi uma declaração no início da posição filosófica John Searle mais tarde chamaria de " AI forte ":. Que as máquinas podem conter mentes, assim como os corpos humanos fazer)

Dartmouth Conference 1956: o nascimento do AI

A Conferência de Dartmouth em 1956 foi organizada por Marvin Minsky , John McCarthy e dois cientistas seniores: Claude Shannon e Nathan Rochester da IBM . A proposta para a conferência incluiu esta afirmação: "cada aspecto de aprendizado ou qualquer outro recurso de inteligência pode ser tão precisamente descrito que uma máquina pode ser feita para simulá-lo". Entre os participantes Ray Solomonoff , Oliver Selfridge , Trenchard mais , Arthur Samuel , Allen Newell e Herbert A. Simon , todos os quais criaria programas importantes durante as primeiras décadas de pesquisa AI. Na conferência de Newell e Simon estreou o " Logic Theorist " e McCarthy convenceu os participantes a aceitar "Inteligência Artificial", como o nome do campo. A conferência de 1956 Dartmouth foi o momento em que a AI ganhou seu nome, sua missão, seu primeiro sucesso e seus principais jogadores, e é amplamente considerada o nascimento do AI.

Os anos dourados 1956-1974

Os anos após a conferência de Dartmouth foram uma era de descoberta, de correr em toda a terra nova. Os programas que foram desenvolvidos durante este tempo foram, para a maioria das pessoas, simplesmente "surpreendente": os computadores foram resolver problemas de palavra álgebra, provando teoremas de geometria e aprender a falar Inglês. Poucos no momento teria acreditado que tal comportamento "inteligente" por máquinas foi possível a todos. Pesquisadores expressou um otimismo intenso em privado e em impressão, prevendo que uma máquina totalmente inteligente seria construído em menos de 20 anos. Agências governamentais como DARPA despejaram dinheiro no novo campo.

O trabalho

Havia muitos programas bem sucedidos e novos rumos no final dos anos 50 e 1960. Entre os mais influentes foram estes:

Raciocínio como pesquisa

Muitos programas de primeira AI utilizado o mesmo básica algoritmo . Para alcançar algum objetivo (como ganhar um jogo ou provar um teorema), prosseguiram passo a passo em direção a ela (fazendo um movimento ou uma dedução) como se estivesse procurando por um labirinto, recuando sempre que eles chegaram a um beco sem saída. Este paradigma foi chamado de " raciocínio como a busca ".

A principal dificuldade foi a de que, para muitos problemas, o número de caminhos possíveis através do "labirinto" era simplesmente astronomia (uma situação conhecida como uma " explosão combinatória "). Pesquisadores iria reduzir o espaço de busca usando heurísticas ou " regras de ouro " que eliminariam esses caminhos que não eram susceptíveis de conduzir a uma solução.

Newell e Simon tentou capturar uma versão geral deste algoritmo em um programa chamado " General Problem Solver ". Outros programas de "Searching" foram capazes de realizar tarefas impressionantes como resolver problemas de geometria e álgebra, como Herbert Gelernter 's Geometry Theorem Prover (1958) e SAINT , escrito por Minsky estudante James Slagle (1961). Outros programas procurou através de metas e submetas para planejar ações, como o TIRAS sistema desenvolvido em Stanford para controlar o comportamento de seu robô Shakey .

Um exemplo de uma rede semântica

linguagem natural

Um objectivo importante da pesquisa do AI é permitir que computadores para se comunicar em línguas naturais como o Inglês. Um sucesso inicial foi Daniel Bobrow programa 's ESTUDANTE , que poderia resolver problemas de palavra álgebra do ensino médio.

A rede semântica representa conceitos (por exemplo, "casa", "porta") como nós e as relações entre os conceitos (por exemplo, "tem-um") como as ligações entre os nós. O primeiro programa AI para usar uma rede semântica foi escrito por Ross Quillian ea versão mais bem sucedida (e controverso) foi Roger Schank 's teoria da dependência conceitual .

Joseph Weizenbaum 's ELIZA podia realizar conversas que eram tão realista que os usuários ocasionalmente foram enganado em pensar que eles estavam se comunicando com um ser humano e não um programa. Mas, na verdade, Eliza não tinha ideia do que ela estava falando. Ela simplesmente deu uma resposta pronta ou repetido de volta o que foi dito a ela, reformular sua resposta com algumas regras de gramática. ELIZA foi o primeiro chatterbot .

Micro-mundos

No final dos anos 60, Marvin Minsky e Seymour Papert do MIT AI Laboratório propôs que a pesquisa AI deve se concentrar em situações artificialmente simples conhecidos como micro-mundos. Eles apontaram que em ciências de sucesso como física, princípios básicos eram muitas vezes mais bem compreendida utilizando modelos simplificados como aviões sem atrito ou órgãos perfeitamente rígidas. Grande parte da investigação focada em um " blocos mundo ", que consiste de blocos coloridos de várias formas e tamanhos dispostas em uma superfície plana.

Esse paradigma levou ao trabalho inovador na visão de máquina por Gerald Sussman (que liderou a equipe), Adolfo Guzman , David Waltz (que inventou " a propagação de restrições "), e especialmente Patrick Winston . Ao mesmo tempo, Minsky e Papert construíram um braço robótico que poderia empilhar blocos, trazendo o mundo blocos para a vida. O coroamento do programa de micro-mundo era Terry Winograd 's SHRDLU . Ele poderia comunicar em frases em inglês comuns, planejar operações e executá-los.

o otimismo

A primeira geração de pesquisadores AI fez estas previsões sobre o seu trabalho:

  • 1958, HA Simon e Allen Newell : "dentro de dez anos um computador digital vai descobrir e provar um importante novo teorema matemático" "dentro de dez anos um computador digital será campeão de xadrez do mundo" e
  • 1965, HA Simon : "máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem pode fazer"
  • 1967 Marvin Minsky : "Dentro de uma geração ... o problema da criação de 'inteligência artificial' será substancialmente ser resolvido."
  • 1970 Marvin Minsky (na vida Revista ): "Em de três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio."

O dinheiro

Em junho de 1963, MIT recebeu uma doação de US $ 2.2 milhões da Agência de Projetos de Pesquisa Avançada recém-criado (mais tarde conhecida como DARPA ). O dinheiro foi usado para financiar projeto MAC que subsumido o "Grupo AI" fundada por Minsky e McCarthy cinco anos antes. DARPA continuou a fornecer três milhões de dólares por ano até os anos 70. DARPA fez doações semelhantes para Newell e Simon programa na CMU e ao Projeto de Stanford AI (fundada por John McCarthy em 1963). Outra importante laboratório AI foi estabelecida na Universidade de Edimburgo por Donald Michie em 1965. Estes quatro instituições que continuam a ser os principais centros de pesquisa do AI (e financiamento) na academia por muitos anos.

O dinheiro foi proferida com poucas amarras: JCR Licklider , em seguida, o diretor da ARPA , acredita que a sua organização deve "Fundo de pessoas, e não projetos!" e permitiu aos pesquisadores seguir o que quer que as direções poderia interessá-los. Isto criou uma atmosfera roda livre no MIT que deu origem à cultura hacker , mas este "mãos fora" abordagem não iria durar.

Robotics

No Japão, a Universidade Waseda iniciou o projeto WABOT em 1967, e em 1972 completou a WABOT-1, o primeiro de grande escala inteligente do mundo robô humanóide , ou android . Seu sistema de controle de membros permitido para andar com os membros inferiores, e de manusear e transportar objectos com as mãos, usando sensores táteis. Seu sistema de visão lhe permitiu medir distâncias e direções para objetos usando receptores externos, os olhos artificiais e ouvidos. E seu sistema de conversação permitido para se comunicar com uma pessoa em japonês, com uma boca artificial.

O primeiro inverno AI 1974-1980

Na década de 1970, AI foi objecto de críticas e reveses financeiros. Pesquisadores de IA não conseguiram apreciar a dificuldade dos problemas que enfrentaram. Seu enorme otimismo tinha levantado expectativas impossivelmente alto, e quando os resultados prometidos não se concretizaram, o financiamento para AI desapareceu. Ao mesmo tempo, o campo de connectionism (ou redes neurais ) foi fechado quase completamente por 10 anos por Marvin Minsky 's crítica devastadora de perceptrons . Apesar das dificuldades com a percepção pública da AI no final dos anos 70, novas idéias foram exploradas na programação em lógica , o raciocínio do senso comum e muitas outras áreas.

Os problemas

No início dos anos setenta, as capacidades dos programas de IA eram limitadas. Mesmo o mais impressionante só poderia lidar com versões triviais dos problemas que deveriam resolver; todos os programas eram, em certo sentido, "brinquedos". pesquisadores de IA tinha começado a correr em vários limites fundamentais que não podem ser superados na década de 1970. Embora alguns desses limites seria conquistada em décadas posteriores, outros ainda frustrar o campo para este dia.

  • Alimentação do computador limitada : Não há suficiente memória ou a velocidade de processamento para realizar qualquer coisa verdadeiramente útil. Por exemplo, Ross Quillian trabalho bem sucedido 's na linguagem natural foi demonstrado com um vocabulário de apenas vinte palavras, porque isso era tudo o que se encaixam na memória. Hans Moravec argumentou em 1976 que os computadores ainda eram milhões de vezes demasiado fracos para expor inteligência. Ele sugeriu uma analogia: a inteligência artificial requer alimentação do computador da mesma forma que as aeronaves exigem cavalos de potência . Abaixo de um determinado limiar, é impossível, mas, como de energia aumenta , eventualmente, ele poderia se tornar fácil. Com relação à visão computacional, Moravec estimou que simplesmente combinando as capacidades de ponta e de detecção de movimento de retina humana em tempo real exigiria um computador de uso geral capaz de 10 9 operações / segundo (1000 MIPS). A partir de 2011, as aplicações práticas de visão computacional requerem 10.000 a 1.000.000 MIPS. Em comparação, o supercomputador mais rápido em 1976, Cray-1 (varejo em US $ 5 milhões a US $ 8 milhões), só foi capaz de cerca de 80 a 130 MIPS, e um computador desktop típico no momento alcançou menos de 1 MIPS.
  • Intratabilidade ea explosão combinatória . Em 1972 Richard Karp (edifício em Stephen Cook 1971 's teorema ) mostrou existem muitos problemas que podem provavelmente apenas ser resolvidos em tempo exponencial (no tamanho das entradas). Encontrando as melhores soluções para esses problemas requer quantidades inimagináveis de tempo de computador, exceto quando os problemas são triviais. Isso certamente fez com que muitas das soluções "brinquedo" usados pelo AI provavelmente nunca escalar em sistemas úteis.
  • Conhecimento do senso comum e raciocínio . Muitas aplicações de inteligência artificial importantes como a visão ou linguagem natural exigem simplesmente uma enorme quantidade de informações sobre o mundo: o programa precisa ter alguma idéia do que poderia estar a olhar para ou o que ele está falando. Isto requer que o programa conhece a maioria das mesmas coisas sobre o mundo que uma criança faz. Os pesquisadores logo descobriram que este era um verdadeiramente grande quantidade de informações. Ninguém em 1970 poderia construir uma base de dados tão grande e ninguém sabia como um programa pode aprender tanta informação.
  • Paradoxo de Moravec : provar teoremas e resolver problemas de geometria é relativamente fácil para computadores, mas uma tarefa supostamente simples como reconhecer um rosto ou atravessar uma sala sem esbarrar em nada é extremamente difícil. Isso ajuda a explicar por que a pesquisa em visão e robótica tinha feito tão pouco progresso em meados dos anos 1970.
  • Os quadros e qualificação problemas . Pesquisadores de IA (como John McCarthy ) que usaram a lógica descobriu que não poderia representar deduções comuns que envolvem o planejamento ou o raciocínio padrão sem fazer alterações à estrutura da própria lógica. Eles desenvolveram novas lógicas (como lógicas não-monotônicas e lógicas modais ) para tentar resolver os problemas.

O fim do financiamento

As agências que financiou a pesquisa AI (como o governo britânico , DARPA e NRC ) tornou-se frustrado com a falta de progresso e, eventualmente, cortar quase todo o financiamento para a pesquisa undirected em AI. O padrão começou logo em 1966, quando o ALPAC relatório apareceu criticando os esforços de tradução automática. Depois de passar 20 milhões de dólares, o NRC terminou todo o apoio. Em 1973, o relatório Lighthill sobre o estado da investigação AI na Inglaterra criticou o fracasso total da AI para atingir os seus "objetivos grandiosos" e levou ao desmantelamento de pesquisa AI naquele país. (O relatório mencionou especificamente a explosão combinatória problema como uma razão para as falhas da AI.) DARPA foi profundamente decepcionado com pesquisadores que trabalham no Research compreensão da fala programa na CMU e cancelou uma subvenção anual de três milhões de dólares. Em 1974, o financiamento de projectos AI era difícil de encontrar.

Hans Moravec culpou a crise nas previsões irrealistas de seus colegas. "Muitos pesquisadores foram apanhados numa teia de aumentar exagero." No entanto, houve outro problema: uma vez que a passagem do Mansfield Emenda em 1969, DARPA tinha estado sob pressão crescente para financiar "pesquisa direta orientada a missão, ao invés de pesquisa sem direção básica". O financiamento para a exploração criativa, roda livre que tinha ido na década de 60 não viria de DARPA . Em vez disso, o dinheiro foi direcionado para projetos específicos com objetivos claros, como tanques autónomas e sistemas de gerenciamento de batalha.

Críticas de todo campus

Vários filósofos tinham fortes objeções às reivindicações que estão sendo feitas por pesquisadores de IA. Um dos primeiros foi John Lucas , que argumentou que de Gödel teorema da incompletude mostrou que um sistema formal (como um programa de computador) nunca poderia ver a verdade de certas declarações, enquanto que um ser humano poderia. Hubert Dreyfus ridicularizou as promessas quebradas da década de 1960 e criticou os pressupostos da AI, argumentando que o raciocínio humano realmente envolvidos muito pouco "processamento símbolo" e uma grande quantidade de encarnado , instintiva , inconsciente " saber como ". John Searle 's Chinese quarto argumento, apresentado em 1980, tentou mostrar que um programa não pode ser dito para 'entender' os símbolos que ele usa (uma qualidade chamada de ' intencionalidade '). Se os símbolos não têm significado para a máquina, Searle argumentou, em seguida, a máquina não pode ser descrito como "pensar".

Estas críticas não foram levadas a sério por pesquisadores de IA, muitas vezes porque parecia tão longe do ponto. Problemas como intratabilidade e conhecimento do senso comum parecia muito mais imediata e grave. Não ficou claro que diferença " sabe " ou " intencionalidade " feita para um programa de computador real. Minsky disse de Dreyfus e Searle "eles não compreendem, e deve ser ignorado." Dreyfus, que ensinou no MIT , foi dado um ombro frio: ele disse mais tarde que os pesquisadores AI "não se atrevia a ser visto almoçando comigo." Joseph Weizenbaum , o autor de ELIZA , sentiu tratamento da de seus colegas Dreyfus foi profissional e infantil. Embora ele era um crítico ferrenho de posições de Dreyfus, ele 'deliberadamente deixou claro que a deles não era a maneira de tratar um ser humano.'

Weizenbaum começou a ter sérias dúvidas éticas sobre AI quando Kenneth Colby escreveu um "programa de computador que pode conduzir o diálogo psicoterapêutico" com base em ELIZA. Weizenbaum foi perturbado que Colby viu um programa de descuidada como uma ferramenta terapêutica sério. A rixa começou, e a situação não foi ajudada quando Colby não creditar Weizenbaum por sua contribuição para o programa. Em 1976, Weizenbaum publicada Computer Poder ea razão humana , que argumentou que o mau uso da inteligência artificial tem o potencial para desvalorizar a vida humana.

Perceptrons e a idade escura do connectionism

Um perceptron era uma forma de rede neural introduzido em 1958 por Frank Rosenblatt , que tinha sido um colega de escola de Marvin Minsky no Bronx High School of Ciência . Como a maioria dos pesquisadores de IA, ele estava otimista sobre o seu poder, prevendo que "perceptron pode, eventualmente, ser capaz de aprender, tomar decisões e traduzir línguas." Um programa de pesquisa ativa no paradigma foi realizado ao longo dos anos 1960, mas chegou a um impasse súbita com a publicação de Minsky e de Papert 1969 livro Perceptrons . Ele sugeriu que havia limitações severas ao que perceptrons poderia fazer e que Frank Rosenblatt previsões 's tinham sido grosseiramente exagerado. O efeito do livro foi devastador: praticamente nenhuma pesquisa em tudo foi feito em connectionism por 10 anos. Eventualmente, uma nova geração de pesquisadores iria reviver o campo e, posteriormente, se tornaria uma parte vital e útil de inteligência artificial. Rosenblatt não viveria para ver isso, como ele morreu em um acidente de barco logo após o livro foi publicado.

O neats: lógica e raciocínio simbólico

Logic foi introduzido na pesquisa AI tão cedo quanto 1958, por John McCarthy em sua Advice Taker proposta. Em 1963, J. Alan Robinson tinha descoberto um método simples de implementar dedução em computadores, a resolução e unificação algoritmo. No entanto, as implementações simples, como aqueles tentada por McCarthy e seus alunos no final dos anos 1960, foram especialmente intratável: os programas necessários números astronômicos de etapas para provar teoremas simples. Uma abordagem mais frutífera para a lógica foi desenvolvido na década de 1970 por Robert Kowalski na Universidade de Edimburgo , e logo isso levou à colaboração com pesquisadores franceses Alain Colmerauer e Philippe Roussel que criou o sucesso linguagem de programação lógica Prolog . Prolog usa um subconjunto da lógica ( cláusulas de Horn , intimamente relacionado com "regras" e " regras de produção ") que permitem a computação tratável. Regras continuariam a ser influente, fornecendo uma base para Edward Feigenbaum 's sistemas especialistas eo trabalho contínuo por Allen Newell e Herbert A. Simon que levaria a Soar e suas teorias unificadas da cognição .

Críticos da abordagem lógica observou, como Dreyfus tinha, que os seres humanos raramente usado lógica quando eles resolveram problemas. Experimentos feitos por psicólogos como Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman e outros, desde a prova. McCarthy respondeu que o que as pessoas fazem é irrelevante. Ele argumentou que o que é realmente necessário são máquinas que podem resolver problemas não máquinas que pensam como as pessoas fazem.

Os scruffies: quadros e scripts

Entre os críticos de McCarthy abordagem foram seus colegas de todo o país no MIT . Marvin Minsky , Seymour Papert e Roger Schank estavam tentando resolver problemas como a "compreensão história" e "reconhecimento de objetos" que necessário uma máquina de pensar como uma pessoa. Para utilizar conceitos comuns como "cadeira" ou "restaurante" eles tiveram que fazer as mesmas suposições ilógico que as pessoas normalmente feitas. Infelizmente, conceitos imprecisos como estes são difíceis de representar em lógica. Gerald Sussman observou que "utilizando linguagem precisa para descrever conceitos essencialmente imprecisas não torná-los mais precisos." Schank descreveram suas abordagens "anti-lógica" como " desalinhado ", em oposição aos " puros paradigmas" usados por McCarthy , Kowalski , Feigenbaum , Newell e Simon .

Em 1975, em um artigo seminal, Minsky observou que muitos dos seus colegas pesquisadores "desalinhado" estavam usando o mesmo tipo de ferramenta: um quadro que captura todas as nossas suposições do senso comum sobre algo. Por exemplo, se usarmos o conceito de um pássaro, há uma constelação de fatos que vêm imediatamente à mente: podemos supor que ele voa, come vermes e assim por diante. Sabemos que esses fatos nem sempre são verdadeiras e que as deduções que usam esses fatos não vai ser "lógico", mas esses conjuntos estruturados de suposições fazem parte do contexto de tudo o que dizem e pensam. Ele chamou essas estruturas " quadros ". Schank usou uma versão de quadros que chamou de " roteiros " para responder com sucesso perguntas sobre histórias curtas em Inglês. Muitos anos depois, programação orientada a objetos seria adotar a idéia essencial da " herança " da pesquisa AI em quadros.

boom de 1980-1987

Na década de 1980 uma forma de programa de AI chamados " sistemas especialistas " foi adotada por corporações ao redor do mundo e conhecimento tornou-se o foco da tradicional pesquisa AI. Nesses mesmos anos, o governo japonês financiou agressivamente AI com o seu computador quinta geração do projeto. Outro evento encorajador no início de 1980 foi o renascimento de connectionism na obra de John Hopfield e David Rumelhart . Mais uma vez, AI tinha alcançado sucesso.

A ascensão de sistemas especialistas

Um sistema especialista é um programa que responde a perguntas ou resolve problemas sobre um domínio específico do conhecimento, usando lógicas regras que são derivados a partir do conhecimento de especialistas. Os primeiros exemplos foram desenvolvidos por Edward Feigenbaum e seus alunos. DENDRAL , iniciada em 1965, a partir de compostos identificados leituras do espectrómetro. MYCIN , desenvolvido em 1972, diagnosticadas doenças infecciosas no sangue. Eles demonstraram a viabilidade da abordagem.

Os sistemas especialistas restringiu-se a um pequeno domínio de conhecimento específico (evitando assim o conhecimento do senso comum problema) e seu design simples tornaram relativamente fácil para os programas a serem construídas e depois modificado, uma vez que estavam no local. Ao todo, os programas provou ser útil : algo que AI não tinha sido capaz de alcançar até este ponto.

Em 1980, um sistema especialista chamado XCON foi concluída na CMU para a Digital Equipment Corporation . Foi um enorme sucesso: ela estava salvando a empresa 40 milhões de dólares por ano até 1986. As corporações ao redor do mundo começaram a desenvolver e implementar sistemas especialistas e em 1985 eles estavam gastando mais de um bilhão de dólares em AI, a maior parte para in-house AI departamentos. Uma indústria cresceu para apoiá-los, incluindo empresas de hardware como Symbolics e Lisp Machines e empresas de software como a IntelliCorp e Aion .

A revolução do conhecimento

O poder dos sistemas especialistas vieram do conhecimento especializado que continham. Eles faziam parte de uma nova direção na pesquisa AI que tinha vindo a ganhar terreno ao longo dos anos 70. "Pesquisadores de IA foram começando a suspeitar-relutantemente, pois violou o cânone científico da parcimônia-que a inteligência pode muito bem ser baseada na capacidade de usar grandes quantidades de conhecimento diversificado de formas diferentes", escreve Pamela McCorduck . "[T] ele grande lição da década de 1970 foi a de que o comportamento inteligente dependia muito sobre como lidar com o conhecimento, às vezes conhecimento bastante detalhado, de um domínio em que uma determinada tarefa leigos". Sistemas baseados em conhecimento e engenharia de conhecimento tornou-se um grande foco de pesquisa AI na década de 1980.

Os anos 1980 também viu o nascimento de Cyc , a primeira tentativa de atacar o problema do conhecimento do senso comum diretamente, criando um enorme banco de dados que contém todos os fatos banais que a pessoa média conhece. Douglas Lenat , que iniciou e liderou o projeto, argumentou que não há nenhum atalho - a única maneira para máquinas de saber o significado dos conceitos humanos é ensiná-los, um conceito de cada vez, com a mão. O projeto não foi prevista para ser concluída durante muitas décadas.

Programas de jogo de xadrez HiTech e pensamento profundo derrotado mestres de xadrez, em 1989. Ambos foram desenvolvidos pela Carnegie Mellon University; Desenvolvimento Deep Thought abriu o caminho para Deep Blue .

O dinheiro retorna: o projeto de quinta geração

Em 1981, o Ministério do Comércio Internacional e Indústria japonês reservou US $ 850 milhões para o computador Quinta geração do projeto. Seus objetivos eram a escrever programas e construir máquinas que poderiam manter conversações, traduzem línguas, interpretar fotos e razão como seres humanos. Para o desgosto de scruffies , eles escolheram Prolog como a linguagem de computador primário para o projeto.

Outros países responderam com novos programas próprios. O Reino Unido começou a ₤ 350 milhões Alvey projeto. Um consórcio de empresas americanas formaram a Microelectronics e Tecnologia Computer Corporation (ou "MCC") para financiar projetos de grande escala no AI e tecnologia da informação. DARPA respondeu bem, fundando a Computing Initiative Estratégico e triplicar seu investimento em TI entre 1984 e 1988.

Uma rede de Hopfield com quatro nós.

O renascimento do connectionism

Em 1982, o físico John Hopfield foi capaz de provar que uma forma de rede neural (agora chamado de " Hopfield net ") poderia aprender e processar informações em uma forma completamente nova. Na mesma época, Geoffrey Hinton e David Rumelhart popularizou um método para redes de formação neurais chamados " backpropagation ", também conhecido como o modo reverso da diferenciação automática publicada por Seppo LINNAINMAA (1970) e aplicados a redes neurais por Paul Werbos . Estas duas descobertas ajudaram a reavivar o campo de connectionism .

O novo campo foi unificado e inspirado pelo aparecimento de processamento paralelo distribuído em 1986, um conjunto de dois volumes de documentos editados por Rumelhart e psicólogo James McClelland . As redes neurais se tornaria bem sucedido comercialmente na década de 1990, quando começaram a ser utilizados como os motores de condução de programas como o reconhecimento óptico de caracteres e reconhecimento de voz .

Busto: o segundo inverno AI 1987-1993

Fascínio da comunidade empresarial com AI subia e descia na década de 1980 no padrão clássico de uma bolha econômica . O colapso foi na percepção da AI por agências governamentais e investidores - o campo continuou a fazer avanços apesar das críticas. Rodney Brooks e Hans Moravec , pesquisadores do campo relacionado de robótica , defendeu uma abordagem totalmente nova para a inteligência artificial.

inverno AI

O termo " AI inverno " foi cunhado por pesquisadores que sobreviveram os cortes de financiamento de 1974, quando eles ficaram preocupados que o entusiasmo para sistemas especialistas tinham espiral fora de controle e que decepção seria certamente seguir. Seus temores tinham fundamento: no final de 1980 e início de 1990, AI sofreu uma série de reveses financeiros.

A primeira indicação de uma mudança no tempo foi o súbito colapso do mercado de hardware especializado AI em 1987. Os computadores desktop da Apple e IBM tinha vindo a ganhar velocidade e poder e em 1987 eles se tornaram mais poderosos do que os mais caros máquinas Lisp feitas por symbolics e outros. Não havia mais uma boa razão para comprá-los. Toda uma indústria que vale meio bilhão de dólares foi demolida durante a noite.

Eventualmente, os primeiros sistemas especialistas de sucesso, como XCON , revelou-se demasiado caro para manter. Eles eram difíceis de atualizar, não podiam aprender, eles eram " frágeis " (ou seja, eles poderiam cometer erros grotescos quando dadas entradas incomuns), e eles foram vítimas de problemas (como o problema de qualificação ) que tinha sido anos identificados anteriormente. Os sistemas especialistas provou ser útil, mas apenas em alguns contextos especiais.

No final de 1980, a Iniciativa de Computação Estratégico cortar o financiamento para AI "profundamente e brutalmente." Nova liderança no DARPA tinha decidido que a AI não era "a próxima onda" e os fundos voltados para projetos que pareciam mais propensos a produzir resultados imediatos.

Em 1991, a impressionante lista de metas escritas em 1981 para o Japão Projeto Geração Quinta não haviam sido cumpridas. Na verdade, alguns deles, como "manter uma conversa casual" não tinha sido atingidos até 2010. Tal como acontece com outros projectos AI, as expectativas tinha corrido muito maior do que o que era realmente possível.

Mais de 300 empresas de IA teve encerramento, falência ou foi adquirido pelo final de 1993, efetivamente terminando a primeira onda comercial da AI.

A importância de ter um corpo: nouvelle AI e razão encarnada

Na década de 1980, vários pesquisadores defenderam uma abordagem completamente nova à inteligência artificial, baseado em robótica. Eles acreditavam que, para mostrar a verdadeira inteligência, uma máquina precisa ter um corpo - ele precisa de perceber, movimento, sobreviver e lidar com o mundo. Eles argumentaram que essas habilidades sensório-motoras são essenciais para habilidades de alto nível como o raciocínio do senso comum e que o raciocínio abstrato foi realmente a menos habilidade humana interessante ou importante (veja o paradoxo de Moravec ). Eles defenderam a construção de inteligência "de baixo para cima."

A abordagem reviveu idéias de cibernética e teoria de controle que haviam sido impopular desde os anos sessenta. Outro precursor foi David Marr , que tinha vindo para MIT no final de 1970 a partir de um histórico de sucesso na neurociência teórica para liderar o grupo que estuda a visão . Ele rejeitou todas as abordagens simbólicas ( ambos de McCarthy lógica e Minsky quadros 's), argumentando que AI necessária para compreender o mecanismo físico de visão de baixo para cima antes de qualquer processamento simbólico ocorreu. (Trabalho de Marr seria interrompida por leucemia em 1980.)

Em um trabalho de 1990, "Os elefantes não jogo de xadrez", robótica pesquisador Rodney Brooks levou objectivo directo na hipótese sistema de símbolos físicos , argumentando que os símbolos nem sempre são necessárias uma vez que "o mundo é o seu próprio melhor modelo. É sempre exatamente-se até o momento. ele sempre tem todos os detalhes que há para ser conhecido. O truque é senti-lo de forma adequada e, muitas vezes suficiente." Nos anos 1980 e 1990, muitos cientistas cognitivos também rejeitou o modelo de processamento símbolo da mente e argumentou que o corpo era essencial para o raciocínio, uma teoria chamada a mente incorporada tese.

AI 1993-2011

O campo da AI, agora mais do que uma metade de um século de idade, finalmente alcançou alguns dos seus objectivos mais antigos. Ela começou a ser utilizado com sucesso em todo o setor de tecnologia, embora um pouco nos bastidores. Alguns o sucesso foi devido ao aumento da potência do computador e alguns foi alcançado concentrando-se em problemas isolados específicos e persegui-los com os mais altos padrões de responsabilidade científica. Ainda assim, a reputação de AI, no mundo dos negócios, pelo menos, foi inferior a intocada. Dentro do campo havia pouco acordo sobre as razões para o fracasso da AI para realizar o sonho de inteligência nível humano que tinha capturado a imaginação do mundo na década de 1960. Juntos, todos esses fatores ajudaram a fragmento AI em subcampos concorrentes focados em problemas particulares ou abordagens, por vezes, mesmo sob novos nomes que disfarçadas o pedigree manchada de "inteligência artificial". AI era tanto mais cautelosa e mais bem sucedido do que nunca tinha sido.

Marcos e lei de Moore

Em 11 de Maio de 1997, Deep Blue se tornou o primeiro sistema de computador que joga xadrez para bater um campeão mundial de xadrez reinante, Garry Kasparov . O super-computador era uma versão especializada de um quadro produzido pela IBM, e foi capaz de processar o dobro de movimentos por segundo, uma vez que teve durante o primeiro jogo (que Deep Blue tinha perdido), supostamente 200.000.000 jogadas por segundo. O evento foi transmitido ao vivo pela internet e recebeu mais de 74 milhões de acessos.

Em 2005, um robô Stanford venceu o DARPA Grand Challenge por condução autônoma para 131 milhas ao longo de uma fuga do deserto unrehearsed. Dois anos mais tarde, uma equipe da CMU ganhou o Desafio Urbano da DARPA por autonomamente navegar 55 milhas em um ambiente urbano ao aderir aos riscos de tráfego e todas as leis de trânsito. Em fevereiro de 2011, em um Jeopardy! quiz show partida de exibição, IBM 's sistema de atendimento pergunta , Watson , derrotou os dois maiores Jeopardy! campeões, Brad Rutter e Ken Jennings , por uma margem significativa.

Estes sucessos não eram devido a algum novo paradigma revolucionário, mas principalmente sobre a aplicação tediosa de habilidade de engenharia e no enorme aumento na velocidade e capacidade de computador dos anos 90. Na verdade, do Deep Blue computador era de 10 milhões de vezes mais rápido que o Ferranti Mark 1 que Christopher Strachey ensinou a jogar xadrez em 1951. Este aumento dramático é medido pela lei de Moore , que prevê que a velocidade e capacidade de memória dos computadores dobra a cada dois anos. O problema fundamental da "energia do computador raw" foi lentamente sendo superado.

Os agentes inteligentes

Um novo paradigma chamado de " agentes inteligentes " se tornou amplamente aceita durante a década de 1990. Embora os pesquisadores anteriores haviam proposto "dividir e conquistar" modular abordagens para a AI, o agente inteligente não alcançou sua forma moderna até Judea Pearl , Allen Newell , Leslie P. Kaelbling , e outros trouxeram conceitos da teoria da decisão e economia no estudo da AI . Quando o economista definição de um agente racional era casado com a ciência da computação definição 's de um objeto ou módulo , o agente inteligente paradigma estava completa.

Um agente inteligente é um sistema que percebe seu ambiente e realiza ações que maximizam suas chances de sucesso. Por esta definição, programas simples que resolvem problemas específicos são "agentes inteligentes", como são seres humanos e organizações de seres humanos, tais como empresas . O paradigma agente inteligente define a pesquisa AI como "o estudo de agentes inteligentes". Esta é uma generalização de algumas definições anteriores do AI: ele vai além de estudar a inteligência humana; estuda todos os tipos de inteligência.

O paradigma deu pesquisadores licença para estudar problemas isolados e encontrar soluções que eram ambos verificável e útil. Ele forneceu uma linguagem comum para descrever os problemas e compartilhar suas soluções com o outro, e com outros campos que também utilizaram conceitos de agentes abstratos, como economia e teoria de controle . Esperava-se que uma completa arquitetura de agentes (como Newell do SOAR ) um dia iria permitir aos investigadores para construir sistemas mais versáteis e inteligentes fora de interagir agentes inteligentes .

"A vitória dos neats"

Pesquisadores AI começou a desenvolver e utilizar ferramentas matemáticas sofisticadas mais do que já teve no passado. Houve uma percepção generalizada de que muitos dos problemas que AI necessários para resolver já estavam sendo trabalhados por pesquisadores em áreas como matemática , economia ou operações de pesquisa . A linguagem matemática compartilhada permitido tanto um maior nível de colaboração com campos mais estabelecidos e bem sucedidos e a obtenção de resultados que eram mensuráveis e demonstráveis; AI tinha se tornado uma mais rigorosa disciplina "científica". Russell & Norvig (2003) descrevem isso como nada menos que uma "revolução" e "a vitória dos neats ".

Judea Pearl altamente influente livro de 1988 's trouxe probabilidade e teoria da decisão em AI. Entre as muitas novas ferramentas em uso eram redes bayesianas , modelos ocultos de Markov , teoria da informação , modelagem estocástica e clássica de otimização . Descrições matemáticas precisas também foram desenvolvidos para " inteligência computacional paradigmas" como redes neurais e algoritmos evolucionários .

AI nos bastidores

Algoritmos originalmente desenvolvidos por pesquisadores AI começou a aparecer como partes de sistemas maiores. AI tinha resolvido uma série de problemas muito difíceis e suas soluções provaram ser úteis em todo o setor de tecnologia, tais como mineração de dados , robótica industrial , logística, reconhecimento de voz , software bancário, diagnóstico médico e Google motor de busca do.

O campo da AI recebeu pouco ou nenhum crédito para estes sucessos na década de 1990 e início de 2000. Muitas das maiores inovações da AI foram reduzidos à condição de apenas mais um item na caixa de ferramentas da informática. Nick Bostrom explica: "Um monte de ponta AI tem filtrada para aplicações gerais, muitas vezes sem ser chamado AI porque uma vez que algo se torna bastante útil e bastante comum que não é rotulado AI mais."

Muitos pesquisadores em AI em 1990 deliberadamente chamado seu trabalho por outros nomes, tais como informática , sistemas baseados em conhecimento , sistemas cognitivos ou inteligência computacional . Em parte, isso pode ser porque eles consideravam seu campo para ser fundamentalmente diferente da AI, mas também os novos nomes de ajuda para obter financiamento. No mundo comercial, pelo menos, as promessas não cumpridas do AI inverno continuou a assombrar pesquisa do AI para a década de 2000, como o New York Times relatou em 2005: "Os cientistas da computação e engenheiros de software evitou o termo inteligência artificial por medo de ser visto como selvagem sonhadores -Eyed ".

Onde está HAL 9000?

Em 1968, Arthur C. Clarke e Stanley Kubrick tinha imaginado que até o ano 2001 , uma máquina existiria com uma inteligência que correspondeu ou superou a capacidade dos seres humanos. O personagem que criou, HAL 9000 , foi baseada em uma crença compartilhada por muitos pesquisadores principais AI que tal máquina existiria pelo ano de 2001.

Em 2001, o fundador AI Marvin Minsky perguntou: "Então a questão é por que nós não conseguimos HAL em 2001?" Minsky acreditava que a resposta é que os problemas centrais, como o raciocínio do senso comum , estavam sendo negligenciadas, enquanto a maioria dos pesquisadores perseguido coisas como aplicações comerciais de redes neurais ou algoritmos genéticos . John McCarthy , por outro lado, ainda culpou o problema de qualificação . Para Ray Kurzweil , a questão é alimentação do computador e, utilizando a Lei de Moore , ele previu que máquinas com a inteligência de nível humano aparecerá por 2029. Jeff Hawkins argumentou que a pesquisa de rede neural ignora as propriedades essenciais do ser humano córtex , preferindo modelos simples que têm foi bem sucedido em resolver problemas simples. Havia muitas outras explicações e para cada havia um programa de investigação correspondente em andamento.

aprendizagem profunda, dados grande e inteligência geral artificial: 2011-presente

Nas primeiras décadas do século 21, o acesso a grandes quantidades de dados (conhecido como " Big Data "), computadores mais rápidos e avançados de aprendizado de máquina técnicas foram aplicadas com sucesso a muitos problemas em toda a economia. Na verdade, McKinsey Global Institute estimou em seu papel famoso "Big data: A próxima fronteira para a inovação, a concorrência e produtividade", que "até 2009, quase todos os setores da economia dos EUA tinham pelo menos uma média de 200 terabytes de dados armazenados" .

Em 2016, o mercado de produtos relacionados com a AI, hardware e software atingiu mais de 8 bilhões de dólares, e o New York Times informou que o interesse em AI tinha chegado a um "frenesi". As aplicações de dados grandes começaram a chegar em outros campos, bem como, tais como modelos de formação em ecologia e para várias aplicações na economia . Os avanços na aprendizagem profunda (particularmente redes neurais convolucionais profundas e redes neurais recorrentes ) dirigiu progresso e pesquisas em imagem e processamento de vídeo, análise de texto, e até mesmo o reconhecimento de voz.

aprendizagem profunda

Aprendizagem profunda é um ramo da aprendizagem de máquina que os modelos de abstrações de alto nível em dados usando um gráfico de profundidade com muitas camadas de processamento. De acordo com a aproximação teorema Universal , deep-ness não é necessário para uma rede neural para ser capaz de aproximar funções contínuas arbitrárias. Mesmo assim, há muitos problemas que são comuns a redes rasas (como overfitting ) que as redes profundas ajudam a evitar. Como tal, as redes neurais profundas são capazes de gerar realisticamente muito mais modelos complexos, em comparação com os seus homólogos rasas.

No entanto, a aprendizagem profunda tem seus próprios problemas. Um problema comum para redes neurais recorrentes é o problema de gradiente de fuga , que é onde gradientes passados entre camadas gradualmente encolher e literalmente desaparecer à medida que eles são arredondados para zero. Houve muitos métodos desenvolvidos para abordar este problema, como a memória de longo-curto prazo unidades.

State-of-the-art arquiteturas de rede neural profunda pode às vezes até mesmo rival precisão humana em áreas como visão computacional, especificamente sobre coisas como o banco de dados MNIST , e tráfego de reconhecimento de sinais.

Motores de processamento linguagem movidos por motores de busca inteligentes podem facilmente bater os seres humanos a responder a perguntas triviais gerais (tais como IBM Watson ), e os recentes desenvolvimentos na aprendizagem profunda têm produzido resultados surpreendentes em competir com os seres humanos, em coisas como Go e Doom (que, sendo um First Person Shooter jogo, tem suscitado alguma controvérsia).

Big Data

Big data refere-se a um conjunto de dados que não podem ser capturados, gerenciados e processados por ferramentas de software convencionais dentro de um determinado período de tempo. É uma enorme quantidade de tomada de decisões, discernimento e capacidade de otimização de processos que requerem novos modelos de processamento. No Big Data Era escrito por Victor Meyer Schonberg e Kenneth Cooke, big data significa que em vez de análise aleatória (inquérito por amostragem), todos os dados são utilizados para análise. As características 5V de dados grandes (propostos pela IBM): Volume , Velocity , Variety , Valor , Veracidade . A importância estratégica da tecnologia de dados grande não é para dominar informações de dados enorme, mas a especializar-se nestes dados significativos. Em outras palavras, se big data é comparado a uma indústria, a chave para perceber a rentabilidade neste setor é aumentar a “ capacidade do processo ” dos dados e perceber o “ valor acrescentado ” dos dados através de “ processamento ”.

inteligência geral artificial

A inteligência artificial é um ramo da ciência da computação que tenta compreender a essência da inteligência e produzir uma nova máquina inteligente que responde de forma semelhante à inteligência humana. A pesquisa nesta área inclui robótica , reconhecimento de voz , reconhecimento de imagem , processamento de linguagem natural e sistemas especialistas. Desde o nascimento da inteligência artificial, teoria e tecnologia tornaram-se mais e mais maduro, e os campos de aplicação têm se expandido. É concebível que os produtos tecnológicos trazidos pela inteligência artificial no futuro será o "container" da sabedoria humana. A inteligência artificial pode simular o processo de informação da consciência humana e pensamento. A inteligência artificial não é a inteligência humana, mas pode ser como o pensamento humano, e pode exceder a inteligência humana. Inteligência geral artificial também é referido como " AI forte ", " AI completo " ou como a capacidade de uma máquina para executar "ação inteligente geral". [3] Fontes acadêmicas reservar "AI forte" para se referir a máquinas capazes de experimentar a consciência.

Veja também

Notas

Referências