Neats and scruffies - Neats and scruffies

Limpo e desalinhado são duas abordagens contrastantes para a pesquisa de inteligência artificial (IA). A distinção foi feita na década de 70 e foi tema de discussão até meados dos anos 80. Nos anos 1990 e no século 21, a pesquisa em IA adotou abordagens "puras" quase que exclusivamente e estas provaram ser as mais bem-sucedidas.

"Neats" usa algoritmos baseados em paradigmas formais, como lógica , otimização matemática ou redes neurais . Pesquisadores e analistas habilidosos expressaram a esperança de que um único paradigma formal possa ser estendido e aprimorado para alcançar inteligência geral e superinteligência .

"Scruffies" usam qualquer número de algoritmos e métodos diferentes para atingir um comportamento inteligente. Programas desordenados podem exigir grandes quantidades de codificação manual ou engenharia de conhecimento . Scruffies argumentou que a inteligência geral só pode ser implementada resolvendo um grande número de problemas essencialmente não relacionados, e que não existe uma fórmula mágica que permita aos programas desenvolver inteligência geral de forma autônoma.

A abordagem simples é semelhante à da física, pois usa modelos matemáticos simples como base. A abordagem desordenada é mais parecida com a biologia, em que grande parte do trabalho envolve o estudo e a categorização de diversos fenômenos.

Origem na década de 1970

A distinção entre limpo e desalinhado originou-se em meados da década de 1970, por Roger Schank . Schank usou os termos para caracterizar a diferença entre seu trabalho sobre processamento de linguagem natural (que representava o conhecimento do senso comum na forma de grandes redes semânticas amorfas ) do trabalho de John McCarthy , Allen Newell , Herbert A. Simon , Robert Kowalski e outros cujos trabalhos foi baseado na lógica e extensões formais da lógica. Schank se descreveu como um AI desalinhado. Ele fez essa distinção em linguística, argumentando fortemente contra a visão de linguagem de Chomsky.

A distinção também era parcialmente geográfica e cultural: atributos "desalinhados" foram exemplificados pela pesquisa de IA no MIT sob Marvin Minsky na década de 1970. O laboratório era notoriamente "freewheeling" e os pesquisadores frequentemente desenvolviam programas de IA gastando longas horas ajustando os programas até que eles mostrassem o comportamento necessário. Programas importantes e influentes "desalinhado", desenvolvido no MIT incluído Joseph Weizenbaum de ELIZA , que se comportou como se falava Inglês, sem qualquer conhecimento formal em tudo, e Terry Winograd 's SHRDLU , o que poderia responder com êxito consultas e realizar ações em um mundo simplificado que consiste em blocos e um braço de robô. O SHRDLU, embora bem-sucedido, não pôde ser ampliado em um sistema útil de processamento de linguagem natural, porque carecia de um design estruturado. Manter uma versão maior do programa provou ser impossível, ou seja, era muito sujo para ser estendido.

Outros laboratórios de IA (dos quais os maiores foram Stanford , Carnegie Mellon University e a University of Edinburgh ) se concentraram na lógica e na solução formal de problemas como base para a IA. Essas instituições apoiaram o trabalho de John McCarthy, Herbert Simon, Allen Newell, Donald Michie , Robert Kowalski e outros "legais".

O contraste entre a abordagem do MIT e outros laboratórios também foi descrito como uma "distinção processual / declarativa". Programas como o SHRDLU foram concebidos como agentes que realizam ações. Eles executaram "procedimentos". Outros programas foram projetados como motores de inferência que manipulavam declarações formais (ou "declarações") sobre o mundo e traduziam essas manipulações em ações.

Em seu discurso presidencial de 1983 para a Association for the Advancement of Artificial Intelligence , Nils Nilsson discutiu a questão, argumentando que "o campo precisava de ambos". Ele escreveu "muito do conhecimento que desejamos que nossos programas tenham pode e deve ser representado declarativamente em algum tipo de formalismo declarativo e lógico. Estruturas ad hoc têm seu lugar, mas a maioria delas vem do próprio domínio". Alex P. Pentland e Martin Fischler, da SRI International, concordaram sobre o papel antecipado da dedução e dos formalismos lógicos na pesquisa futura de IA, mas não na extensão que Nilsson descreveu.

Projetos complicados na década de 1980

A abordagem desleixada foi aplicada à robótica por Rodney Brooks em meados da década de 1980. Ele defendeu a construção de robôs que eram, como ele disse, Rápidos, baratos e fora de controle , o título de um artigo de 1989 em coautoria com Anita Flynn. Ao contrário de robôs anteriores, como Shakey ou o carrinho de Stanford, eles não construíram representações do mundo analisando informações visuais com algoritmos extraídos de técnicas matemáticas de aprendizado de máquina , e não planejaram suas ações usando formalizações baseadas em lógica, como o ' Linguagem do planejador . Eles simplesmente reagiram aos seus sensores de uma forma que tendia a ajudá-los a sobreviver e se mover.

O projeto Cyc de Douglas Lenat foi iniciado em 1984, um dos primeiros e mais ambiciosos projetos para capturar todo o conhecimento humano em uma forma legível por máquina, é "uma empresa decididamente desleixada". O banco de dados Cyc contém milhões de fatos sobre todas as complexidades do mundo, cada um dos quais deve ser inserido um de cada vez, por engenheiros do conhecimento. Cada uma dessas entradas é uma adição ad hoc à inteligência do sistema. Embora possa haver uma solução "legal" para o problema do conhecimento de senso comum (como algoritmos de aprendizado de máquina com processamento de linguagem natural que poderiam estudar o texto disponível na Internet), nenhum projeto desse tipo ainda foi bem-sucedido.

A Sociedade da Mente

Em 1986, Marvin Minsky publicou The Society of Mind, que defendia uma visão da inteligência e da mente como uma comunidade de módulos ou agentes em interação , cada um lidando com diferentes aspectos da cognição, onde alguns módulos eram especializados para tarefas muito específicas (por exemplo, detecção de bordas no visual córtex) e outros módulos foram especializados para gerenciar a comunicação e priorização (por exemplo, planejamento e atenção nos lobos frontais). Minsky apresentou este paradigma como um modelo de inteligência humana biológica e como um projeto para trabalhos futuros em IA.

Esse paradigma é explicitamente "desordenado", pois não espera que haja um único algoritmo que possa ser aplicado a todas as tarefas envolvidas no comportamento inteligente. Minsky escreveu:

Que truque mágico nos torna inteligentes? O truque é que não há truque. O poder da inteligência decorre de nossa vasta diversidade, não de qualquer princípio único e perfeito.

Em 1991, Minsky ainda estava publicando artigos avaliando as vantagens relativas das abordagens ordenadas versus desleixadas, por exemplo, “Lógico Versus Analógico ou Simbólico Versus Connectionist ou Neat Versus Scruffy”.

"A vitória dos neats" na década de 1990

Novas abordagens estatísticas e matemáticas para IA foram desenvolvidas na década de 1990, usando formalismos altamente desenvolvidos, como otimização matemática e redes neurais . Esta tendência geral para métodos mais formais em IA é descrita como "a vitória dos neats" por Peter Norvig e Stuart Russell . Pamela McCorduck escreveu que "Enquanto escrevo, a IA desfruta de uma hegemonia nítida, pessoas que acreditam que a inteligência da máquina, pelo menos, é melhor expressa em termos lógicos, até matemáticos."

Soluções simples para problemas como aprendizado de máquina e visão computacional foram muito bem-sucedidas no século 21. Essas soluções, no entanto, têm sido aplicadas principalmente a problemas específicos com soluções específicas, e o problema de inteligência geral artificial (AGI) permanece sem solução.

Os termos "limpo" e "desalinhado" não são frequentemente usados ​​pelos pesquisadores de IA no século 21, com algumas exceções, como as palestras de Karl Friston sobre o princípio da energia livre , onde ele se refere aos físicos como "Neats" e aos pesquisadores de IA como " Scruffies "(e filósofos como" Místicos ").

Exemplos bem conhecidos

Neats

Scruffies

Veja também

Notas

Citações

Referências

  • Brockman, John (7 de maio de 1996). Terceira cultura: além da revolução científica . Simon e Schuster . Retirado em 2 de agosto de 2021 .
  • Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence . Nova York, NY: BasicBooks. ISBN 0-465-02997-3..
  • Lehnert, Wendy C. (1 de maio de 1994). "5: Cognição, computadores e carros-bomba: como Yale me preparou para os anos 90". Em Schank, Robert; Langer, Ellen (eds.). Crenças, raciocínio e tomada de decisão: Psycho-Logic in Honor of Bob Abelson (Primeira edição). Nova York, NY: Taylor & Francis Group. p. 150 . Retirado em 2 de agosto de 2021 .
  • Minsky, Marvin (1986). A Sociedade da Mente . Nova York: Simon & Schuster. ISBN 0-671-60740-5.
  • McCorduck, Pamela (2004), Machines Who Think (2ª ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
  • Russell, Stuart J .; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2ª ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • Winograd, Terry; Flores (1986). Compreendendo computadores e cognição: uma nova base para o design . Ablex Publ Corp.

Leitura adicional