Inteligência computacional - Computational intelligence

A expressão inteligência computacional ( CI ) geralmente se refere à capacidade de um saco de lixo aprender uma tarefa específica a partir de dados ou observação experimental. Embora seja comumente considerado um sinônimo de computação suave , ainda não existe uma definição comumente aceita de inteligência computacional.

Geralmente, a inteligência computacional é um conjunto de metodologias computacionais inspiradas na natureza e abordagens para resolver problemas complexos do mundo real para os quais a modelagem matemática ou tradicional pode ser inútil por alguns motivos: os processos podem ser muito complexos para o raciocínio matemático, podem conter alguns incertezas durante o processo, ou o processo pode ser simplesmente estocástico por natureza. Na verdade, muitos problemas da vida real não podem ser traduzidos em linguagem binária (valores únicos de 0 e 1) para que os computadores os processem. A inteligência computacional, portanto, fornece soluções para tais problemas.

Os métodos utilizados aproximam-se do raciocínio humano, ou seja, utiliza conhecimentos inexatos e incompletos e é capaz de produzir ações de controle de forma adaptativa. A CI, portanto, usa uma combinação de cinco técnicas complementares principais. A lógica difusa que permite ao computador compreender a linguagem natural , as redes neurais artificiais que permitem ao sistema aprender dados experienciais operando como o biológico, a computação evolutiva , que se baseia no processo de seleção natural, teoria da aprendizagem e métodos probabilísticos que ajuda a lidar com a imprecisão da incerteza.

Exceto esses princípios principais, as abordagens atualmente populares incluem algoritmos de inspiração biológica, como inteligência de enxame e sistemas imunológicos artificiais , que podem ser vistos como parte da computação evolutiva , processamento de imagens, mineração de dados, processamento de linguagem natural e inteligência artificial, que tende a ser confundido com Inteligência Computacional. Mas embora a Inteligência Computacional (CI) e a Inteligência Artificial (IA) busquem objetivos semelhantes, há uma distinção clara entre elas.

A Inteligência Computacional é, portanto, uma forma de atuar como seres humanos. Na verdade, a característica de "inteligência" geralmente é atribuída aos humanos. Mais recentemente, muitos produtos e itens também afirmam ser "inteligentes", atributo que está diretamente ligado ao raciocínio e à tomada de decisão.

História

Fonte: A noção de Inteligência Computacional foi usada pela primeira vez pelo IEEE Neural Networks Council em 1990. Este Conselho foi fundado na década de 1980 por um grupo de pesquisadores interessados ​​no desenvolvimento de redes neurais biológicas e artificiais. Em 21 de novembro de 2001, o IEEE Neural Networks Council se tornou a IEEE Neural Networks Society, para se tornar a IEEE Computational Intelligence Society dois anos depois, incluindo novas áreas de interesse, como sistemas fuzzy e computação evolutiva, relacionadas à Inteligência Computacional em 2011 (Dote e Ovaska).

Mas a primeira definição clara de Inteligência Computacional foi introduzida por Bezdek em 1994: um sistema é chamado de inteligência computacional se lida com dados de baixo nível, como dados numéricos, tem um componente de reconhecimento de padrão e não usa conhecimento no sentido de IA, e, adicionalmente, quando começa a exibir de forma adaptativa computacional, tolerância a falhas, velocidade de recuperação semelhante à humana e taxas de erro que se aproximam do desempenho humano.

Bezdek e Marks (1993) diferenciaram claramente a CI da IA, argumentando que a primeira é baseada em métodos de computação suave , enquanto a IA é baseada em métodos de computação pesada.

Diferença entre Inteligência Computacional e Artificial

Embora a Inteligência Artificial e a Inteligência Computacional busquem um objetivo semelhante de longo prazo: atingir a inteligência geral , que é a inteligência de uma máquina capaz de realizar qualquer tarefa intelectual que um ser humano pode; há uma diferença clara entre eles. Segundo Bezdek (1994), a Inteligência Computacional é um subconjunto da Inteligência Artificial.

Existem dois tipos de inteligência de máquina: a artificial baseada em técnicas de hard computing e a computacional baseada em métodos de soft computing, que permitem a adaptação a muitas situações.

As técnicas de computação rígida funcionam de acordo com a lógica binária com base em apenas dois valores (os booleanos verdadeiro ou falso, 0 ou 1) nos quais os computadores modernos se baseiam. Um problema com essa lógica é que nossa linguagem natural nem sempre pode ser traduzida facilmente em termos absolutos de 0 e 1. Técnicas de computação soft, baseadas em lógica fuzzy, podem ser úteis aqui. Muito mais próximo da forma como o cérebro humano funciona agregando dados a verdades parciais (sistemas Crisp / fuzzy), essa lógica é um dos principais aspectos exclusivos do IC.

Dentro dos mesmos princípios das lógicas fuzzy e binária, siga os sistemas crocantes e fuzzy . A lógica nítida faz parte dos princípios da inteligência artificial e consiste em incluir ou não um elemento em um conjunto, enquanto os sistemas fuzzy (IC) permitem que os elementos estejam parcialmente em um conjunto. Seguindo essa lógica, cada elemento pode receber um grau de pertinência (de 0 a 1) e não exclusivamente um desses 2 valores.

Os cinco princípios básicos da CI e suas aplicações

As principais aplicações da Inteligência Computacional incluem ciência da computação , engenharia, análise de dados e biomedicina .

Lógica Fuzzy

Como explicado antes, a lógica fuzzy , um dos principais princípios da CI, consiste em medições e modelagem de processos feita para processos complexos da vida real. Ele pode enfrentar a incompletude e, mais importante, a ignorância dos dados em um modelo de processo, ao contrário da Inteligência Artificial, que requer conhecimento exato.

Essa técnica tende a se aplicar a uma ampla gama de domínios, como controle, processamento de imagem e tomada de decisão. Mas também está bem introduzido no campo dos eletrodomésticos com máquinas de lavar, fornos microondas, etc. Podemos enfrentá-lo também ao usar uma câmera de vídeo, onde ajuda a estabilizar a imagem enquanto segura a câmera de forma instável. Outras áreas, como diagnósticos médicos, negociação de câmbio e seleção de estratégias de negócios, estão além do número de aplicações desse princípio.

A lógica difusa é útil principalmente para o raciocínio aproximado e não possui habilidades de aprendizagem, uma qualificação muito necessária aos seres humanos. Isso permite que eles se aprimorem aprendendo com seus erros anteriores.

Redes neurais

É por isso que os especialistas em IC trabalham no desenvolvimento de redes neurais artificiais baseadas nas biológicas , que podem ser definidas por 3 componentes principais: o corpo celular que processa a informação, o axônio, que é um dispositivo que permite a condução do sinal, e a sinapse, que controla os sinais. Portanto, as redes neurais artificiais são dotadas de sistemas de processamento de informações distribuídas, possibilitando o processo e o aprendizado a partir dos dados experienciais. Trabalhando como seres humanos, a tolerância a falhas também é um dos principais ativos desse princípio.

Quanto às suas aplicações, as redes neurais podem ser classificadas em cinco grupos: análise e classificação de dados, memória associativa, geração de padrões de clustering e controle. Geralmente, este método visa analisar e classificar dados médicos, proceder à detecção e detecção de fraudes e, principalmente, lidar com as não linearidades de um sistema para controlá-lo. Além disso, as técnicas de redes neurais compartilham com as de lógica difusa a vantagem de possibilitar o agrupamento de dados .

Computação evolutiva

Com base no processo de seleção natural introduzido pela primeira vez por Charles Robert Darwin , a computação evolutiva consiste em capitalizar a força da evolução natural para trazer novas metodologias evolutivas artificiais. Também inclui outras áreas como estratégia de evolução e algoritmos evolutivos que são vistos como solucionadores de problemas ... As principais aplicações deste princípio cobrem áreas como otimização e otimização multi-objetivo , às quais as técnicas matemáticas tradicionais não são mais suficientes para se aplicar a uma ampla gama de problemas, como análise de DNA , problemas de programação ...

Teoria de aprendizagem

Ainda em busca de uma forma de "raciocínio" próxima à dos humanos, a teoria da aprendizagem é uma das principais abordagens da IC. Em psicologia, aprendizagem é o processo de reunir efeitos e experiências cognitivas, emocionais e ambientais para adquirir, aprimorar ou mudar conhecimentos, habilidades, valores e visões de mundo (Ormrod, 1995; Illeris, 2004). As teorias de aprendizagem ajudam a compreender como esses efeitos e experiências são processados ​​e, a seguir, ajuda a fazer previsões com base na experiência anterior.

Métodos probabilísticos

Sendo um dos principais elementos da lógica fuzzy, os métodos probabilísticos introduzidos inicialmente por Paul Erdos e Joel Spencer (1974), visam avaliar os resultados de um sistema Computacional Inteligente, definido em grande parte pela aleatoriedade . Portanto, os métodos probabilísticos trazem as soluções possíveis para um problema, com base no conhecimento prévio.

Impacto na educação universitária

De acordo com estudos bibliométricos , a inteligência computacional desempenha um papel fundamental na pesquisa. Todas as principais editoras acadêmicas estão aceitando manuscritos nos quais uma combinação de lógica Fuzzy, redes neurais e computação evolucionária é discutida. Por outro lado, a inteligência computacional não está disponível no currículo universitário . A quantidade de universidades técnicas nas quais os alunos podem frequentar um curso é limitada. Apenas a British Columbia, a Technical University of Dortmund (envolvida no boom europeu fuzzy) e a Georgia Southern University estão oferecendo cursos neste domínio.

A razão pela qual grandes universidades estão ignorando o tópico é porque eles não têm os recursos. Os cursos de informática existentes são tão complexos, que no final do semestre não há espaço para lógica fuzzy . Às vezes, é ensinado como um subprojeto em cursos de introdução existentes, mas na maioria dos casos as universidades estão preferindo cursos sobre conceitos clássicos de IA baseados na lógica booleana, máquinas de turing e problemas de brinquedos como o mundo dos blocos.

Há algum tempo, com o aumento da educação STEM , a situação mudou um pouco. Existem alguns esforços disponíveis nos quais abordagens multidisciplinares são preferidas, o que permite ao aluno compreender sistemas adaptativos complexos. Esses objetivos são discutidos apenas em uma base teórica. O currículo das universidades reais ainda não foi adaptado.

Publicações

Veja também

Notas

  • Inteligência computacional: uma introdução por Andries Engelbrecht. Wiley & Sons. ISBN  0-470-84870-7
  • Computational Intelligence: A Logical Approach, de David Poole, Alan Mackworth, Randy Goebel. Imprensa da Universidade de Oxford. ISBN  0-19-510270-3
  • Computational Intelligence: A Methodological Introduction por Kruse, Borgelt, Klawonn, Moewes, Steinbrecher, Held, 2013, Springer, ISBN  9781447150121

Referências