Estrutura de predição de memória - Memory-prediction framework

A estrutura de predição da memória é uma teoria da função cerebral criada por Jeff Hawkins e descrita em seu livro de 2004, On Intelligence . Essa teoria diz respeito ao papel do neocórtex dos mamíferos e suas associações com o hipocampo e o tálamo na correspondência de entradas sensoriais com os padrões de memória armazenados e como esse processo leva a previsões do que acontecerá no futuro.

Visão geral

A teoria é motivada pelas semelhanças observadas entre as estruturas cerebrais (especialmente o tecido neocortical ) que são usadas para uma ampla gama de comportamentos disponíveis aos mamíferos. A teoria postula que o arranjo físico notavelmente uniforme do tecido cortical reflete um único princípio ou algoritmo que sustenta todo o processamento de informações corticais. O princípio básico do processamento é hipotetizado como um loop de feedback / evocação que envolve tanto a participação cortical quanto extra-cortical (a última do tálamo e do hipocampo em particular).

A teoria básica: reconhecimento e previsão em hierarquias bidirecionais

O conceito central da estrutura de predição de memória é que as entradas de baixo para cima são combinadas em uma hierarquia de reconhecimento e evocam uma série de expectativas de cima para baixo codificadas como potencializações. Essas expectativas interagem com os sinais ascendentes para analisar essas entradas e gerar previsões de entradas esperadas subsequentes. Cada nível de hierarquia lembra sequências temporais freqüentemente observadas de padrões de entrada e gera rótulos ou 'nomes' para essas sequências. Quando uma sequência de entrada corresponde a uma sequência memorizada em um determinado nível da hierarquia, um rótulo ou 'nome' é propagado para cima na hierarquia - eliminando assim detalhes em níveis superiores e permitindo que aprendam sequências de ordem superior. Este processo produz invariância aumentada em níveis mais altos. Os níveis mais altos prevêem a entrada futura combinando sequências parciais e projetando suas expectativas para os níveis mais baixos. No entanto, quando ocorre uma incompatibilidade entre a entrada e as sequências memorizadas / previstas, uma representação mais completa se propaga para cima. Isso faz com que 'interpretações' alternativas sejam ativadas em níveis mais elevados, o que, por sua vez, gera outras previsões em níveis mais baixos.

Considere, por exemplo, o processo de visão . As informações ascendentes começam como sinais retinais de baixo nível (indicando a presença de elementos visuais simples e contrastes). Em níveis mais elevados da hierarquia, informações cada vez mais significativas são extraídas, a respeito da presença de linhas , regiões , movimentos , etc. Ainda mais acima na hierarquia, a atividade corresponde à presença de objetos específicos - e então aos comportamentos desses objetos. As informações de cima para baixo fornecem detalhes sobre os objetos reconhecidos e também sobre seu comportamento esperado com o passar do tempo.

A hierarquia sensorial induz uma série de diferenças entre os vários níveis. À medida que se sobe na hierarquia, as representações aumentam:

  • Extensão - por exemplo, áreas maiores do campo visual ou regiões táteis mais extensas.
  • Estabilidade temporal - entidades de nível inferior mudam rapidamente, enquanto percepções de nível superior tendem a ser mais estáveis.
  • Abstração - através do processo de extração sucessiva de características invariantes, entidades cada vez mais abstratas são reconhecidas.

A relação entre o processamento sensorial e motor é um aspecto importante da teoria básica. É proposto que as áreas motoras do córtex consistem em uma hierarquia comportamental semelhante à hierarquia sensorial, com os níveis mais baixos consistindo em comandos motores explícitos para a musculatura e os níveis mais altos correspondendo a prescrições abstratas (por exemplo, 'redimensionar o navegador'). As hierarquias sensoriais e motoras estão intimamente ligadas, com o comportamento dando origem a expectativas sensoriais e percepções sensoriais que conduzem os processos motores.

Finalmente, é importante notar que todas as memórias na hierarquia cortical devem ser aprendidas - esta informação não é pré-programada no cérebro. Portanto, o processo de extrair essa representação do fluxo de entradas e comportamentos é teorizado como um processo que acontece continuamente durante a cognição .

Outros termos

Hawkins tem amplo treinamento como engenheiro elétrico. Outra maneira de descrever a teoria (sugerida em seu livro) é como uma hierarquia de aprendizado de máquinas de estado estocásticas de feed forward . Nessa visão, o cérebro é analisado como um problema de codificação, não muito diferente dos códigos de correção de erros de previsão do futuro. A hierarquia é uma hierarquia de abstração , com os estados das máquinas de nível superior representando condições ou eventos mais abstratos, e esses estados predispondo as máquinas de nível inferior a realizar certas transições. As máquinas de nível inferior modelam domínios limitados de experiência ou controlam ou interpretam sensores ou efetores. Na verdade, todo o sistema controla o comportamento do organismo. Uma vez que a máquina de estado é "feedforward", o organismo responde a eventos futuros previstos a partir de dados anteriores. Por ser hierárquico, o sistema exibe flexibilidade comportamental, produzindo facilmente novas sequências de comportamento em resposta a novos dados sensoriais. Uma vez que o sistema aprende, o novo comportamento se adapta às mudanças nas condições.

Ou seja, o propósito evolutivo do cérebro é predizer o futuro, de maneiras reconhecidamente limitadas, de modo a mudá-lo.

Implementação neurofisiológica

As hierarquias descritas acima são teorizadas para ocorrer principalmente no neocórtex de mamíferos. Em particular, o neocórtex é assumido como consistindo de um grande número de colunas (como suposto também por Vernon Benjamin Mountcastle a partir de considerações anatômicas e teóricas). Cada coluna está sintonizada com um determinado recurso em um determinado nível da hierarquia. Ele recebe entradas de baixo para cima de níveis inferiores e entradas de cima para baixo de níveis superiores. (Outras colunas no mesmo nível também alimentam uma determinada coluna e servem principalmente para inibir as representações exclusivas de ativação.) Quando uma entrada é reconhecida - isto é, um acordo aceitável é obtido entre as fontes bottom-up e top-down - um coluna gera saídas que, por sua vez, se propagam para os níveis inferiores e superiores.

Córtex

Esses processos mapeiam bem as camadas específicas do córtex dos mamíferos. (As camadas corticais não devem ser confundidas com diferentes níveis da hierarquia de processamento: todas as camadas em uma única coluna participam como um elemento em um único nível hierárquico). A entrada ascendente chega à camada 4 (L4), de onde se propaga para L2 e L3 para reconhecimento do conteúdo invariável. A ativação de cima para baixo chega a L2 e L3 via L1 (a camada principalmente axonal que distribui a ativação localmente pelas colunas). L2 e L3 comparam informações de baixo para cima e de cima para baixo e geram os 'nomes' invariantes quando uma correspondência suficiente é alcançada ou os sinais de mais variáveis ​​que ocorrem quando isso falha. Esses sinais são propagados para cima na hierarquia (via L5) e também para baixo na hierarquia (via L6 e L1).

Thalamus

Para contabilizar o armazenamento e o reconhecimento de sequências de padrões, sugere-se uma combinação de dois processos. O tálamo inespecífico atua como uma 'linha de retardo' - ou seja, L5 ativa essa área do cérebro, que reativa L1 após um pequeno retardo. Assim, a saída de uma coluna gera atividade L1, que coincidirá com a entrada para uma coluna que é temporalmente subsequente dentro de uma sequência. Essa ordenação de tempo opera em conjunto com a identificação de nível superior da sequência, que não muda com o tempo; portanto, a ativação da representação de sequência faz com que os componentes de nível inferior sejam previstos um após o outro. (Além desse papel no sequenciamento, o tálamo também é ativo como um ponto intermediário sensorial - esses papéis aparentemente envolvem regiões distintas dessa estrutura anatomicamente não uniforme.)

Hipocampo

Outra estrutura cerebral anatomicamente diversa que supostamente desempenha um papel importante na cognição hierárquica é o hipocampo . É bem conhecido que danos a ambos os hipocampos prejudicam a formação da memória declarativa de longo prazo ; indivíduos com esses danos são incapazes de formar novas memórias de natureza episódica, embora possam relembrar memórias anteriores sem dificuldades e também possam aprender novas habilidades. Na teoria atual, os hipocampos são considerados o nível superior da hierarquia cortical; eles são especializados em reter memórias de eventos que se propagam até o topo. À medida que esses eventos se encaixam em padrões previsíveis, eles se tornam memorizáveis ​​em níveis mais baixos da hierarquia. (Tal movimento de memórias na hierarquia é, incidentalmente, uma previsão geral da teoria.) Assim, os hipocampos memorizam continuamente eventos "inesperados" (isto é, aqueles não previstos em níveis inferiores); se forem danificados, todo o processo de memorização pela hierarquia fica comprometido.

Em 2016, Jeff Hawkins formulou a hipótese de que as colunas corticais não capturavam apenas uma sensação, mas também a localização relativa dessa sensação, em três dimensões em vez de duas ( captura situada ), em relação ao que estava ao seu redor. "Quando o cérebro constrói um modelo do mundo, tudo tem uma localização em relação a todo o resto" - Jeff Hawkins.

Sucessos explicativos e previsões

A estrutura de predição de memória explica uma série de aspectos psicologicamente importantes da cognição. Por exemplo, a capacidade de especialistas em qualquer campo de analisar e lembrar sem esforço problemas complexos em seu campo é uma consequência natural da formação de hierarquias conceituais cada vez mais refinadas. Além disso, a procissão da ' percepção ' para a ' compreensão ' é facilmente compreensível como resultado da combinação das expectativas de cima para baixo e de baixo para cima . As incompatibilidades, em contraste, geram a capacidade requintada da cognição biológica de detectar percepções e situações inesperadas. (Deficiências a esse respeito são uma característica comum das abordagens atuais de inteligência artificial.)

Além dessas explicações subjetivamente satisfatórias, a estrutura também faz várias previsões testáveis . Por exemplo, o importante papel que a predição desempenha em todas as hierarquias sensoriais exige atividade neural antecipatória em certas células em todo o córtex sensorial. Além disso, as células que 'nomeiam' certas invariantes devem permanecer ativas durante a presença dessas invariantes, mesmo se as entradas subjacentes forem alteradas. Os padrões previstos de atividade de baixo para cima e de cima para baixo - sendo os primeiros mais complexos quando as expectativas não são atendidas - podem ser detectáveis, por exemplo, por imagem de ressonância magnética funcional ( fMRI ).

Embora essas previsões não sejam altamente específicas para a teoria proposta, elas são suficientemente inequívocas para tornar possível a verificação ou rejeição de seus princípios centrais. Consulte On Intelligence para obter detalhes sobre as previsões e descobertas.

Contribuição e limitações

Por design, a teoria atual se baseia no trabalho de vários neurobiologistas, e pode-se argumentar que a maioria dessas idéias já foi proposta por pesquisadores como Grossberg e Mountcastle . Por outro lado, a nova separação do mecanismo conceitual (ou seja, processamento bidirecional e reconhecimento invariante) dos detalhes biológicos (ou seja, camadas neurais, colunas e estruturas) estabelece a base para o pensamento abstrato sobre uma ampla gama de processos cognitivos.

A limitação mais significativa dessa teoria é sua atual falta de detalhes. Por exemplo, o conceito de invariância desempenha um papel crucial; Hawkins postula " células de nomes " para pelo menos alguns desses invariantes. (Veja também conjunto neural # Codificação para neurônios avó que executam este tipo de função e neurônios-espelho para um ponto de vista do sistema somatossensorial .) Mas está longe de ser óbvio como desenvolver uma definição matematicamente rigorosa, que carregará a carga conceitual necessária através do domínios apresentados por Hawkins. Da mesma forma, uma teoria completa exigirá detalhes confiáveis ​​sobre a dinâmica de curto prazo e os processos de aprendizagem que permitirão que as camadas corticais se comportem como anunciado.

A IBM está implementando o modelo de Hawkins.

Modelos de aprendizado de máquina

A teoria da predição da memória afirma que um algoritmo comum é empregado por todas as regiões do neocórtex. A teoria deu origem a uma série de modelos de software com o objetivo de simular esse algoritmo comum usando uma estrutura de memória hierárquica. O ano na lista abaixo indica quando o modelo foi atualizado pela última vez.

Modelos baseados em redes bayesianas

Os modelos a seguir usam propagação ou revisão de crença em redes Bayesianas conectadas individualmente .

  • Hierarchical Temporal Memory (HTM), um modelo, uma plataforma de desenvolvimento relacionada e código-fonte da Numenta, Inc. (2008).
  • HtmLib , uma implementação alternativa de algoritmos HTM por Greg Kochaniak com uma série de modificações para melhorar a precisão e velocidade de reconhecimento (2008).
  • Projeto Neocortex , um projeto de código aberto para modelagem de framework de predição de memória (2008).
  • George, Dileep (2005). "Um modelo bayesiano hierárquico de reconhecimento de padrões invariantes no córtex visual". CiteSeerX   10.1.1.132.6744 . Citar diário requer |journal= ( ajuda ) um artigo que descreve o modelo Bayesiano pré-HTM anterior pelo cofundador da Numenta . Este é o primeiro modelo de estrutura de predição de memória que usa redes Bayesianas e todos os modelos acima são baseados nessas ideias iniciais. O código-fonte do Matlab desse modelo estava disponível gratuitamente para download há vários anos.

Outros modelos

  • Implementation of MPF , um artigo de Saulius Garalevicius que descreve um método de classificação e predição em um modelo que armazena sequências temporais e emprega aprendizagem não supervisionada (2005).
  • M5 , uma máquina de padrões para Palm OS que armazena sequências de padrões e lembra os padrões relevantes para seu ambiente atual (2007).
  • BrainGame , classe de previsão de código aberto que aprende padrões e pode ser vinculada a outros preditores (2005).

Veja também

Referências

Leitura adicional

links externos