dezembro 22, 2003

Uma Breve História da Computação (parte V)

Depois de um período de sucessos e crescentes expectativas, o campo da Neurocomputação começou a ter dificuldades de progressão sendo alvo de crescentes criticas e descréditos, culminando estas com o conhecido livro de Minsky e Papert em 1969, Perceptrons, onde os autores mostram matematicamente que o perceptrão não pode aprender funções tão triviais como a função lógica XOR (o Ou Exclusivo). A tese implícita era que todas as redes neuronais sofriam da mesma falha que o perceptrão. Se eram incapazes de aprender as noções lógicas mais básicas, como poderiam ser vistas como um modelo promissor? Esse argumento teve repercussão no meio científico e a Neurocomputação perdeu apoios e investigadores durante cerca de uma década.

É costume pensar que a década de 70 foi uma travessia do deserto no que respeita às descobertas nesta área, mas muito trabalho foi realizado e alguns dos conceitos mais importantes actualmente, surgiram nesse período. Teuvo Kohonen e James Anderson em 1972 propuseram independentemente um modelo de memória associativa, onde o elemento básico neuronal era analógico (contínuo) e não digital (discreto) como nos modelos de McCulloch e de Rosenblatt. Este género de memória é próximo da nossa experiência individual: é-nos fácil associar um tipo de informação com algo que já conhecemos, conseguindo extrair o resto que dificilmente seria lembrado sem a informação inicial (como as primeiras notas de uma música, as palavras de um poema ou as imagens de um filme). Ainda no caminho para um modelo mais realista, Stephen Grossberg investigou os mecanismos de inibição e saturação neuronais (um neurónio biológico possui comportamento muito diferente do normal em estados de saturação) e introduziu a função de activação sigmoidal.

O físico John Hopfield, no início dos anos 80, para além do modelo conhecido por rede associativa de Hopfield, tem como uma das suas principais contribuições a introdução do conceito de energia a partir da matriz de ligações que define a rede neuronal. A dinâmica da rede de Hopfield é construída para minimizar a sua energia e só estabilizar quando atingir um mínimo. Esse mínimo permite guardar um padrão: um estado do sistema que "atrai" outros estados (um atractor portanto, mas definiria este uma dinâmica caótica?).

O passo que deu a partida definitiva para uma nova explosão criativa no campo, foi o trabalho iniciado por Paul Werbos em 1974 (e mais tarde, nos anos 80, por David Rumelhart e colegas) com a apresentação de um algoritmo de aprendizagem para redes de múltiplas camadas, uma generalização do algoritmo de Widrow-Hoff, o conhecido algoritmo de Retropropagação. Finalmente, caia a restrição conjecturada por Minsky dado que as redes neuronais de múltiplas camadas são capazes de aproximar qualquer função! Estava aberto o caminho da aprendizagem neuronal. [cont.]

Sem comentários: