Redes Neurais 1: O primeiro modelo de neurônio artificial de McCulloch e Pitts

Obter um embasamento teórico mais robusto em machine learning + não ter encontrado blogs com o formato que eu gosto de ler = me veio a motivação para fazer uma série de posts sobre redes neurais com um pouco mais de profundidade!

Obter um embasamento teórico mais robusto em machine learning + não ter encontrado blogs com o formato que eu gosto de ler = me veio a motivação para fazer uma série de posts sobre redes neurais com um pouco mais de profundidade!

Biologia & Matemática

Começando em 1943. Uma fusão de biologia com matemática criou o paper A Logical Calculus of the Ideas Immanent In Nervous Activity [1]. A junção poderosa produziu um modelo abstrato para os neurônios artificiais criado pelos cientistas Warren S. McCulloch e Walter H. Pitts.

Eles observaram alguns comportamentos dos neurônios biológicos. Entre eles: a observação de fenômenos de refração de sinais caso os neurônios já houvessem sido excitados, um número fixo obrigatório de sinapses para que ele alterasse o seu estado (all-or-none), entre algumas outras características muito interessantes.

Ao final, foram descritas 5 suposições para que os cálculos dos cientistas pudessem ser coerentes. Então eles descreveram (abaixo uma tradução livre direto do paper) os tópicos:

A atividade do neurônio é um processo de “all-or-none“.
Um certo número fixo de sinapses precisam ser “disparadas” dentro de um período de adição latente para excitar o neurônio a qualquer momento. Este número independe de qualquer atividade prévia ou localização do neurônio.
O único delay significativo dentro de um sistema sináptico é o delay sináptico.
A atividade de um inibidor em um determinado momento pára completamente a atividade de um determinado neurônio naquele momento.
A estrutura da rede não se altera com o tempo.(mcculloh; pitts, 1943).

Abaixo segue uma esquemática do modelo de neurônio artificial:

Um neurônio completo com entradas, pesos, uma somatória para calcular o número resultante do Input In vezes o peso Wn (In x Wn) e a função de ativação com o número T de limite para que o neurônio possa ativar em um output y.

A função após a soma, neste caso, aplica-se uma função simples:

  • Pegue a soma dos inputs vezes os pesos (∑Ii  . Wi):
    • Se a soma for > que  o limite T, y = 1;
    • y = 0 caso contrário.

Ao colocarmos os parâmetros corretos neste modelo de neurônios artificiais podemos construir coisas interessantes, como portas lógicas:

NOT, AND e OR gate usando neurônios artificiais. [2].

Em seguida, Rosenblat desenvolveu, incluindo algumas melhorias no modelo proposto por McCulloch e Pitts, o Perceptron.

Toda essa teoria, que começou muitos anos atrás, possibilita, hoje, juntamente com os avanços tecnológicos no quesito de velocidade computacional e memória extremamente veloz, a construção de soluções para problemas muito complexos, que de certa forma ensinam o computador como agir dado uma entrada. Deixou de ser uma programação guiada a algoritmos rígidos e passou a ser uma programação por exemplos e aprendizagem.

É uma mistura de prazer e orgulho viver em uma época como a nossa.

Bom, é isso pessoal. Até o próximo post!

Links e leituras complementares

[1] http://www.cse.chalmers.se/~coquand/AUTOMATA/mcp.pdf
[2] http://www.cs.bham.ac.uk/~jxb/NN/l3.pdf


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *