
Modelo computacional conseguiu identificar quando animais apareciam nas imagens (Foto: Divulgação)
Programa consegue diferenciar em pouco tempo os objetos “vistos”.
Novidade pode representar melhoras em robôs e câmeras inteligentes de segurança.
O cérebro humano consegue diferenciar um animal de outro objeto em movimento em cerca de 20 milisegundos, uma habilidade que pode ser importante para sua sobrevivência. Atentos a essa característica, cientistas do Massachusetts Institute of Technology (MIT) desenvolveram um modelo computacional que pode resultar em melhoras na visão de robôs e também nas câmeras inteligentes de segurança.
O programa simula grupos de neurônios encontrados no córtex visual humano e imita a resposta deles a estímulos visuais. Os sinais são transmitidos de um grupo de neurônio para o próximo, da mesma maneira hierárquica que acontece no cérebro. “O processo começa com os neurônios associados às características básicas de reconhecimento até chegar naqueles responsáveis pelas mais sofisticadas”, explicou a “New Scientist”.
Durante testes, quando o modelo foi exposto a 150 imagens de animais e 150 relacionadas a outras figuras, sendo que a precisão em classificá-los foi parecida com aquela do cérebro humano. A principal diferença ficou no tempo: o programa demorou mais que as pessoas para fazer o reconhecimento.
Segundo os pesquisadores, essa missão é muito difícil para sistemas de visão artificial: animais têm tamanhos e formas extremamente variadas e, além disso, podem voar, ficar em pé ou pular.
“Criamos um modelo que leva em conta dados anatômicos e fisiológicos sobre o córtex visual e tenta simular o que acontece nos primeiros 100 milisegundos, ou logo depois que um objeto é visto. Essa é a primeira vez que um modelo tecnológico conseguiu reproduzir o comportamento humano nesse tipo de atividade”, afirmou o neurocientista computacional Tomaso Poggio, que liderou o estudo.
Nenhum comentário:
Postar um comentário