PARA um programa ser considerado de inteligência artificial (I.A), deve antes passar no teste de Turing. Essa prova exige que as respostas de uma máquina fornecidas a um examinador sejam reconhecida por este como se fossem prestadas por outro ser humano. Neste caso, admite-se que a máquina e seu programa simulam a inteligência adequadamente. Tendo em vista esse critério, os programadores procuraram, desde a segunda metade do século passado, montar uma série de instruções que permitissem às máquinas agir inteligentemente.
Na primeira fase da IA (1957-1972), a tendência era construir programas de solução de problemas gerais (SPG), isto é, que fossem capazes de analisar as soluções sugeridas numa determinada ordem, segundo informações com as quais eram alimentados. Assim, solucionadores de teoremas lógicos, de xadrez, de compreensão da linguagem, de analogia, entre outros, foram criados, embora com limitações que impediam um resultado satisfatório no teste de Turing. Nesse momento, foi crucial a crítica tecida por Hubert Dreyfus, em O Que os Computadores Não Podem Fazem? (1972).
Torso do antigo robô COG, projeto do MIT encerrado em 2003, que foi um dos pioneiros em aprendizagem de máquina.
Depois de um pequeno intervalo, no qual as metas iniciais foram revistas, a segunda fase da IA (1975-1990) voltou-se para elaboração de programas específicos que resolviam problemas localizados: análises clínicas, geológicas, compreensão de imagem, identificação de contexto, etc. Uma descrição técnica de como esses programas funcionavam encontra-se no livro
Inteligência Artificial (1984), de Patrick H. Winston. Porém, por atuarem apenas em aspectos setorizados da inteligência natural, tais iniciativas procuravam mais resolver problemas práticos do que realmente simular a mente humana por inteiro, sobretudo, após os argumentos demolidores de John Searle em
Mente, Cérebro e Ciência (1984), contra as pretensões da IA em suas postulações mais fortes.
Da década dos 90 até agora, os projetos mais avançados visam responder adequadamente as objeções históricas à IA. Projetos de aprendizagem profunda de máquina e de solução de problemas empregam técnicas que aliam abordagens não representacionais, conexionistas e processamento paralelo de informações de maneira híbrida. Tudo isso, para forma uma compreensão mais ampla da inteligência, como ela é formada e seu desempenho.
Nesse sentido, todos os programas de computadores gerados pela IA, apesar dos vícios teóricos embutidos no conteúdo de sua programação, têm aplicação pedagógica, uma vez que seu intuito é fazer com que as máquinas aprendam de modo análogo às crianças em seu desenvolvimento cognitivo, na interação com os demais usuários.
Referências Bibliográficas
BRUNER, J. Os Atos de Significação. -Porto Alegre: Artmed, 1997.
DENNETT, D. C. Tipos de Mentes. – Rio de Janeiro: 1997.
DREYFUS, H. O Que os Computadores Não Podem Fazer. – Rio de Janeiro: Eldorado, 1975.
GARDNER, H. O Verdadeiro, o Belo e o Bom. – Rio de Janeiro: Objetiva, 1999.
SEARLE, J. Mente, Cérebro e Ciência. – Lisboa: Edições 70, 1987.
THAGARD, P. Mente. – Porto Alegre: Artmed, 1998.
WINSTON, P.H. Inteligência Artificial. – Rio de Janeiro: LTC, 1988.