#California-em-chamas

Salvem a Califórnia! Governo populista de esquerda incendeia um dos estados mais ricos dos Estados Unidos, responsável pelo crescimento da violência e da população de rua. A demagógica Organização das Nações Unidas e seus cabides de empregos deveriam fazer uma intervenção internacional na região. Celebridades, rezem pela Califórnia! #PrayForCalifornia

Inteligências Múltiplas

A Teoria das Inteligências Múltiplas foi desenvolvida por Howard Gardner a partir do seu livro Estruturas da Mente (1983). É uma teoria de cunho pedagógico que visa chamar atenção para o fato de cada pessoa possuir um tipo predominante de inteligência. No início, Gardner admitia a existência de sete tipos de inteligência: linguística, a facilidade de aprender a estrutura das diversas linguagens; lógico-matemática, capacidade de pensamento formal e numérico; corporal-cinestésica, domínio das atividades esportivas e da dança; espacial, boas noções de espaço e geométricas; musical, teoria e prática; interpessoal, inteligência para se relacionar com as pessoas; e intrapessoal, inteligência sobre si mesmo. Mais tarde, passou admitir a inteligência naturalística, de lidar com o meio ambiente, e existencial, tendência de preocupar-se com questões vitais e metafísicas.
Howard Gardner

Howard Gardner

Para Gardner, o ensino da criança deveria estar voltado e adaptado às singularidades de cada indivíduo. Nesse sentido, ele lidera o Projeto Zero, em Harvard, a fim de criar currículos escolares específicos, em função do entendimento e das inteligências múltiplas dos alunos. Por outro lado, a educação não pode prescindir de valores universais como verdade, beleza e bondade, que devem ser ensinados à criança desde cedo, a partir de exemplos de comportamentos de pessoas que priorizaram o que é verdadeiro, criaram coisas belas e foram bons com outras pessoas.

Referências Bibliográficas

GARDNER, H. Estruturas da Mente. – Porto Alegre Artmed, 1994.
___. Inteligências Múltiplas. – Porto Alegre: Artmed, 1995.
___. O Verdadeiro, o Belo e o Bom. – Rio de Janeiro: Objetiva, 1999.

Imposturas Complexas

tempos, tem-se dito que a realidade é muito mais complexa do que os recortes simplificadores do método de investigação científico. A complexidade de um sistema diz respeito à quantidade de informação a ser considerada na sua descrição. Esta depende do contexto, do investigador e do equipamento utilizado na observação, variando com a linguagem empregada e o conhecimento prévio do mundo difundido na comunidade. Em suma, a Teoria da Complexidade, ao invés de resolver problemas isolados que possam ser descritos por um algoritmo específico (processo sistemático composto por um conjunto finito de regras para solução de um problema), procura resposta para grupos infinitos de problemas através de um algoritmo geral que solucione todas as tarefas respectivas a cada grupo. A complexidade algorítmica refere-se, então, ao tamanho de um procedimento concebido para executar infinitas tarefas, como um programa de computador. Na pesquisa sobre complexidade, também distinguem-se os sistemas adaptativos complexos, como os seres vivos, que atuam sobre diversos aspectos a partir de informações prévias, identificando regularidades, e buscam prever acontecimentos usando ainda a informação presente, daí descrevendo o mundo real e, por fim, tirando as consequências que redundarão numa ação viável selecionada para competir com outros esquemas concorrentes. Nisso tudo, estão envolvidas a matemática, a física, a biologia, a psicologia e a neurologia, exigindo de todos pesquisadores uma base sólida em cada uma dessas áreas.
Fractal Julia

A complexidade de um problema não significa que não haja um padrão a partir do qual a complexidade possa ser entendida.

Contudo, por ser uma pesquisa recente e de extrema dificuldade, a teoria da complexidade tem sido um campo fértil para autores oportunistas projetarem-se. O filósofo francês Edgar Morin, nesse ínterim, em livros como Introdução ao Pensamento Complexo (1990), inventou a “teoria do pensamento complexo” que, baseada numa concepção vulgar de “complexidade”, tenta aliar, de modo confuso, conhecimento científico com esoterismo, “holismo”, ecologia, turismo, educação etc.
Textos como esse fazem lembrar as imposturas intelectuais que proliferam no “vale tudo pós-moderno” francês e que foram oportunamente desmascaradas por Allan Sokal e J. Bricmont, em Imposturas Intelectuais (1998), como por exemplo o “desconstrutivismo”. A complexidade da natureza não invalida a necessidade da especialização nas pesquisas científicas, pelo contrário, exige cada vez mais um aprofundamento da investigação e um debate interdisciplinar para compreensão geral do objeto estudado, praticamente impossível de ser conhecido em sua totalidade.

Referências Bibliográficas

BARROW, J. D. Teorias de Tudo. – Rio de Janeiro: Zahar, 1994.
CHANGEUX, J-P. & CONNES, A. Matéria e Pensamento. – São Paulo: UNESP, 1996.
GELL-MANN, M. O Quark e o Jaguar. – Rio de Janeiro: Rocco, 1996.
LEWIN, R. Complexidade.- Rio de Janeiro: Rocco, 1994.
PENROSE, R. A Mente Nova do Rei. – Rio de Janeiro: Campus, 1993.
PRIGOGINE, I. O Fim das Certezas. – São Paulo: UNESP, 1996.
STEWART, I. Os Números da Natureza. – Rio de Janeiro: Rocco, 1994.

IA Educacional

Ciência CognitivaPARA um programa ser considerado de inteligência artificial (I.A), deve antes passar no teste de Turing. Essa prova exige que as respostas de uma máquina fornecidas a um examinador sejam reconhecida por este como se fossem prestadas por outro ser humano. Neste caso, admite-se que a máquina e seu programa simulam a inteligência adequadamente. Tendo em vista esse critério, os programadores procuraram, desde a segunda metade do século passado, montar uma série de instruções que permitissem às máquinas agir inteligentemente.
Na primeira fase da IA (1957-1972), a tendência era construir programas de solução de problemas gerais (SPG), isto é, que fossem capazes de analisar as soluções sugeridas numa determinada ordem, segundo informações com as quais eram alimentados. Assim, solucionadores de teoremas lógicos, de xadrez, de compreensão da linguagem, de analogia, entre outros, foram criados, embora com limitações que impediam um resultado satisfatório no teste de Turing. Nesse momento, foi crucial a crítica tecida por Hubert Dreyfus, em O Que os Computadores Não Podem Fazem? (1972).
COG

Torso do antigo robô COG, projeto do MIT encerrado em 2003, que foi um dos pioneiros em aprendizagem de máquina.

Depois de um pequeno intervalo, no qual as metas iniciais foram revistas, a segunda fase da IA (1975-1990) voltou-se para elaboração de programas específicos que resolviam problemas localizados: análises clínicas, geológicas, compreensão de imagem, identificação de contexto, etc. Uma descrição técnica de como esses programas funcionavam encontra-se no livro Inteligência Artificial (1984), de Patrick H. Winston. Porém, por atuarem apenas em aspectos setorizados da inteligência natural, tais iniciativas procuravam mais resolver problemas práticos do que realmente simular a mente humana por inteiro, sobretudo, após os argumentos demolidores de John Searle em Mente, Cérebro e Ciência (1984), contra as pretensões da IA em suas postulações mais fortes.
Da década dos 90 até agora, os projetos mais avançados visam responder adequadamente as objeções históricas à IA. Projetos de aprendizagem profunda de máquina e de solução de problemas empregam técnicas que aliam abordagens não representacionais, conexionistas e processamento paralelo de informações de maneira híbrida. Tudo isso, para forma uma compreensão mais ampla da inteligência, como ela é formada e seu desempenho.
Nesse sentido, todos os programas de computadores gerados pela IA, apesar dos vícios teóricos embutidos no conteúdo de sua programação, têm aplicação pedagógica, uma vez que seu intuito é fazer com que as máquinas aprendam de modo análogo às crianças em seu desenvolvimento cognitivo, na interação com os demais usuários.

Referências Bibliográficas

BRUNER, J. Os Atos de Significação. -Porto Alegre: Artmed, 1997.
DENNETT, D. C. Tipos de Mentes. – Rio de Janeiro: 1997.
DREYFUS, H. O Que os Computadores Não Podem Fazer. – Rio de Janeiro: Eldorado, 1975.
GARDNER, H. O Verdadeiro, o Belo e o Bom. – Rio de Janeiro: Objetiva, 1999.
SEARLE, J. Mente, Cérebro e Ciência. – Lisboa: Edições 70, 1987.
THAGARD, P. Mente. – Porto Alegre: Artmed, 1998.
WINSTON, P.H. Inteligência Artificial. – Rio de Janeiro: LTC, 1988.