Na década de 1970, Gordon Moore, um dos fundadores da Intel, profetizava que o que viria a ser chamado de Lei de Moore: o aumento na capacidade de processamento de informações dobraria a cada dois anos. Tal previsão cumpriu-se aproximadamente ao longo de algumas décadas. O processador 4004, o primeiro produzido pela Intel, era um chip com apenas 12 milímetros quadrados e continha 2300 transistores, que são como pequenos interruptores para representar as sequências de zeros e uns no registro e armazenamento de informações. A distância entre dois de tais transistores era de 10 000 nanômetros (cada nanômetro corresponde a 1 bilionésimo de metro). Em 2014, a Intel lançou o chip Xeon Haswell E-5, que continha mais de 5 bilhões de transístores, posicionados em intervalos de apenas 22 nanômetros. Segundo matéria publicada na revista The Economist (republicada no jornal OESP em 13 de março de 2016), atualmente, o número de pessoas que não acreditam mais na Lei de Moore parece dobrar a cada dois anos. Efetivamente, como as pavorosas previsões de Malthus no século XVIII sobre o crescimento da população mundial e o que seria a inevitável falta de alimentos, a profecia de Moore foi atropelada pelos fatos. Problemas associados a aquecimentos relacionados com a crescente miniaturização, às limitações decorrentes da constância da velocidade da luz e do tamanho das partículas atômicas, entre outros, levaram os engenheiros a relaxar um pouco a miniaturização . O chip Skylake, bem anterior ao E-5, tinha distância entre os transístores da ordem de 14 nanômetros, menor, portanto, que o E-5. Hoje, o projeto em curso é outro: em vez de uma miniaturização crescente, três são as novas estratégias na busca do aperfeiçoamento na produção de microprocessadores: – explorar expectativas ainda nebulosas, decorrentes da mecânica quântica; – simular o funcionamento do cérebro humano, que é um processador com estratégias de processamento paralelo, com distribuição de tarefas entre diversos núcleos (cores); – aposentar a busca de um equipamento cada vez mais poderoso e distribuir efetivamente o processamento entre vários equipamentos distintos, dando lugar à chamada “internet das coisas”. Quanto mais se aperfeiçoa, quanto mais se sofistica, como se vê, mais o computador parece mimetizar o funcionamento geral de um ser humano.

******04-04-2016

No comment

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *