40 anos dos processadores
Página 1 de 1
40 anos dos processadores
Sabe esse seu Core i7, Pentium Dual Core, ou seu AMD Phenom… seus
chips com mil tecnologias, capazes de arrebentar nos melhores games da
atualidade e de permitir que você faça suas tarefas diárias rapidamente?
Tudo começou com uma calculadora.
Intel 4004
Nesta semana, a Intel celebra os 40 anos do primeiro
microprocessador, componente que permitiu toda a computação como
conhecemos hoje. O primeiro, o Intel 4004, surgiu em 15 de novembro de
1971, dois anos após a empresa ser solicitada para fabricar chips para
uma nova calculadora da Nippon Calculating Machine Corporation. Após
conseguir os direitos de comercializá-lo para equipamentos diferentes, o
Intel 4004 tornou-se o primeiro microprocessador comercial da história.
Na época, o desafio era, basicamente, colocar o computador em um
chip. Parecia impossível, mas deu certo: os engenheiros da Intel
conseguiram colocar 2.300 transistores em uma área de 3×4 milímetros,
formando as bases dos processadores atuais, que ainda são baseados no
4004. Hoje, porém, eles ultrapassam a marca dos milhões de cálculos por
segundo e têm mais de 560 milhões de transistores. O estreante,
inclusive, foi o primeiro processador a entrar no cinturão de
asteróides, a bordo da nave Pioneer 10. Essas pecinhas existem até hoje,
mas é claro, nas mãos de colecionadores. Eles chegam a valer mais de
mil dólares, o preço que você pagaria no melhor dos Core i7.
Comparados ao pioneiro, os processadores da mais nova geração da
Intel têm 350 mil vezes a performance do 4004. Apesar de todo o poder,
eles são bem mais econômicos: cada transistor, que ficou 50 mil vezes
mais barato desde então, gastam 5 mil vezes menos energia.
Microprocessaoquê?
O microprocessador é uma espécie de cérebro de um
computador. É o responsável por receber informações digitais,
processá-las e responder a elas de acordo com a necessidade. Ali entram
os “zeros e uns” e saem os dados que serão lidos e transformados em
imagens que irão para sua tela, dados que serão armazenados em seu HD,
linhas de código e diversas outras ações enviadas para outros
componentes.
Antes da invenção dos microprocessadores, esse mesmo trabalho era
feito de forma muito mais lenta e precária através de válvulas e
transistores individuais. Era uma tecnologia caríssima e exigia salas
inteiras para que se montasse um computador com muito menos capacidade
do que os que temos hoje. Imagine transformar os 560 milhões de
transistores que existem em um microprocessador em 560 milhões de
válvulas do tamanho de uma lâmpada incandescente. A coisa era mais ou
menos nesse nível.
ENIAC, considerado um dos primeiros computadores digitais eletrônicos
A invenção dos microprocessadores permitiu uma redução drástica no
tamanho dos transistores e a junção de centenas de milhares deles em uma
única base de silício. Essa base é o que forma o circuito integrado. Se
você der uma olhada na parte de baixo do seu processador, vai ver uma
camada metálica com diversos pininhos saltando para fora como espinhos. É
disso que estamos falando.
O computador funciona pela leitura de uma linguagem chamada de
binária, composta por números zero e um. Primeiro, os códigos binários
chegam no processador em forma de impulsos elétricos que ativam ou
desativam cada transistor. Um transistor ativado corresponde ao número 1
e um desativado ao número 0. Dentro do chip, ocorre uma leitura desses
dados, é o que se chama de processamento. Depois de ler e “compreender”
os dados, o microprocessador formula respostas de acordo com a
necessidade e coloca elas de volta no sistema também por impulsos
elétricos.
No vídeo abaixo, temos uma demonstração do funcionamento do transistor, feita no museu da Intel.
De onde veio, onde está e para onde vai
A evolução dos processadores percorreu um longo caminho desde o Intel 4004
até os recém anunciados Sandy Brige-E,
com as CPUs aumentaram sua capacidade de cáculos por segundo com o
incremento do número de transistores e aumento da frequência de
operação. O grande paradigma desta evolução é a famosa Lei de Moore, uma
palpite/constatação/profecia do presidente da Intel, Gordon E.
Moore, presente neste documento publicado em 1965.
Nele, Moore afirmava que o número de transistores em um processador
vinha dobrando a cada ano, e que esta tendência iria se manter por pelo
menos dez anos.
A Intel abraçara a causa do seu então
presidente e utilizou o “dobro de transistores por ano” como um mantra
para o ciclo de desenvolvimento. Depois esta projeção seria revista e
ganharia estimativas mais “modestas”, com um ciclo de 24 meses para
dobrar o número de transistores.
Clique para expandir a imagem
Ano após ano, o número de transistores e a frequência de operação subiam, aumentando a capacidade de cálculos por segundo dos processadores. Para alcançar este feito, as fabricantes dos chips criavam arquiteturas cada vez menores para os transistores, condensando mais deles em áreas cada vez menores. E a lei de Moore mostrava-se certeira (depois daquele pequeno ajuste), até o final da década de 90.
A esta altura, não dava mais para simplesmente ir colocando mais transistores no chip, diminuir o tamanho
deles ou aumentar a frequência do processador. A arquitetura dos transistores já estava na escala microscópica, um processador da virada do milênio como o Pentium 4 possuía 42 milhões deles, com 180 nanômetros de tamanho cada, e operava em 2 GHz. Simplesmente aumentar o clock trazia problemas de aquecimento, então foi preciso outro recurso para manter a marcha imposta pela Lei de Moore.
A solução encontrada pelos desenvolvedores, já nos anos 2000, foi a criação de processadores com mais de um núcleo.
Dois núcleos operando em 1.5 GHz não conseguiam o mesmo desempenho que apenas um núcleo em 3.0 GHz, por conta do atraso do processador em distribuir as funções entre os núcleos mas, em compensação, o
processador com dois núcleos aquece menos.
Assim a indústria seguiu aumentando o número de transistores, diminuindo o tamanho da arquitetura de cada um, incluindo mais núcleos e aumentando a frequência de operação. Novas arquiteturas surgiram, caso da ARM, visando o mercado da computação portátil com processadores com menor aquecimento e consumo de energia, necessário para aparelhos como tablets e smartphones, que trariam o conceito da computação móvel (e faria alguns apostar na morte do bom e velho PC).
Onde está o limite desta evolução? O próprio Moore já falou, em 2005, que não dá para manter esta evolução
para sempre. Segundo ele, vai chegar um momento, quando atingirmos a escala atômica, que não será possível diminuir mais o tamanho dos transistores. “A natureza das progressões exponenciais é esta, quando
você força além dos limites, desastres acontecem”, profetizou novamente Moore. Talvez, mas até lá o desenvolvimento segue, e já se fala até em processadores de 50 núcleos…
Com informações de Adrenaline
[/center]
chips com mil tecnologias, capazes de arrebentar nos melhores games da
atualidade e de permitir que você faça suas tarefas diárias rapidamente?
Tudo começou com uma calculadora.
Intel 4004
Nesta semana, a Intel celebra os 40 anos do primeiro
microprocessador, componente que permitiu toda a computação como
conhecemos hoje. O primeiro, o Intel 4004, surgiu em 15 de novembro de
1971, dois anos após a empresa ser solicitada para fabricar chips para
uma nova calculadora da Nippon Calculating Machine Corporation. Após
conseguir os direitos de comercializá-lo para equipamentos diferentes, o
Intel 4004 tornou-se o primeiro microprocessador comercial da história.
Na época, o desafio era, basicamente, colocar o computador em um
chip. Parecia impossível, mas deu certo: os engenheiros da Intel
conseguiram colocar 2.300 transistores em uma área de 3×4 milímetros,
formando as bases dos processadores atuais, que ainda são baseados no
4004. Hoje, porém, eles ultrapassam a marca dos milhões de cálculos por
segundo e têm mais de 560 milhões de transistores. O estreante,
inclusive, foi o primeiro processador a entrar no cinturão de
asteróides, a bordo da nave Pioneer 10. Essas pecinhas existem até hoje,
mas é claro, nas mãos de colecionadores. Eles chegam a valer mais de
mil dólares, o preço que você pagaria no melhor dos Core i7.
Comparados ao pioneiro, os processadores da mais nova geração da
Intel têm 350 mil vezes a performance do 4004. Apesar de todo o poder,
eles são bem mais econômicos: cada transistor, que ficou 50 mil vezes
mais barato desde então, gastam 5 mil vezes menos energia.
Microprocessaoquê?
O microprocessador é uma espécie de cérebro de um
computador. É o responsável por receber informações digitais,
processá-las e responder a elas de acordo com a necessidade. Ali entram
os “zeros e uns” e saem os dados que serão lidos e transformados em
imagens que irão para sua tela, dados que serão armazenados em seu HD,
linhas de código e diversas outras ações enviadas para outros
componentes.
Antes da invenção dos microprocessadores, esse mesmo trabalho era
feito de forma muito mais lenta e precária através de válvulas e
transistores individuais. Era uma tecnologia caríssima e exigia salas
inteiras para que se montasse um computador com muito menos capacidade
do que os que temos hoje. Imagine transformar os 560 milhões de
transistores que existem em um microprocessador em 560 milhões de
válvulas do tamanho de uma lâmpada incandescente. A coisa era mais ou
menos nesse nível.
ENIAC, considerado um dos primeiros computadores digitais eletrônicos
A invenção dos microprocessadores permitiu uma redução drástica no
tamanho dos transistores e a junção de centenas de milhares deles em uma
única base de silício. Essa base é o que forma o circuito integrado. Se
você der uma olhada na parte de baixo do seu processador, vai ver uma
camada metálica com diversos pininhos saltando para fora como espinhos. É
disso que estamos falando.
O computador funciona pela leitura de uma linguagem chamada de
binária, composta por números zero e um. Primeiro, os códigos binários
chegam no processador em forma de impulsos elétricos que ativam ou
desativam cada transistor. Um transistor ativado corresponde ao número 1
e um desativado ao número 0. Dentro do chip, ocorre uma leitura desses
dados, é o que se chama de processamento. Depois de ler e “compreender”
os dados, o microprocessador formula respostas de acordo com a
necessidade e coloca elas de volta no sistema também por impulsos
elétricos.
No vídeo abaixo, temos uma demonstração do funcionamento do transistor, feita no museu da Intel.
De onde veio, onde está e para onde vai
A evolução dos processadores percorreu um longo caminho desde o Intel 4004
até os recém anunciados Sandy Brige-E,
com as CPUs aumentaram sua capacidade de cáculos por segundo com o
incremento do número de transistores e aumento da frequência de
operação. O grande paradigma desta evolução é a famosa Lei de Moore, uma
palpite/constatação/profecia do presidente da Intel, Gordon E.
Moore, presente neste documento publicado em 1965.
Nele, Moore afirmava que o número de transistores em um processador
vinha dobrando a cada ano, e que esta tendência iria se manter por pelo
menos dez anos.
A Intel abraçara a causa do seu então
presidente e utilizou o “dobro de transistores por ano” como um mantra
para o ciclo de desenvolvimento. Depois esta projeção seria revista e
ganharia estimativas mais “modestas”, com um ciclo de 24 meses para
dobrar o número de transistores.
Clique para expandir a imagem
Ano após ano, o número de transistores e a frequência de operação subiam, aumentando a capacidade de cálculos por segundo dos processadores. Para alcançar este feito, as fabricantes dos chips criavam arquiteturas cada vez menores para os transistores, condensando mais deles em áreas cada vez menores. E a lei de Moore mostrava-se certeira (depois daquele pequeno ajuste), até o final da década de 90.
A esta altura, não dava mais para simplesmente ir colocando mais transistores no chip, diminuir o tamanho
deles ou aumentar a frequência do processador. A arquitetura dos transistores já estava na escala microscópica, um processador da virada do milênio como o Pentium 4 possuía 42 milhões deles, com 180 nanômetros de tamanho cada, e operava em 2 GHz. Simplesmente aumentar o clock trazia problemas de aquecimento, então foi preciso outro recurso para manter a marcha imposta pela Lei de Moore.
A solução encontrada pelos desenvolvedores, já nos anos 2000, foi a criação de processadores com mais de um núcleo.
Dois núcleos operando em 1.5 GHz não conseguiam o mesmo desempenho que apenas um núcleo em 3.0 GHz, por conta do atraso do processador em distribuir as funções entre os núcleos mas, em compensação, o
processador com dois núcleos aquece menos.
Assim a indústria seguiu aumentando o número de transistores, diminuindo o tamanho da arquitetura de cada um, incluindo mais núcleos e aumentando a frequência de operação. Novas arquiteturas surgiram, caso da ARM, visando o mercado da computação portátil com processadores com menor aquecimento e consumo de energia, necessário para aparelhos como tablets e smartphones, que trariam o conceito da computação móvel (e faria alguns apostar na morte do bom e velho PC).
Onde está o limite desta evolução? O próprio Moore já falou, em 2005, que não dá para manter esta evolução
para sempre. Segundo ele, vai chegar um momento, quando atingirmos a escala atômica, que não será possível diminuir mais o tamanho dos transistores. “A natureza das progressões exponenciais é esta, quando
você força além dos limites, desastres acontecem”, profetizou novamente Moore. Talvez, mas até lá o desenvolvimento segue, e já se fala até em processadores de 50 núcleos…
Com informações de Adrenaline
[/center]
Página 1 de 1
Permissões neste sub-fórum
Não podes responder a tópicos