O Gás de Bits
O que é uma memória RAM? Como podemos criar um modelo para tratá-la do ponto de vista físico? Vamos examinar estas questões mais de perto.Podemos considerar que uma “memória” é um conjunto de “caixinhas” onde podemos conceber dois estados, zero e um. Assim, uma informação guardada em uma memória é um dos possíveis microestados do sistema. Raciocinando desta forma, podemos notar que a maneira mais natural de tratar o tópico é o ponto de vista da Física Estatística. Comecemos com o formalismo microcanônico e passemos após ao canônico, para ver o que ganhamos.
No formalismo microcanônico, temos um sistema com número de partículas fixo, volume fixo e energia fixa (o sistema é isolado). Até aí tudo bem, mas agora faremos suposições não tão verossímeis, mas com resultados interessantes. Vamos admitir que todos os estados microscópicos acessíveis em um sistema fechado em equilíbrio são equiprováveis. Então devemos supor nosso sistema em equilíbrio termodinâmico. Devemos supor ainda que nossa memória seja grande o suficiente para que possamos tomar o limite termodinâmico.
Estas suposições estão longe de ser realistas, mas são úteis aos nossos propósitos. Podemos então tomar a definição de entropia estatística de Boltzmann:
S=k.lnW
Onde S é a entropia, k é a constante de Boltzmann e W é o número de microestados acessíveis ao sistema.
Para um sistema de n bits, devemos ter um número de microestados igual a 2n . Assim, a entropia associada ao sistema é:
S=k.n.ln(2)
Esta é uma forma simplista de lidar com a entropia do sistema, mas nos será útil mais tarde.
No formalismo canônico, temos o sistema em banho térmico, podendo a energia flutuar. Tomemos uma abordagem diferente. Considere um sistema formado por m réplicas da nossa memória, tal que as probabilidades pr do sistema estar no microestado r sejam as mesmas em todas as cópias, sendo m um número grande. Então o número de sistemas no estado r é dado por: mr=m.pr Se mj destes sistemas está no estado j, então o peso estatístico Wm desta montagem é:

Segue da definição de entropia que:
Sm=k.ln Wm
Substituindo e usando a fórmula de Stirling ( ln(m!)=m ln(m) – m ):

Então, a entropia está associada a uma probabilidade do sistema estar num dado microestado. Esta forma é conhecida como entropia de Shannon e se reduz à primeira forma no formalismo microcanônico (pois a probabilidade p é 1/W e há W estados acessíveis ao sistema).
O que ocorre de modificarmos irreversivelmente um bit? Pelas nossas contas, deve haver um acréscimo na entropia do sistema de DS=k.ln2. Isso significa que a informação guardada ali está associada a uma energia:
E=kT.ln2
onde T é a temperatura do sistema (o que já poderia se esperar, uma vez que um bit de informação está associado a um grau de liberdade do sistema e portanto a uma energia da ordem de kT).
Informação e energia são conceitos relacionados, portanto. Porém desta análise segue que modificar reversivelmente um bit não consome necessariamente energia. Desta forma, uma computação pode ser efetuada com gasto mínimo se for executada de forma reversível. É interessante notar que as portas lógicas de computadores clássicos podem ser escritas em termos da porta universal NAND, que é irreversível. Para notar isso basta verificar que a partir de um resultado NAND, não podemos inferir sempre quais foram os bits que o originaram. Nossos computadores gastam tanta energia porque fazem computação de forma irreversível.
Porém, para fazer computação reversível com portas lógicas clássicas devemos manter bits auxiliares, pois destruir bits é uma operação irreversível, consumindo um espaço que talvez seja proibitivo. É uma questão de se ponderar o que é mais caro, memória física ou energia.
Talvez o mais interessante desta análise seja a constatação de que maximizar a entropia significa maximizar a informação apreendida pelo sistema, de tal forma que podemos utilizar métodos da Física Estatística para recuperar informação degenerada através da eliminação de redundâncias em sistemas de uma maneira que não conseguiríamos com outros métodos. Há ainda o fato de que portas lógicas de computadores quânticos são unitárias, portanto reversíveis, ficando o gasto de energia em tais sistemas apenas restrito às correções de erro (eliminação de ruído).
Tudo isso já é velho. Como tantas outras coisas que vocês verão aqui. Só escrevi isto porque acho importante levantar estas questões e discutí-las.
Até a próxima.
No formalismo microcanônico, temos um sistema com número de partículas fixo, volume fixo e energia fixa (o sistema é isolado). Até aí tudo bem, mas agora faremos suposições não tão verossímeis, mas com resultados interessantes. Vamos admitir que todos os estados microscópicos acessíveis em um sistema fechado em equilíbrio são equiprováveis. Então devemos supor nosso sistema em equilíbrio termodinâmico. Devemos supor ainda que nossa memória seja grande o suficiente para que possamos tomar o limite termodinâmico.
Estas suposições estão longe de ser realistas, mas são úteis aos nossos propósitos. Podemos então tomar a definição de entropia estatística de Boltzmann:
S=k.lnW
Onde S é a entropia, k é a constante de Boltzmann e W é o número de microestados acessíveis ao sistema.
Para um sistema de n bits, devemos ter um número de microestados igual a 2n . Assim, a entropia associada ao sistema é:
S=k.n.ln(2)
Esta é uma forma simplista de lidar com a entropia do sistema, mas nos será útil mais tarde.
No formalismo canônico, temos o sistema em banho térmico, podendo a energia flutuar. Tomemos uma abordagem diferente. Considere um sistema formado por m réplicas da nossa memória, tal que as probabilidades pr do sistema estar no microestado r sejam as mesmas em todas as cópias, sendo m um número grande. Então o número de sistemas no estado r é dado por: mr=m.pr Se mj destes sistemas está no estado j, então o peso estatístico Wm desta montagem é:

Segue da definição de entropia que:
Sm=k.ln Wm
Substituindo e usando a fórmula de Stirling ( ln(m!)=m ln(m) – m ):

Então, a entropia está associada a uma probabilidade do sistema estar num dado microestado. Esta forma é conhecida como entropia de Shannon e se reduz à primeira forma no formalismo microcanônico (pois a probabilidade p é 1/W e há W estados acessíveis ao sistema).
O que ocorre de modificarmos irreversivelmente um bit? Pelas nossas contas, deve haver um acréscimo na entropia do sistema de DS=k.ln2. Isso significa que a informação guardada ali está associada a uma energia:
E=kT.ln2
onde T é a temperatura do sistema (o que já poderia se esperar, uma vez que um bit de informação está associado a um grau de liberdade do sistema e portanto a uma energia da ordem de kT).
Informação e energia são conceitos relacionados, portanto. Porém desta análise segue que modificar reversivelmente um bit não consome necessariamente energia. Desta forma, uma computação pode ser efetuada com gasto mínimo se for executada de forma reversível. É interessante notar que as portas lógicas de computadores clássicos podem ser escritas em termos da porta universal NAND, que é irreversível. Para notar isso basta verificar que a partir de um resultado NAND, não podemos inferir sempre quais foram os bits que o originaram. Nossos computadores gastam tanta energia porque fazem computação de forma irreversível.
Porém, para fazer computação reversível com portas lógicas clássicas devemos manter bits auxiliares, pois destruir bits é uma operação irreversível, consumindo um espaço que talvez seja proibitivo. É uma questão de se ponderar o que é mais caro, memória física ou energia.
Talvez o mais interessante desta análise seja a constatação de que maximizar a entropia significa maximizar a informação apreendida pelo sistema, de tal forma que podemos utilizar métodos da Física Estatística para recuperar informação degenerada através da eliminação de redundâncias em sistemas de uma maneira que não conseguiríamos com outros métodos. Há ainda o fato de que portas lógicas de computadores quânticos são unitárias, portanto reversíveis, ficando o gasto de energia em tais sistemas apenas restrito às correções de erro (eliminação de ruído).
Tudo isso já é velho. Como tantas outras coisas que vocês verão aqui. Só escrevi isto porque acho importante levantar estas questões e discutí-las.
Até a próxima.


0 Comments:
Postar um comentário
<< Home