va intereseaza informatica

Search


Lumea informaticii



In decurs de peste un secol, observam dezvoltarea surprinzatoare a
masinilor de calcul de la o simpla idee transformata in ceea ce vedem
astazi - V.I.P.-urile lumii informatiei.

Totul a inceput in 1871 cand JC Maxwell a avutu primul ideea
stabilirii unei legaturi intre notiunea de informatie si notiunile de
baza ale energeticii. L. Boltzmann usureaza aceasta legatura prin
aprofundarea notiunii de entropie si definirea ei ca logaritmul
probabilitatii formarii unei anumite configuratii intr-o multime de
alte configuratii posibile.

L. Szilard face inteleasa invazia notiunii de informatie in domeniul
energeticii cand, in 1929, in cadrul celebrului paradox al "demonului
lui Maxwell" demonstreaza ca o informatie de 1 bit ar trebui sa atraga
o reducere a entropiei ansamblului egala cu Klog [2], in timp ce
entropia sursei de unde provine aceasta informatie ar trebui sa
creasca cu aceeasi cantitate sau, altfel spus, entropia se plateste cu
informatie.

Dar lucrarile lui L. Szilard nu gasesc ecouri pana la cel
de-al II-lea razboi mondial, cand are loc un rapid avant al teoriei
informatiei. D. Gabor extinde energetica cuantica in domeniul de
actiune al informatiei selective, stabilindu-i discontinuitatea cea
mai mica cantitate de entropie negativa (negentropie dupa cum o numea
L. Brillouin) necesara obtinerii informatiei de 1bit xxxxxxxxxxx 0.7K,
K fiind constanta lui Boltzmann (1.380622 ±0.000059) · 10 -23 J/K.

Lucrarile lui Szilard, Gabor precum si ale lui Mackay, R. Vallée
clarifica ideea potrivit careia teoriile matematizate ale informatiei
trebuie sa fie plasate la baza oricarei teorii riguroase a masurarii
in stiintele fizice deoarece ele permit sa observam in mod convenabil
interactiunea dintre operatiile prin care se masoara fenomenele
observate si observator.