Мисълта ми беше, ча ако искат задълбочени знания, разбира се - в тяхната си област, химици, биолози, генегици и т.н., трябва да надникнат в достиженията на физиката. А иначе, много уважавам техните конкретни знания - химията си е наука със собствен език и методики, биологията - също, същото и за другите. Май съм виновен, че не съм се доизяснил. Ето и мнения на други - с риск отново да те подразня, затова предварително се извинявам - и на другите.
От книгата: Волкенщейн В.М.,”Кръстопътища на науките”, НИ, София, 1976г.-български. “Стр.51 ... Може ли понятието информация да се въведе строго, да му се даде количестгвена мярка? Положителното решение на този въпрос е едно от големите постижения на съвременната наука, повлияло радикално на нейното развитие. Стр.52 ... Науката дава вероятностно, статистическо определение на информацията. ... Да хвърлим един зар за игра. Докато зарът не е хвърлен, няма събитие и няма съобщение за събитие. Всичките шест изхода са равновероятностни, информацията липсва – тя е рявна на нула. След като се хвърли зарът и се паднат например четири точки – опитът е извършен, осъществило се е определено събитие и е получена различна от нула информация. Как да се измери тя? Да хвърлим едновременно два зара. В съобщението “на първия зар точките са четири, а на втория – пет” се съдържа два пъти повече сведения. ... Информациите се събират. А вероятностите? Вероятността да се паднат четири точки на първия зар е 1/6. Толкова ... и на втория зар. Вероятността тези две независими събития да станат едновременно е равна на 1/36. Вероятностите се умножават. Ако искаме да свържем информацията за едно събитие с неговата вероятност, зависимостта между тези две величини трябва да е логаритмична: когато две величини се умножават, логаритмите им се събират. Следователно пишем: Информацията I=k.lgP Където Р е броят на възможните събития преди реализирането им, а k е някакъв коефициент на пропорционалност. При хвърлянето на зар Р = 6. Като сме хвърлили зара, сме реализирали едно от шестте възможни събития и сме получили информация, равна на k.lg6. За простота приравняваме k на единица, а за логаритмична основа вземаме двойката: I = log2P Такава дефиниция съответства на задачите, в които са възможни две събития, т.е. на въпроса за резултата от отделен опит са възможни само два отговора- да или не. ...
...т.е. притакава дефиниция информацията просто е равна на броя на възможните избори с двоична алтернатива – да или не.
... Съответната единица за информация се нарича бит.
... Електронноизчислителните машини, както и теорията на информацията, използват двоична система – в дадена клетка или се подава сигнал, или не, т.е., съществуват само две възможности, които се изобразяват с нула и единица.
... Следователно информацията се измерва в битове. Стр 55 ...Информацията винаги се предава чрез някакъв сигнал – реален физически процес ... Стр 59 ...От разказаното за информацията става ясно, че това научно понятие има много общо с ентропията. Ентропията е мярка за вероятността на състоянието на физическата система: тя затова именно нараства с намаляване на подредеността й, защото хаотичното състояние е по-вероятно от подреденото. Теоретичният анализ показва, че ентропията се изразява с формулата: S = k.lnP, където: k=1.38.10 –18 erg/deg е константата на Болцман, а Р е броят на начините, по които може да се реализира даденото състояние.
Логаритъмът в тази формула е естествен, той е взет при основа е= 2,78... Като преминем към двоична система, която използвахме за пресмятане на информацията, получаваме: S=k.ln2.log2P = 0.693.k.I , Ентропията се различава от информацията само с множителя k.ln2. Тази аналогия не е формална. Повтаряме, информацията се предава и възприема в реални физически процеси, протичащи в съответствие с втория принцип на термодинамиката. За получаване на информация трябва да се плаща – да се плаща с увеличаване на ентропията.”
Информатиката е в основата на програмирането, а обяснението й - идва пак от разни физични явления, например ентропията.
|