Съжалявам, изнервих се.
Това тук е клуб Физика, и се надявам хората, които пишат тук да разбират повече от физика, отколкото от теория на информацията и сигналите.
Аз и доста неща съм забравил, но не мога да приема писането на тия глупости тук.
Потърси някаква литература щом се интересуваш, едва ли мога тук да обясня всичко, дори и да помнех всичко в детайли.
Основните положения са следните -
Дефиниция за понятието информация няма. Възприема се интуитивно и чрез примери. Ползват се работни определения за информация. Едно такова е, че информацията намалява неопределеността в знанията ни за даден обект.
Информацията се предава чрез съобщения.
Информацията се измерва с единици за информация. Най-малката единица е 1 бит. Тя определя изхода от две равновероятни събития, като например хвърляне на монета. В този смисъл има априорна и апостериорна информация - едната е преди събитието, другата след него.
Материален носител на информацията е сигналът. Той може да бъде най-разнообразен по характер и физическа същност.
Най-често сме свикнали да мислим за радиосигнали, електрически сигнали, звукови, светлинни и т.н.
Сигналът се предава по канал за връзка и чрез определено кодиране предава символи, които съдържат в себе си някакво количество информация. Тъй като сигналите съдържат в себе си информация, която ние предварително не знаем, сигналите могат да се разглеждат като случайни процеси със съответните свойства и параметри, и тук вече се намесва математиката на случайни величини, както и статистиката. Освен това сигналите съдържат в себе си и определен шум, който също е случаен.
Информацията може да има различен характер, съответно и сигналите могат да предават аналогова и цифрова (дискретна) информация.
Записаният на някакъв носител или в цифрова памет сигнал също може да се разглежда като преминал през канал за връзка със съответните му параметри.
При каналите за връзка има една формула на Шенон, която определа капацитетът на канала, т.е. какво максимално количество информация е възможно да се предаде по дадения канал. Шенон се счита за основоположник на теорията на информацията, или поне има много сериозен принос в нея. Написал е труд мисля 1948 година.
Информационната ентропия няма нищо общо с понятието ентропия във физиката.
Информационната ентропия е равна на количеството информация, която се предава с един символ в съобщението.
А един символ, може да съдържа в себе си примерно 1,2, 3 или повече бита информация.
Най-често сигналите предават информация чрез модулиране на някой параметър на дадено хармонично трептене с висока честота.
Примерно за предаване на цифрови сигнали се ползва фазова манипулация. Състоянието на фазата на носещото трептене се определя с вектор с дадена начална фаза, която е ъгъл, който зависи от това какъв символ искаме да предадем.
При т.нар. квадратурна фазова манипулация или QPSK - quadrature phase shift key има четири възможни ъгъла - четири възможни състояния на вектора, и от там един символ може да предава 2 бита информация. Т.е. ентропията в този случай е равна на 2 бита. Както виждаш, говорим за ентропия, която се измерва в битове, а не в Джаули.
И така нататък.
Редактирано от Tom_cat на 11.11.15 19:14.
|