|
Тема |
Re: baseband? [re: Mитko] |
|
Автор |
Илko () |
|
Публикувано | 25.07.05 10:59 |
|
|
Бъркаш!
При модулирането параметрите (амплитуда,фаза,честота) на един по високочестотен сигнал (carrier) се променят по функция на един по нискочестотен сигнал който е носителя на информацията (може да се нарече и baseband). Честотата на Найкуист обяснена на по популярен език определя че по-високата честота трябва да бъде най малко два пъти по висока от другата.
Именно заради това при нормалната телефония на Бел няма никакво модулиране. В техниката е прието когато една неелектрическа величина се превръща в електрическа да се ползва термина преобразуване.Просто звуковото налягане променя съпротивлението на микрофона което довежда и до промяна на тока през веригата където е включен. Няма модулация тук. Ако този сигнал обаче се подаде на устройство което може да променя друг по високочестотен сигнал според изменението на първия вече имаме модулация а устройството се нарича модулатор. Микрофона не може да бъде модулатор - той само преобразува ... въпреки че многократно съм чувал и обратното (което споменаваш ти) - микрофона модулирал тока във веригата - явно за неспециалист звучи правдоподобно ...
Останалото за затихването не го разбрах - токът е константа само по продължение на проводника (където и по дължината да го премериш ще получиш една и съща стойност) Ако обаче внесеш по голямо съпротивление под формата на още кабел той също ще намалее (закон на ОМ).
Сега по темата.
По същество ДМТ представлява честотно/времево модулиране - входния сигнал се разделя на няколко паралелни потока които модулират носещите. Носещите са в обхвата от 4 до 1100KHz като ползванта модулация е Quadrature Amplitude Modulation (QAM). В резултат получаваме много на брой абсолютно независими канала всеки от който се демодулира самостоятелно. Така че не може да се сравнява със spread spectrum който ползва целия предоставен канал като една лента. Тук е и основното предимство на ДМТ - ако поради някаква причина в приемника не се получи част от информацията се ретрасмитва само съответната носеща(и) в която се е получила грешката а не се ползва целия канал за да предва навово сбърканния пакет(и). Това води до много по ниска латентност - докато грешката се коригира по някоя от носещите останалите предават - за корекция се ползва 1/Н-та от канала.
Преди се е ползвал стандарт на модулиране наречен Carrierless Amplitude Phase Modulation (CAP) който по съществото си пак е QAM но при него отново цялата налична лента е била ползвана за един широк канал.
Така че за сравнително ниския оувърхед за корекции е виновен не само FEC, а най вече DMT модулацията. А между другото FEC означава Forward Error Correction - аз поне не съм чувал за двупосочна технология за предаване на данни която да не ползва FEC тъй като потенциално винаги са възможни грешки.
Именно затова аз смятам че 3 секунди ретрансмитване на грешки е абсурдно. НАй вероятно ако има бита носеща в която често се появяват грешки които не се коригират дори след неколкократно повторение инфорамцията от тях се пренасочва временно по друга носеща докато битата просто не се ползва за период от време. Наистина няма динамична подмяна с друга носеща но и това е достатъчно - ефекта за клиента ще бъде понижаване на скоростта 1/Н пъти което едва ли ще се забележи.
Синхронизацията на този процес е стандартизирана но аз нерядко съм виждал устройства които твърдят че са съвместими но на практика съвместимостта не е 100 % Ако добавим и грешките които понякога се отстраняват със нови версии на фърмуер съм убеден че именно това е причината.
|
| |
|
|
|