|
Тема |
Re: Сканиране на лента; JPG->JPG [re: Psychoiho] |
|
Автор |
.mitko. (пчела) |
|
Публикувано | 11.03.04 17:07 |
|
|
естествено, че JPG го дължим на математиците, а не на програмистите :)))
между другото, и аз съм програмист.
а логиката е ЕЛЕМНТАРНАТА логика, не съм се запознавал специално с математическата част на JPG компресията.
та, според елементарната логика: записваш нещо съз загуба на качеството; отваряш го и имаш примерно 3% подменени в някаква степен (не твърде много като стойност) пиксели. променяш файла достатъчно (баланс, кроп, шарпен и каквото се сетиш) и пак записваш със загуба на качеството. каквото и да правиш, онези 3% пиксели вече не са същите, освен това може да са разместени или размножени, редуващите се последователности от пиксели са най- малкото дефазирани, ако не и по- сериозно разсинхронизирани...
НЕ МОЖЕ да има алгоритъм, по дефиниция водещ до загуба на информация, последователното прилагане на който, редувано с произволно променяне на обработваните данни, да не води до прогресивно увеличаване на загубата на информация...
Друг е въпроса колко голяма е загубата на инфомация при еднократното прилагане и с каква скорост се натрупва тя (също и до каква степен това е забележимо за окото в нашия случай). Но натрупването й, дори и с много ниска скорост, е задължително, както втория принцип на термодинамиката...
Стана ми интересно до колко малко наистина са успели да доведат това натрупване и смятам да направя някои експерименти, когато ми остане достатъчно време... Ще съобщя резултата, какъвто и да е той, но не обещавам, че веднага ще се заема с експеримента...
|
| |
|
|
|