Клубове Дир.бг
powered by diri.bg
търси в Клубове diri.bg Разширено търсене

Вход
Име
Парола

Клубове
Dir.bg
Взаимопомощ
Горещи теми
Компютри и Интернет
Контакти
Култура и изкуство
Мнения
Наука
Политика, Свят
Спорт
Техника
Градове
Религия и мистика
Фен клубове
Хоби, Развлечения
Общества
Я, архивите са живи
Клубове Дирене Регистрация Кой е тук Въпроси Списък Купувам / Продавам 02:01 02.06.24 
Природни науки
   >> Физика
Всички теми Следваща тема *Кратък преглед

Страници по тази тема: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | >> (покажи всички)
Тема Re: Пак ентропиятанови [re: zornik2]  
Автор Alenadrow (пристрастен)
Публикувано11.11.15 13:02



Ако информацията е брой на параметрите, с които се описват всички "ВЪЗМОЖНО състояние (като изход)", то според мен не би трябвало да има никаква разлика между информацията, необходима за описание на една хаотична и на една подредена система, тъй като и двете са (макар и различно вероятни) възможни състояния като изход и следователно така или иначе са включени в общото количество информация за системата.

Вече стана съвсем объркано, тъй като информацията, необходима за описание на едно състояние е една, на всички възможни състояния - друга, на прехода от едно състояние в друго е трета и т.н. Май е време да се изясним за какво говорим.

Но поне едно нещо ми се струва някак очевидно - описанието на човешкото тяло (система с относително ниска ентропия) е с пъти по-сложно и изисква с пъти повече информация, отколкото описанието на торба пясък (система с относително висока ентропия), съдържаща приблизително същото количество енергия/материя. В краен случай сигурно бих се примирил някак, че е необходимо едно и също количество информация за описание на тези две "системи", но ми се струва немислимо описанието на торбата пясък да изисква повече информация от описанието на човека.





Тема Re: Пак ентропиятанови [re: Tom_cat]  
Автор mr Chaos (somebody)
Публикувано11.11.15 13:32



Ама не, ние въобще не знаем какво е информация.

A key measure of information is entropy, which is usually expressed by the average number of bits needed to store or communicate one symbol in a message. Entropy quantifies the uncertainty involved in predicting the value of a random variable. For example, specifying the outcome of a fair coin flip (two equally likely outcomes) provides less information (lower entropy) than specifying the outcome from a roll of a die (six equally likely outcomes).





Тема Re: Поредната алабаланицанови [re: multiplikator]  
Автор Tom_cat ()
Публикувано11.11.15 14:57



Пълни глупости. Кога пък е имало развит комунизъм, че дори и недоразвит?
Никога.



Тема Re: Пак ентропиятанови [re: mr Chaos]  
Автор Tom_cat ()
Публикувано11.11.15 15:12



Бъркаш нещата.
The entropy, H, of a discrete random variable X intuitively is a measure of the amount of uncertainty associated with the value of X when only its distribution is known.
От същия източник.
Това именно интуитивно тук не е случайно. Това просто е същото, което и аз казах - за информацията няма точна дефиниция и определение. Тя е понятие, което се възприема интуитивно, и се обяснява с примери.

Най-напред трябва да разберете, че понятието ентропия в теорията на информацията не е идентично с понятието ентропия във физиката. Според мен от тук идват проблемите.
Мярката за информация е бит, съответно кратни и т.н. кило, мега, гига, като особеност тук е, че кило и т.н. не са по 10 на степен 3, а са по степените на 2, т.е. килобит или kbit е 1024 бита. Съответно по-късно във времето е въведена и мярката байт, която в началото не е била същата като сега, а сега 1 байт = 8 бита.

Ентропията в информационната технология е мярка за намаляване неопределеността в знанията ни за даден обект, която се случва с получаването на дадено съобщение, или със осъществяването на някакво събитие. Т.е. свързана е с априорната и апостериорната вероятности.
Тъй че ентропията отново се измерва със същите мерни единици - бит, байт и т.н.
Но това, че знаеш с какво се мери информация, не значи, че знаеш какво е информация.

Мярката за енергия, е излишно тук да я обяснявам. Енергията не е идентична с информация. Толкова е абсурдно, че чак ме е срам, че трябва да го обяснявам, на уж интелигентни и начетени хора.

Мда. не знаете какво е информация. Нямате определение.

Редактирано от Tom_cat на 11.11.15 15:18.



Тема Re: Тема в тематанови [re: multiplikator]  
Автор Tom_cat ()
Публикувано11.11.15 15:14



Пак не е така. Информацията сама по себе си е абстрактно понятие. Няма общо с енергията. Общо с енергията може да има носителят на информация - сигнал, или запаметяващ елемент. Информация може да бъде записана и на хартия. Каква енергия е нужна на хартията за да съхрани информацията?



Тема Re: Пак ентропиятанови [re: Tom_cat]  
Автор mr Chaos (somebody)
Публикувано11.11.15 15:35



Ти май си чел учебниците тук там.

Ентропията в информационната технология е мярка за намаляване неопределеността в знанията ни за даден обект,

Така де. Ти чете ли какво съм писал?
За да опишеш една система еднозначно, ти трябват определен брой параметри.
Колкото по-голяма ентропия има системата (по-голям брой възможни състояния),
толкова повече параметри ти трябват.

Ти бъркаш стойността на параметрите със броя им.

Примерно, за да дефинираш позицията на елемент от едномерен масив, ти трябва само един параметър!
Стойността на този параметър, може да се събере в 1 бит или в един гигабит, но това не променя факта, че дефинираш позицията само с един параметър.

За двумерен масив ще ти трябват два параметъра.
За тримерен - три и т.н.

Седни пак да почетеш за ентропията в теорията на информацията.



Тема Re: Пак ентропиятанови [re: Alenadrow]  
Автор zornik2 (неспасяем)
Публикувано11.11.15 17:08



Ако информацията е брой на параметрите, с които се описват всички "ВЪЗМОЖНО състояние (като изход)", то според мен не би трябвало да има никаква разлика между информацията, необходима за описание на една хаотична и на една подредена система, тъй като и двете са (макар и различно вероятни) възможни състояния като изход и следователно така или иначе са включени в общото количество информация за системата

Ентропията се различава от информацията само с множителя K.ln2

Пак от там:
... Повтаряме, информацията се предава и възприема в реални физически процеси, протичащи в съответствие с втория принцип на термодинамиката. За получаването на информация трябва да се плаща - да се плаща с увеличаване на ентропията



Ние (живото нещо) възприемаме физическа информация (изменения, пренасяни от фотоните, когато са организирани в ЕМвълни, които се четат от датчиците ни - силно ограничени сме, за да съществуваме като сложна структура) вероятностно!
"Знаенето" е психическа информация: нереални, абстрактни образи - идеална информация - не променяща физическите закони. Но, ползването й, винаги води до обмен и на физическа информация, която може да променя околност, без да нарушава законите.

Но поне едно нещо ми се струва някак очевидно - описанието на човешкото тяло (система с относително ниска ентропия) е с пъти по-сложно и изисква с пъти повече информация, отколкото описанието на торба пясък (система с относително висока ентропия), съдържаща приблизително същото количество енергия/материя.

Описанията - са идеална информация (Човек ги прави, не Природата) - при употреба ... Подрежда до - краен продукт с по-малко ентропия (за да му е удобно), но отделя топлина и общо - ентропията се увеличава.
Волкенщтейн казва (по памет) - Храним се с отрицателна ентропия (негаентропия).

При хранене - разкъсваме готови връзки във веществата, ползваме ги като енергия да си изградим наши връзки, които да ни държат в една цяло!.. Отделяме топлина... създаваме хаос, но ... хаосът в знанията ни ... въобще не пречи на Природата - тя си действа по физическите закони и ... това е.
...

Задачата на науката е да обясни това, което е невъзможно да се разбере

Тема Re: Пак ентропиятанови [re: Tom_cat]  
Автор zornik2 (неспасяем)
Публикувано11.11.15 17:28



Абе хора, вие сте си изпили мозъците с тази физика.
Изобщо не знаете какво е информация, интерпретирате си възможно по-наукообразно и си правите погрешни изводи


Не се притеснявай: знаем, че един бит информация е количество информация, заради което авторът й е бил бит!


Майтапя се.

Съм разграничил физическата информация (все едно, че Гл. мозък при Човек не съществува). Считам, че пак се осъществяват взаимодействия и въздействия в Природата...
Сега за наблюдател с мозък - Взаимодействията стават с обмен на фотони за връзка - непрестанна обратна връзка, ... честотно зависима е. Честотата на повтаряне е огромна... пък ние "виждаме" с 12 херца...
Така - докато отчете мозъка един импулс при наглед "топка", от нейната организация като структура идват ... поне 10^6 познати нам импулси. Затова я "виждаме" като едно цяло нещо - топка!
Е, при това, как да се радваме на инфото в главите ни, че и да му се надяваме да ни "обясни" света...
...
Можем само да си измисляме, но това не е реална информация - това е идеална информация. Затова науката физика, вярва само на факти от експерименти.
...

Задачата на науката е да обясни това, което е невъзможно да се разбере

Тема Re: Пак ентропиятанови [re: Tom_cat]  
Автор Герисъм (корав оптимист)
Публикувано11.11.15 17:31



"Най-напред трябва да разберете, че понятието ентропия в теорията на информацията не е идентично с понятието ентропия във физиката. "

Напълно вярно.


"Енергията не е идентична с информация."

И това е вярно. Информацията се свързва с ентропията на информационен поток в теорията на информацията, от там тази връзка доста механично се пренася и във физиката. И въпреки това, ентропията не е енергия, т.е. не може да се прави пряка връзка на енергия и информация.

За разлика от главата, стомахът се усеща когато е празен...


Тема Re: Пак ентропиятанови [re: mr Chaos]  
Автор Tom_cat ()
Публикувано11.11.15 17:33



Аз каквото трябва съм го прочел.
И нищо не бъркам.
Ти не вникваш в това, което ти казвам, и си баеш твоето.
Изместваш спора в друга посока.
Това което аз казах е, че няма дефиниция за информация. Ти сега ми разправяш как съм бъркал стойността на параметрите с броя им. Това откъде го измисли? Къде съм твърдял подобни неща? Посочи моля.




Страници по тази тема: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | >> (покажи всички)
Всички темиСледваща тема*Кратък преглед
Клуб :  


Clubs.dir.bg е форум за дискусии. Dir.bg не носи отговорност за съдържанието и достоверността на публикуваните в дискусиите материали.

Никаква част от съдържанието на тази страница не може да бъде репродуцирана, записвана или предавана под каквато и да е форма или по какъвто и да е повод без писменото съгласие на Dir.bg
За Забележки, коментари и предложения ползвайте формата за Обратна връзка | Мобилна версия | Потребителско споразумение
© 2006-2024 Dir.bg Всички права запазени.