Клубове Дир.бг
powered by diri.bg
търси в Клубове diri.bg Разширено търсене

Вход
Име
Парола

Клубове
Dir.bg
Взаимопомощ
Горещи теми
Компютри и Интернет
Контакти
Култура и изкуство
Мнения
Наука
Политика, Свят
Спорт
Техника
Градове
Религия и мистика
Фен клубове
Хоби, Развлечения
Общества
Я, архивите са живи
Клубове Дирене Регистрация Кой е тук Въпроси Списък Купувам / Продавам 13:19 16.07.25 
Клубове / Наука / Технически науки / Кибернетика Пълен преглед*
Информация за клуба
Тема Re: американска фирма прави симулация на част от мозьк [re: THALAMUS]
Автор x-man (дебел)
Публикувано24.02.04 10:38  



Както казва THALAMUS проблема със симулациите на биологични мозъци идва главно от една тяхна характеристика : техния масивен паралелизъм.
Е трябва да се имат предвид и проблемите със изследването на мозъците. Масивния паралелизъм и броя на процесорните елементи (неврони, дендирит,синапси и т.н.) създават доста сложна система чиято динамика е трудно ( по точната дума е невъзможно) да бъде формализирана.
Та това са два проблема: първо не се ясни някой доста важни детайли по отношение на биологичните мозъци и второ изискванията по отношение на хардуера са много сериозни.

По отношение на симулациите определено проблема е свързан с изчислителната мощност на хардуера.
Разбира се някой подходи към хардуерната архитектура могат да снижат изискванията към отделна процесорна единица: Ако имате за цел да симулирате всеки нврон с отделен процесорен елемент следва че могат да се използват доста прости процесори (такива които да могат да изчислят една проста функция от входа си). Това обаче означава че би следвало да се комбинират в обща хардуерна платформа милиони процесорни единици - не бих казал че е проста задача особено ако целта е да се направи пълна симулация (е разбира се има такива симулации но те не са особено реалистични имайки предвид билогичните примери ): честотни модулации, закъснения по синапсите, време за въстановяване на мембрания потенциал и т.н.
Тук няма да засягам въпроса с обучението/организацията на системата които вдига още повече изискванията към системата и като че ли са най серизния проблем при създаването на полезни инжинерни решения

По отношение изпозването на по- конвенционален подход а именно конвенционални мултипроцесорни системи (е друг е върпоса дали 1000 процесорна система може да се нарече конвенционална ) масивния паралелизъм се постига с деление на процесорното време. Това изисква доста по мощни и скъпи процесори но пък хардуерната платформа е по проста.

Много дълго стана така че накратко: има аргументи за/против и за двата подхода. Но в крайна сметка става дума за недостиг на изчислителна мощност като един от начините да максимизираш този фактор в рамките на една "конвенционална" компютърна система в днешно време е да преместиш данните в по- бърз носител какъвто е паметта - а това в нашия случай значи МНОГО памет
Линкове в подкрепа на това ми мнение малко по натам ..



Цялата тема
ТемаАвторПубликувано
* американска фирма прави симулация на част от мозьк THALAMUS   15.02.04 18:13
. * Re: американска фирма прави симулация на част от мозьк neo_33   21.02.04 20:39
. * Re: американска фирма прави симулация на част от мозьк THALAMUS   22.02.04 20:11
. * Re: американска фирма прави симулация на част от мозьк x-man   24.02.04 10:38
Клуб :  


Clubs.dir.bg е форум за дискусии. Dir.bg не носи отговорност за съдържанието и достоверността на публикуваните в дискусиите материали.

Никаква част от съдържанието на тази страница не може да бъде репродуцирана, записвана или предавана под каквато и да е форма или по какъвто и да е повод без писменото съгласие на Dir.bg
За Забележки, коментари и предложения ползвайте формата за Обратна връзка | Мобилна версия | Потребителско споразумение
© 2006-2025 Dir.bg Всички права запазени.