|
Тема |
Re: американска фирма прави симулация на част от мозьк [re: THALAMUS] |
|
Автор |
x-man (дебел) |
|
Публикувано | 24.02.04 10:38 |
|
|
Както казва THALAMUS проблема със симулациите на биологични мозъци идва главно от една тяхна характеристика : техния масивен паралелизъм.
Е трябва да се имат предвид и проблемите със изследването на мозъците. Масивния паралелизъм и броя на процесорните елементи (неврони, дендирит,синапси и т.н.) създават доста сложна система чиято динамика е трудно ( по точната дума е невъзможно) да бъде формализирана.
Та това са два проблема: първо не се ясни някой доста важни детайли по отношение на биологичните мозъци и второ изискванията по отношение на хардуера са много сериозни.
По отношение на симулациите определено проблема е свързан с изчислителната мощност на хардуера.
Разбира се някой подходи към хардуерната архитектура могат да снижат изискванията към отделна процесорна единица: Ако имате за цел да симулирате всеки нврон с отделен процесорен елемент следва че могат да се използват доста прости процесори (такива които да могат да изчислят една проста функция от входа си). Това обаче означава че би следвало да се комбинират в обща хардуерна платформа милиони процесорни единици - не бих казал че е проста задача особено ако целта е да се направи пълна симулация (е разбира се има такива симулации но те не са особено реалистични имайки предвид билогичните примери ): честотни модулации, закъснения по синапсите, време за въстановяване на мембрания потенциал и т.н.
Тук няма да засягам въпроса с обучението/организацията на системата които вдига още повече изискванията към системата и като че ли са най серизния проблем при създаването на полезни инжинерни решения
По отношение изпозването на по- конвенционален подход а именно конвенционални мултипроцесорни системи (е друг е върпоса дали 1000 процесорна система може да се нарече конвенционална ) масивния паралелизъм се постига с деление на процесорното време. Това изисква доста по мощни и скъпи процесори но пък хардуерната платформа е по проста.
Много дълго стана така че накратко: има аргументи за/против и за двата подхода. Но в крайна сметка става дума за недостиг на изчислителна мощност като един от начините да максимизираш този фактор в рамките на една "конвенционална" компютърна система в днешно време е да преместиш данните в по- бърз носител какъвто е паметта - а това в нашия случай значи МНОГО памет
Линкове в подкрепа на това ми мнение малко по натам ..
|
| |
|
|
|