|
Тема
|
американска фирма прави симулация на част от мозьк
|
|
Автор | THALAMUS (Нерегистриран) |
Публикувано | 15.02.04 18:13 |
|
На кратко. Вапросната американска фирма ще направи симулация на на слой от сивото вещество на главния мозьк дебел 1.5 милиметара. Този сло садьржа 20 милиарда неврона и 20 трилиона врьзки между невроните. За целта са конструирали комютор сьдьржащт 1000 (ХИЛЯДА) процесора, оперативна памет 1.5 терабйта. Н машина ще и трябват 80 терабйта данни и ще работи бод линукс.
Междодругото ми е интересно как и с кви пари Kibertron ще направят интелекта своя "Адам". А дори и да го направят на робота ще му трябва количка да си влачи мозака.
сайта е на русский :
http://www.membrana.ru/themes/robots_and_ai/
на сайта има много теми, конкретно темата за която говоря е тука :
http://www.membrana.ru/articles/technic/2003/10/02/204400.html
оригиналния сайт на фирмата :
http://www.ad.com/
Ако някой не разбира руский то може да се вьсползва от web-преводач, от руски на английски, превода ще е доста калпав, освен това незнам дали бачкат като хората тези преводачи. Всички преводачи които знам :
http://babelfish.altavista.com/babelfish
http://www.freetranslation.com/
http://www.translate.ru/
http://www.translate.ru/srvurl.asp?lang=ru
http://www.systransoft.com/
http://trans.voila.fr/
| |
Тема
|
Re: американска фирма прави симулация на част от мозьк
[re: THALAMUS]
|
|
Автор | neo_33 (Нерегистриран) |
Публикувано | 21.02.04 20:39 |
|
мозакът не е необходимо да е с толкова голиама памет нито пък да е с 1000 протцесора ..... всъщност ако се разработжа като обикновен РС ще е провал
има ниакои разработки които доказват това твърдение но за сега нямам адреси които да дам но ще ги намерия и ще ги предоставя
| |
Тема
|
Re: американска фирма прави симулация на част от мозьк
[re: neo_33]
|
|
Автор | THALAMUS (Нерегистриран) |
Публикувано | 22.02.04 20:11 |
|
Незнам дали си видял линковете обаче на този компютор те симолират невронна мрежа и вече на тази база работят. Относно невозможноста да се направи интелект на компютор, до колкото аз знам, идва от това че невронните мрежи работят паралелно и зада се симулират големи мрежи на компутор се изискват голями ресурси. Откаде всашност знаеш че на компютор - ще е провал??
| |
Тема
|
Re: американска фирма прави симулация на част от мозьк
[re: THALAMUS]
|
|
Автор |
x-man (дебел) |
Публикувано | 24.02.04 10:38 |
|
Както казва THALAMUS проблема със симулациите на биологични мозъци идва главно от една тяхна характеристика : техния масивен паралелизъм.
Е трябва да се имат предвид и проблемите със изследването на мозъците. Масивния паралелизъм и броя на процесорните елементи (неврони, дендирит,синапси и т.н.) създават доста сложна система чиято динамика е трудно ( по точната дума е невъзможно) да бъде формализирана.
Та това са два проблема: първо не се ясни някой доста важни детайли по отношение на биологичните мозъци и второ изискванията по отношение на хардуера са много сериозни.
По отношение на симулациите определено проблема е свързан с изчислителната мощност на хардуера.
Разбира се някой подходи към хардуерната архитектура могат да снижат изискванията към отделна процесорна единица: Ако имате за цел да симулирате всеки нврон с отделен процесорен елемент следва че могат да се използват доста прости процесори (такива които да могат да изчислят една проста функция от входа си). Това обаче означава че би следвало да се комбинират в обща хардуерна платформа милиони процесорни единици - не бих казал че е проста задача особено ако целта е да се направи пълна симулация (е разбира се има такива симулации но те не са особено реалистични имайки предвид билогичните примери ): честотни модулации, закъснения по синапсите, време за въстановяване на мембрания потенциал и т.н.
Тук няма да засягам въпроса с обучението/организацията на системата които вдига още повече изискванията към системата и като че ли са най серизния проблем при създаването на полезни инжинерни решения
По отношение изпозването на по- конвенционален подход а именно конвенционални мултипроцесорни системи (е друг е върпоса дали 1000 процесорна система може да се нарече конвенционална ) масивния паралелизъм се постига с деление на процесорното време. Това изисква доста по мощни и скъпи процесори но пък хардуерната платформа е по проста.
Много дълго стана така че накратко: има аргументи за/против и за двата подхода. Но в крайна сметка става дума за недостиг на изчислителна мощност като един от начините да максимизираш този фактор в рамките на една "конвенционална" компютърна система в днешно време е да преместиш данните в по- бърз носител какъвто е паметта - а това в нашия случай значи МНОГО памет
Линкове в подкрепа на това ми мнение малко по натам ..
| |
|
|
|
|