Отговарям отзад-напред.
С навигационни проблеми не съм се занимавал. (Ако приемаш смешки - разглеждал съм ги от ъгъл 180 градуса, сиреч с гръб към тях)Случайно попаднах на темата за системи за управление. С такива, виж, съм се занимавал. И се зачетох. Видях познат пример и реших да помогна с нещо.
Междувременно се опитах да намеря статията, в която този пример е даден, заедно с още няколко - напр. катастрофата в ядрената централа в "Три милевия остров" и някои други. Някой аспирант трябва да ми я е отмъкнал, защото не мога да я открия в папките си. Тя беше "хард-копи".
Примерът в статията беше предназначен да убеди читателите, колко е важно да бъде развивано направлението "безопасност" при използване на програмни (софтуерни) системи за управление на критични обекти. Това направление възникна в началото на 80-те с активното участие на проф Нанси Левесон. Ако не ти е интересно, прескочи справката за нея на английски. Спомням си колко разпалено убеждаваше участниците в симпозиума "SafeComp'85" в Комо, Италия за опасностите от софтуер за управление - "Software kills people, but you all are loughing..." Аудиторията се беше разсмяла на някава забележка.
В една следваща концептуална статия на същата тази Левесон, ако не се лъжа, се появат и примерите. По точно в: "Leveson, N.G. ``Software Safety: Why, What, and How,'' ACM Computing Surveys, Vol. 18, No. 2, June 1986, pp. 125-163".
Независимо, че е професор, тя още е жива. Издала е книга "Safeware: System Safety and Computers by Nancy Leveson. Published by Addison Wesley (1995)". Не съм я разглеждал, но при коментар на примерите, разгледани в книгата, :
"My fear of doing harm is partially the reason for excluding rumored accidents that have not been investigated or documented by someone who participated on the project. Chapter 3 includes a lot of evidence from the social science and safety literature that shows that accidents are often blamed publicly on the wrong factors for various psychological, sociological, and political reasons. There is agreement and carefully documented evidence on this misattribution phenomenon. And stories taken from newspapers are written by reporters who are under time pressure to produce news immediately and not wait six months for an investigation of what really happened. Most of what I have read in some recent books, bboards, and newspapers about accidents that I am personally familiar with has been incorrect. Misleading and wrong information can be more dangerous than no information."
Което, в крайна сметка съвпада и с изложеното от теб мнение. Че има много случаи, при които истината е нищожна част от слуховете, раздухвани по различни причини.
За едновременността на "обръщането с корема нагоре" - ами системите за управление са с детерминирано поведение и при еднакви стимули имат еднакви реакции. Една причина за асинхронност може да се дължи на несъвпадение на моментите на проверяване на показанията на датчиците - примерно 20 мксек - 10 млсек, в зависимост от периода на обхождане на датчиците (ако е полинг организация) или различно време за обработка на прекъсване в зависимост от програмата, която се прекъсва. Друга причина за разминаване на моментите може да е в различната инерционност на електро-механичните механизми - там ти ще кажеш каква е допустимата разлика (статистическо отклонение). Времената за реакция на управляващите устройства (изпълнение на обработващата програма) могат да се различават за всяка двойка с примерно 10Е(-8). Допускам, че управлението е "fly-by-wire" и няма забележими закъснения при предаване на сигналите. Ами това са песимистичните причини, поради които не се усъмних особено.
Дори и аз не съм си представял, обаче, че групата се е преметнала като дресирани делфини. Абсолютно синхлронно - в реалното време на компютрите.
Впрочем, това понятие - реално време е тънка работа, в смисъл, че много зависи от реализираната грануларност. Имаше един Laslie Lamport (пак от вашите, де), който в края на 70-те ги беше разнищил работите с реалното време и синхронизацията на събития в разпределени компютърни системи - покрай един проект на NASA - SIFT.
Май много се отплеснах. Извинявай. Доказателство, че съм професор. По размитост и разсеяност го докарвам.
"Dr. Leveson is a Professor in the MIT Aeronautics and Astronautics Dept. and head of the MIT Software Engineering Research Lab (SERL). Previously, she was Boeing Professor of Computer Science and Engineering at the University of Washington. Dr. Leveson is a founder of the field of software safety and has been doing research and consulting on this topic since 1980. Before becoming a professor, she was a system's engineer for IBM. Dr. Leveson consults widely on safety-critical systems for both government and industry. She has worked with aerospace, nuclear power, transportation, aircraft, and medical systems. In 1995, Dr. Leveson was awarded the AIAA Information Systems Award for ``developing the field of software safety and system engineering practices where life and property are at stake.'' She received the 1999 ACM Allen Newell Award for "pioneering work in establishing the foundations of software safety and was recently elected to the National Academy of Engineering (NAE). "
Редактирано от Пecимиcт на 09.02.01 17:55.
|