Няма такова нещо да "развива" - ще развива, ако не се разяснява защо е направилно (макар че никак не е сложно за разбиране и не знам защо хората не се замислят какво всъщност казват). Твоята логика е "грешката е вярна, защото аз твърдя така".
По повод дефинциите, аз първо ще ти задам контравъпроса: "А ти къде провери, че не е така?" и после ще ти посоча няколко лесно проверими места, например:
1) Енциклопедичен речник от А до Я, изд. БАН, София 1974, стр. 929: "Цифри (араб.л) - знаци за означение на числа, различни у различните народи..."
2) Българска енциклопедия, изд. "Труд", електронен вариант, раздел "Науки.Математика.Аритметика.Теория на числата" (с Copy/Paste, че е по-лесно): "Символ за означаване на естествено число. Първите цифри са египетските и вавилонските. У много народи за цифри са служили букви от азбуката. През средновековието в Европа са използвани римски цифри (на основа на знаците I = 1, V = 5, Х = 10, L = 50, C = 100, D = 500, M = 1000). Съвременните цифри - арабски 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, са пренесени в Европа през 13 в. (от Индия) и се разпространяват широко след II половина на 13 в."
Предполагам, че ако имаш тълковен речник на български език, там ще намериш нещо подобно. Сега ти ми цитирай един източник, където е казано, че '1000000" е цифра (или нещо подобно).
Значи "резервирано е само определението" (както твърдя аз), защото друго в това определение няма, нали така?
Жалко е, че трябва да си доказваме елементарни и очевидни неща. Вкарването на една грешка в практика не я узаконява. А ако си мълчим ще слушаме глупости като таи, за която не знам защо спорим и други от рода на "Силиконовата долина", примерно (дано не се наложи да обяснявам и за това).
T-shirt slogan:
To err is human, to really foul things up requires a computer
|