Мы живем в мире информации и сами пронизаны ею насквозь. Однако, нет общепринятого определения информации. Даже математическая теория информации замалчивает этот вопрос.
В академических изданиях информация тавтологично определяется через "сведения". При этом даются некоторые эпитеты, но среди них царит разнобой.
Вместо "сведения" также используются другие мало что проясняющие синонимы: данные, значение. В международных стандартах фигурирует слово "знания".
По мнению некоторых ученых, вообще не может быть строгого определения информации.
Впрочем, энтузиасты не скупятся на литературно-художественные определения, подобные фигурировавшему на сайте "березовому квазару". Например, под информацией понимают "вибрационные сплетения". Но не намного лучше определение даже отца кибернетики Н.Винера: информация - это обозначение содержания.
И все же странно, что математики прошлого не предложили формальной модели информации, хотя она напрашивается по классическим схемам, и при ее простоте даже трудно претендовать на оригинальность и новизну.
На мой взгляд, неудачи были вызваны тем, что к "информации" непременно пытались присобачить отличительные черты. А достаточно строгое определение должно быть дано исключительно через понятие множества.
Вот это определение:
Информация - это множество пар, в которых первый элемент принадлежит заданному множеству, а второй есть ноль или единица, причем каждый элемент заданного множества не более одного раза встречается в качестве компоненты пар. Каждый элемент указанного множества пар есть один бит информации.
Эквивалентно: информация - это функция на заданном множестве, принимающая значения 0 или 1. (Напомню, что функция в математике определяется как множество пар, т.е. сводится к понятию множества.)
Ноль и единица - это не какие-то непременные отличительные черты. Вместо них можно было взять, например, буквы А и Б. И вообще, любую двузначную функцию. Но поскольку между 0, 1 и А, Б существует взаимно однозначное соответствие, то с точки зрения математики это одно и то же. Ноль и единица выбраны, как говорят, для определенности, для удобства. (Еще ходовое выражение: "без ограничения общности".)
Вместо нуля и единицы можно разрешить любые значения и буквы. Однако, другие значения все равно раскладываются на нули и единицы на более широком множестве, поэтому ничего по существу нового не получится. Это так же все равно, как за единицу веса брать один грамм или один килограмм. (Но для выделения одного бита придется рассматривать расширенное множество.) Важнее построить простейшее определение.
Упомянутые в определении пары по-другому называют соответствием между двумя множествами. Таким образом, имеется исходное множество М1 произвольной величины и природы, а также множество М2 из двух элементов: ноль и единичка. А информация - это множество пар или, что то же самое, соответствие между двумя множествами: М1 и М2.
Существенно, что информация не сводится и не отождествляется ни с М1, ни с М2. А именно таким отождествлением грешит большинство определений. Информация стоит выше, надстраивается над М1 и М2, она сама есть третье полноправное множество М3.
Приведенное понятие информации не привязано к трактовке, точности, содержательности и другим свойствам информации, но служит основой для следующих понятий, связанных с шифровкой, трактовкой и т.п. Так, если в слове переставить буквы, то неверное слово все равно останется информацией.
Далеко не во всех рассуждениях и построениях, даже в математике, требуется предельная точность. Но если ограничиваться пресловутым здравым смыслом, то регулярно будут возникать случаи, когда кажется, что информация исчезла, что она не уловима, что она из потустороннего мира, и что вообще любые рассуждения бессмысленны.
Например, для иллюстрации бита информации часто приводят ячейку памяти, где может храниться ноль или единица (т.е. множество М3 отождествляется с М1). Это неплохо для начальной школы, но неточно. Так, по отношению к одной ячейке возможны, по крайней мере, четыре состояния: пусто (скажем, ЭВМ выключена), 0, 1, неизвестность, а это уже плохо укладывается в один бит, который должен быть минимальной единицей информации. Одному биту должно соответствовать только одно состояние ячейки, как и получается согласно данному выше определению.
Чуть лучше будет представить бит как ячейку памяти с записанным в нее нулем. Но и это сильно неточно, поскольку создается иллюзия объединения ячейки с числом, что так же плохо, как складывать землекопов с лопатами. При таком подходе самостоятельное множество М3 подменяется объединением множеств М1 и М2.
Есть хорошая аналогия: каждая точка на плоскости - это самостоятельный неделимый элемент. И в то же время точке сопоставляются ее координаты - упорядоченная пара чисел. Плоскость в данном случае играет роль М3, а числа - М1 и М2.
На практике в большинстве случаев не возникает недоразумений, когда говорят о бите информации. Но всегда про запас желательно иметь строгое определение, которым можно проверить выводы.
Математических понятий не достаточно, чтобы впихнуть в них всю реальность, но образец строгости позволил бы отчего-то отталкиваться и уточнить определения в других областях знаний.
В заключение - пример. Пусть дана страница текста из 2000 букв. Не так-то просто выделить собственно информацию среди множества обстоятельств. Здесь небезразлично место каждой буквы на странице, деление текста на слова и строки. Может играть роль шрифт или почерк, из которых Шерлок Холмс, наверняка, извлек бы немало сведений. В тексте могут быть намеки, и, как говорят, надо читать между строк.
Поэтому есть некоторый произвол в выборе множества М1, позволяющий в зависимости от ситуации учесть суть и отбросить лишнее. Однако, стандартный подход следующий: М1 - это множество натуральных чисел от 1 до 2000, а М2 - множество символов языка.
(Выше было отмечено, что символ можно представить набором нулей и единиц. Поэтому можно было обойтись нулями и единичками на множестве чисел от 1 до 16000, если символов в языке не больше 256. Однако, имея про запас такую возможность, вполне корректно будет взять в качестве М2 все символы языка.)
Действительно, на странице важно не столько само место, где стоит буква, а в какой последовательности идут буквы. И эта последовательность полностью отражается нумерацией от 1 до 2000. Но и физическая последовательность - это не суть дела. Собственно информацией является множество пар вида (номер, буква), которое полностью отвлекается ото всех особенностей хранения информации и не потеряет своей сути, как бы его ни перемешивать. Н.В.Невесенко
В академических изданиях информация тавтологично определяется через "сведения". При этом даются некоторые эпитеты, но среди них царит разнобой.
Вместо "сведения" также используются другие мало что проясняющие синонимы: данные, значение. В международных стандартах фигурирует слово "знания".
По мнению некоторых ученых, вообще не может быть строгого определения информации.
Впрочем, энтузиасты не скупятся на литературно-художественные определения, подобные фигурировавшему на сайте "березовому квазару". Например, под информацией понимают "вибрационные сплетения". Но не намного лучше определение даже отца кибернетики Н.Винера: информация - это обозначение содержания.
И все же странно, что математики прошлого не предложили формальной модели информации, хотя она напрашивается по классическим схемам, и при ее простоте даже трудно претендовать на оригинальность и новизну.
На мой взгляд, неудачи были вызваны тем, что к "информации" непременно пытались присобачить отличительные черты. А достаточно строгое определение должно быть дано исключительно через понятие множества.
Вот это определение:
Информация - это множество пар, в которых первый элемент принадлежит заданному множеству, а второй есть ноль или единица, причем каждый элемент заданного множества не более одного раза встречается в качестве компоненты пар. Каждый элемент указанного множества пар есть один бит информации.
Эквивалентно: информация - это функция на заданном множестве, принимающая значения 0 или 1. (Напомню, что функция в математике определяется как множество пар, т.е. сводится к понятию множества.)
Ноль и единица - это не какие-то непременные отличительные черты. Вместо них можно было взять, например, буквы А и Б. И вообще, любую двузначную функцию. Но поскольку между 0, 1 и А, Б существует взаимно однозначное соответствие, то с точки зрения математики это одно и то же. Ноль и единица выбраны, как говорят, для определенности, для удобства. (Еще ходовое выражение: "без ограничения общности".)
Вместо нуля и единицы можно разрешить любые значения и буквы. Однако, другие значения все равно раскладываются на нули и единицы на более широком множестве, поэтому ничего по существу нового не получится. Это так же все равно, как за единицу веса брать один грамм или один килограмм. (Но для выделения одного бита придется рассматривать расширенное множество.) Важнее построить простейшее определение.
Упомянутые в определении пары по-другому называют соответствием между двумя множествами. Таким образом, имеется исходное множество М1 произвольной величины и природы, а также множество М2 из двух элементов: ноль и единичка. А информация - это множество пар или, что то же самое, соответствие между двумя множествами: М1 и М2.
Существенно, что информация не сводится и не отождествляется ни с М1, ни с М2. А именно таким отождествлением грешит большинство определений. Информация стоит выше, надстраивается над М1 и М2, она сама есть третье полноправное множество М3.
Приведенное понятие информации не привязано к трактовке, точности, содержательности и другим свойствам информации, но служит основой для следующих понятий, связанных с шифровкой, трактовкой и т.п. Так, если в слове переставить буквы, то неверное слово все равно останется информацией.
Далеко не во всех рассуждениях и построениях, даже в математике, требуется предельная точность. Но если ограничиваться пресловутым здравым смыслом, то регулярно будут возникать случаи, когда кажется, что информация исчезла, что она не уловима, что она из потустороннего мира, и что вообще любые рассуждения бессмысленны.
Например, для иллюстрации бита информации часто приводят ячейку памяти, где может храниться ноль или единица (т.е. множество М3 отождествляется с М1). Это неплохо для начальной школы, но неточно. Так, по отношению к одной ячейке возможны, по крайней мере, четыре состояния: пусто (скажем, ЭВМ выключена), 0, 1, неизвестность, а это уже плохо укладывается в один бит, который должен быть минимальной единицей информации. Одному биту должно соответствовать только одно состояние ячейки, как и получается согласно данному выше определению.
Чуть лучше будет представить бит как ячейку памяти с записанным в нее нулем. Но и это сильно неточно, поскольку создается иллюзия объединения ячейки с числом, что так же плохо, как складывать землекопов с лопатами. При таком подходе самостоятельное множество М3 подменяется объединением множеств М1 и М2.
Есть хорошая аналогия: каждая точка на плоскости - это самостоятельный неделимый элемент. И в то же время точке сопоставляются ее координаты - упорядоченная пара чисел. Плоскость в данном случае играет роль М3, а числа - М1 и М2.
На практике в большинстве случаев не возникает недоразумений, когда говорят о бите информации. Но всегда про запас желательно иметь строгое определение, которым можно проверить выводы.
Математических понятий не достаточно, чтобы впихнуть в них всю реальность, но образец строгости позволил бы отчего-то отталкиваться и уточнить определения в других областях знаний.
В заключение - пример. Пусть дана страница текста из 2000 букв. Не так-то просто выделить собственно информацию среди множества обстоятельств. Здесь небезразлично место каждой буквы на странице, деление текста на слова и строки. Может играть роль шрифт или почерк, из которых Шерлок Холмс, наверняка, извлек бы немало сведений. В тексте могут быть намеки, и, как говорят, надо читать между строк.
Поэтому есть некоторый произвол в выборе множества М1, позволяющий в зависимости от ситуации учесть суть и отбросить лишнее. Однако, стандартный подход следующий: М1 - это множество натуральных чисел от 1 до 2000, а М2 - множество символов языка.
(Выше было отмечено, что символ можно представить набором нулей и единиц. Поэтому можно было обойтись нулями и единичками на множестве чисел от 1 до 16000, если символов в языке не больше 256. Однако, имея про запас такую возможность, вполне корректно будет взять в качестве М2 все символы языка.)
Действительно, на странице важно не столько само место, где стоит буква, а в какой последовательности идут буквы. И эта последовательность полностью отражается нумерацией от 1 до 2000. Но и физическая последовательность - это не суть дела. Собственно информацией является множество пар вида (номер, буква), которое полностью отвлекается ото всех особенностей хранения информации и не потеряет своей сути, как бы его ни перемешивать. Н.В.Невесенко
Обсуждения Что такое информация?
Ценную информацию лучше держать при себе.
А продают только ненужную, как у нас один банк додумался торговать программой, прогнозирующей курсы валют.
В случае с математическими понятиями философии особо развернуться негде, так как трудно искать философский смысл в треугольнике, теореме Пифагора и т.п., хотя находятся бездельники, которые ищут тайный смысл в каждой цифре числа пи.
Философия больше востребована как последнее средство, когда ничего более надежного нет.
В случае с информацией есть математическое определение. Главное, что оно никак не расходится, а, наоборот, подтверждает распространенные интуитивные представления об информации как о знаниях, текстах, изображениях и т.д.
Поэтому на практическом уровне вполне достаточно считать, что информация - это текст, и всякие пустые бесконечные философствования об информации только запутывают дело.
1. Те же 10 землекопов и 10 лопат. Единичка будет означать землекопа, а ноль - лопату. Тогда информация состоит из 20 бит: 11111111110000000000.
2. В группе из 10 человек каждый оценивается по 4 признакам: семейный, партийный, был за границей, привлекался к ответственности. Тогда информация - это строка из 40 символов, где первые четыре, например, 1010 отвечают первому человеку и означают, что он семейный, беспартийный, был, не привлекался.
3. Если признак не исчерпывается двумя возможными значениями, то ему отводится не один, а больше битов. Например, для возраста человека достаточно 7 бит: 0000001 отвечает одному году, а 1111111 - 127 годам.
Предметы А ( 00...001, 00..002 и так далее)
Свойства предметов
Свойства Б (00..001, 00..002 и так далее)
Тогда допустим предмет А 00...001 примерно это так А 0101001 (00...001) и свойства Б 00..001 как то так Б 01010010001 (00..001) имеют пересечение 0 или 1
Допустим стекло и прозрачность имеет пересечение а металл и прозрачность не имеет пересечение.
Не только в математике, но и всюду есть ответственность исполнителя и есть ограничения, где какие инструменты можно применять. Если кто-то стал забивать гвозди микроскопом или складывать землекопов с лопатами, то плохи не инструменты, а исполнитель.
Информация в математике дискретна (хотя при больших количествах она может быть недалека от художественных образов). Поэтому получение полутора землекопов говорит только о безграмотности исполнителя.
Однако, нет ничего крамольного, если сначала выстроить десяток землекопов и присвоить им номера от 1 до 10, а далее десяток лопат с номерами от 11 по 20. Затем для различения объектов достаточно знать их номера. Если нам назвали номер 15, значит, хотят получить лопату.
Кстати, в последнем виде определение далеко не ново. Но в статье показано, что под ним есть надежная основа.
При данном мною (а точнее, доработанном) определении совершенно излишне "доказывать что информацию можно представить в цифровой форме". Но если ты дашь иное определение, то тебе действительно придется доказывать.
Еще важно, что изложенное в статье определение обслуживает сегодняшние нужды науки и познания. Но ничего вечного не бывает. Возможно, оно будет когда-нибудь расширено или уточнено. Однако, это не отменит его вообще, как Эйнштейн не опроверг, а лишь дополнил механику Ньютона.
Вот это определение:
Информация - это множество пар, в которых первый элемент принадлежит заданному множеству, а второй есть ноль или единица, причем каждый элемент заданного множества не более одного раза встречается в качестве компоненты пар. Каждый элемент указанного множества пар есть один бит информации.
Что значит из других понятий .
я привел пример со строкой браузера, где программисты заложили по определенным понятием поиск слова и корова и карова и прочее и этот язык программирования постоянно усложняется. То есть у них есть какие то технические инструменты для анализа поступающей информации и обработки и выдачи результата с учетом ЧЕЛОВЕЧЕСКОГО ФАКТОРА.
Этот факт доказывает по крайне мере что информацию можно представить в цифровой форме и даже проводить логические операции с ними по крайне мере распознавания и поиска.
Но что значит: "совершенно из других понятий" ? Мы что, с тобой в совершенно разных мирах живем? Тогда кто оторвался от реального мира и витает в облаках?
Уверен, что математика (только не в твоей примитивной концепции) отражает очень многие (не все, конечно) и очень глубокие законы мира, а потому, если мир от Бога, то математика - одна из вещей, наиболее близких Богу и любимых Богом. Возможно, именно в ней Он выразил свое самое сокровенное и духовное, а затем нам велел познавать это духовное. Поэтому, если ты ничего не понял в самых азах этих великих задумок, то можно подозревать, что именно ты оторвался от Божественной реальности и высшей духовности.
Ты, конечно, можешь забыть статью, оправдавшись, что "если с первого раза не понял, то уже не понял".
Но люди устроены не так. Знания входят в них постепенно, по частям. Им приходится трудиться, чтобы что-то понять. Поэтому педагог никогда бы не принял твою отговорку. Он стал бы спрашивать: что конкретно непонятно? Если первая фраза понятна, то переходим ко второй. Если непонятна уже первая, то: с какого слова становится непонятно? И т.д. Пытливый ученик и сам может задавать себе подобные вопросы.
Хотя и принял. Совершенно из других понятий.
И понятно что не понял, судя как я читаю любой информацию я ее просто глотаю
и если с первого разв не понял, то уже не понял.
К сожалению понимание вещь такая сложная.
Хотя к пониманию и правильности твоего мышления и явленным фактом является строка в моем браузере.
Я понимаю огромную работу программистов по оптимизации программ по поиску информации в интернете.
С каждым годом это браузерная строка все больше и больше понимает меня. Хот ни какой умный дядька не сидит за компьютером и не отвечает на миллиарды запросов пользователей, все это делается а автоматическом режиме по программам безусловно основанным на математической работе зашифровки информации в компьютерах . И если я хотел узнать сведения о корове и написал бы карова то не получил бы ничего. В данное время как не пиши, в основном компьютер на 90 % найдет то что ты желаешь найти. И этот процесс все более и более улучшается. Как видно информация будет все более и более отделяться от источника своего появления человека. Человек не главное в информации. Если есть ответ и понимания без человека. То в будущем и вопрос возможен без человека. Только на основание РАЗВИТОГО КОМПЛЕКСА
"единая развивающаяся коррелянтно-онтогенезно-филогенезно осцилирующая ФОРМА,"
Чтобы делать подобные всеобъемлющие и универсальные утверждения, от Вас желательно сначала получить другое, более точное по-вашему определение информации, от которого Вы могли бы отталкиваться. Пока же в Вашем определении (через договоренность) сплошные дыры и очень мало смысла.
Не ясно, что Вы вообще имеете в виду под смыслом. В древних египетских текстах в свое время тоже не проглядывался смысл, но их берегли, изучали, и потом смысл обнаружился. По Вашей версии надо было все сжечь, как делали конкистадоры?
Если под письмом Вы имеете в виду пару туманных фраз, не имеющих отношения к обсуждаемой теме, то дошло.
Информация без смысла не нужна.
До Вас дошло моё письмо ?
Вы же привлекли в определение смысл, вещь в общем нужную, но часто расплывчатую и туманную.
А после строгого определения на следующем этапе уже можно его осмысливать, если хочется.
ккк = ку-клукс-клан
сссс = свердловская селекционная станция садоводства (настоящая официальная организация!)
Если для Вас "ккк" не имеет смысла, то при шифровании текстов вполне могли закодировать кота как "ккк". Вы же так утверждаете, будто "ккк" на все времена никогда не будет иметь смысла, а это неверно.
Я не сомневаюсь, что древние майя договаривались между собой. Но какое это имеет отношение к делу? Я привел пример отсутствия договоренности этих майя и современных ученых, что не помешало расшифровке древних иероглифов. Этот пример показывает слабость Вашего определения информации как договоренности (да оно и на определение мало похоже).
Есть и другие обширные примеры: с генетической информацией. Здесь явно генетики не договаривались с производителем, а то иначе у них расшифровка пошла бы веселее.
Еще распространенный случай: программы для ЭВМ и разной техники. Они даже не предназначены для расшифровки человеком. Кто же тут с кем договаривался? Может быть, со стиральной машиной переговоры велись?
"Договоренность" не удачна и по чисто формальному признаку: наверное, это какой-то договор, текст, а значит, информация. Т.е. информация у Вас тавтологично определяется через информацию.
Вы же не выдвинули против моего определения ничего кроме краткого заявления, что "ккк сссс" - не информация. Но почему нет?
Посмотрите моё письмо на mail.ru.
А насчет договоренности древних майя с современными учеными я впервые слышу. Уточните, где, кто, когда и с кем?{smile11
Однако, все краткие определения по своей природе отчасти не точны, поскольку не могут охватить все нюансы нередко противоречивого словоупотребления. Поэтому все равно на чем-то надо зафиксироваться. Дайте лучшее определение, и я с удовольствием буду пользоваться Вашим. А если отрицать всякие определения информации, то непонимание гарантировано.
достаточно дать опровергающий пример.
Зашифрованное сообщение - информация для тех кто знает шифр,
для остальных это не информация.
Информация - договорённость как минимум 2 умных существ.
Тогда будем сравнивать и оценивать полезность разных определений.
Пока предварительно могу сказать, что в каком-нибудь зашифрованном сообщении могли обозначить кота через ккк, а "спит" - через ссс. Чем это не информация?
что любой набор символов является информацией.
Это не так.
Например, "кот спит" - это информация,
а "ккк сссс" - это не информация.
"сам Законодатель не в силах изменить Его законы мироздания".
Позвольте (из-за технического брака на сайте в Навигаторе) еще кое-что уточнить здесь.
Итак, Законодатель не меняет законы "из-за любви к тому, что создано". Что же тогда по-вашему любовь? В семизаконии у Вас ее нет. Тогда это первая поправка к семизаконию? Или она стоит над семизаконием и контролирует применение семизакония?
Кстати, про любовь Вы писали, что "это чувство присутствует в каждом человеке помимо его воли" (2016-07-15 09:57:20, статья "Что такое любовь?" в навигаторе).
А в Боге: тоже помимо его воли?
Кроме того, из принципиальной возможности еще не следует актуальная. Вы, Николай, приводили как-то пример, что в каждой деревне принципиально возможен метрополитен, однако, его не строят.
Даже вся современная математика построена на аксиоме выбора, которая не позволяет перевести принципиальную возможность в действительную.
А система кодирования построена на нереальности разложить большие числа на простые сомножители, хотя формально для этого есть тривиальный конструктивный алгоритм.
Убедительным доказательством подхода Воина мог бы послужить поток аксиоматизаций в разных науках. Но на самом деле его нет. Автор как две капли воды похож на изобретателей вечного двигателя, которые сами ничего реализовать не могут, но усиленно навязывают свои фантазии другим.
Потребности, конечно, и раньше были, да доставать особо было нечего, и большинство людей просто не имело на то средств.
Но потом оказалось, что общество может десятки лет устойчиво стоять, и в нем практически невозможно ничего изменить. Осталось бороться за личное благополучие.
Дело, конечно, не только в этом. Оскандалились советские теоретики марксизма, которые не сумели никак его развить. А застой идей неизбежно расслабляет и ведет к упадку.
Или памятник поставить всем бывшим диссидентам за то, что они помогали разваливать СССР? Особое почтение ему за бывшие сионистские убеждения? Не сам ли он источник своих испытаний? Очень показательно, что он вернулся к майдану. За что боролся, на то и напоролся.
А если по существу, то любопытно, в чем, Алла, Вы видите его решающие теоретические просчеты?
Он ведь боец. Ему бы только бороться за правду. Самому заваривать ненужные конфликты и бороться. Он почти со всеми тут переругался.
Ему явно нужна помощь, чтобы он не гонялся за химерами и работал с пользой для общества. Но вся Академия наук не смогла ему ничего втолковать.
Потом, надо различать отношение окружающих к человеку и отношение к его теории. Критикуют обычно теории и призрачный метод А.Воина. А как иначе? Что Вы можете предложить лучше? Принять на вооружение его фантастический метод, которым он дискредитирует науку? Ведь он выступает от имени науки. Если бы публиковался в разделе "религия", то вопросов к нему не было бы.
У меня эта связь в мозгу жёстко зафиксировалась где-то с начала 80-ых.
А Александр Воин, в своих произведениях писал о себе, что он в начале был эмигрантом- диссидентом с сионистскими убеждениями. Подчеркну, БЫЛ.
Эмигриролвав сначала в Израиль, потом в Америку, он в конце концов вернулся, но не в СССР, которого уже не было, а в Незалежную Украину. Но память о жизни в СССР осталась и претензии он предъявляет вообще-то к Академии наук СССР, путая её с РАН. Давайте снисходительно относиться к Александру, так как он, по-моему, 1935 г. рождения и испытания на его долю выпали, очевидно, большие.
При жесткой конкуренции в капиталистической системе, где каждый за себя, - невозможно эффективно проводить решения в масштабах всей страны. В годы войны И.В.Сталин удивлялся, насколько не поворотлива британская демократия, когда речь идет даже о жизни и смерти всего общества.
В тоталитарной системе подобной проблемы нет. Но есть другая: сначала надо знать правильное решение. А советские руководители ошельмовали кибернетику, которая как раз могла бы открыть путь к рациональной организации всего хозяйства страны, о чем не могли даже мечтать на Западе.
Так один стратегический просчет (неисправленный и последующими поколениями) поставил крест на главном источнике повышения производительности труда. Тут, конечно, и Маркса обвинили. А ведь он до сих пор наиболее читаемый и изучаемый философ в мире. Но теперь все, кому не лень, рады пустыми словесными оборотами пригвоздить его к позорному столбу.
У Вас же есть об этом в книге. И про Маркса скажите, про производительность труда. А то тут один написал "критику Маркса", которая совсем не критика, а поливание, да еще с позиций религии.
Уж наверное, можно было многое рассчитать, чтобы возить товары вагонами, а не загружать вместо них женщин мешками. А главное, можно было производить то, что нужно, и то, что выгодно.
Понятно, что общество всегда к чему-то не готово. Как, например, оно не хотело в свое время садить картофель. Значит, где-то надо применять силу, если есть достаточно оснований. Но картофель уже выращивали в других странах, а с ЭВМ пришлось бы стать первопроходцами. И высшее руководство СССР было ни бум-бум в вычислительной технике. Именно от него, как и сейчас, не поступило должных решений, и все было пущено на самотек.
А само по себе много не получится. Примерно столько же, как если бы космонавтикой и атомной энергетикой стали заниматься энтузиасты в своих сараях и на свои собственные деньги.
Вы пишете:
--- "Я, несколько отчаявшись, перестал ...". ---
А вот что я нарыл в интернете. Статья, - Как "погас" ОГАС (отрывок из воспоминаний) -
Цитирую:
--"В.М. Глушкова вспоминает, что не раз, возвращаясь из Москвы, муж говорил: ужасно угнетает мысль, что никому ничего не нужно". --
Николай, Вы о таком отчаянии говорите???
Цитирую ещё от туда же:
--" Помешали созданию ОГАС некомпетентность высшего руководства, нежелание среднего бюрократического звена работать под жёстким контролем и на основе объективной информации, собираемой и обрабатываемой с помощью ЭВМ, неготовность общества в целом, несовершенство существующих в то время технических средств, непонимание, а то и противодействие учёных экономистов новым методам управления". -- (Ю. Е. Антипов)
Опять же, статья , Как "погас" ОГАС (отрывок из воспоминаний), небольшая по объёму, но весьма информативная.
Из процитированного высказывания Антипова, я бы выделил: - "некомпетентность высшего руководства, нежелание среднего бюрократического звена РАБОТАТЬ ПОД ЖЁСТКИМ КОНТРОЛЕМ, на основе объективной информации". -
Ведь машина беспристрастна, и её не подкупишь, и не соблазнишь.
А Вы,Николай, как, согласны?
Как хорошо показано в статье Шалагинова, 50 и даже 20 назад специалисты по ЭВМ видели совсем не такое будущее, какое оказалось на самом деле. Им надо отдать должное, но гораздо дальше сумели заглянуть фантасты и философы. Не все, конечно. А.Воин только недавно грозился выдать очередную статью по разгрому искусственного разума, да заткнулся. Но большинство официальных философов за последние 50 лет не затыкались и громили...
Я еще хотел бы обратить внимание на всевозможные датчики, которые упомянуты у Шалагинова. Они сами могут стать микро-ЭВМ. Но главная их роль в том, чтобы ИР не отсиживался в кабинетах, а проник во все сферы жизни и в самое нутро человеческого организма.
Я еще напишу по этим вопросам комментарии и, возможно, статью.
Правда это уже книга, листов много, но читается легко и информации житейской в ней много.
Николай, когда Вы писали: - " ... свершилось то, о чём давно говорили большевики, точнее, энтузиасты вычислительной техники". - Вы имели в виду таких людей как Китов и Глушков?
Наберите, Будущее без шор настоящего. Часть 1 - IKSMEDIA. RU
Это статья Алексея Шалаганова, небольшая, но очень толковая. Есть и продолжение, тоже небольшое и тоже весьма вразумительное.
Будущее без шор настоящего, Окончание - IKSMEDIA.RU