Информация - это...
1. 8 теории информации этот термин употребляется формальным образом для квантификации массива пунктов в терминах числа выборов, которые есть у каждого, имеющего дело с этими пунктами. По определению, количество информации, измеряемое в битах и сокращенно обозначаемое как Н, содержащееся в массиве равновероятных выборов, выражается как log2 N, где N – число выборов. Таким образом, ответ на вопрос: "Дождь идет?" – будет обеспечивать один бит информации, так как имеется только два выбора (да или нет) и log2 2=1. (Обратите внимание, что не имеет значения, истинен ответ или нет.) Если кто-то выбирает из 16 равновероятных альтернатив, этим выбором будет обеспечиваться 4 бита информации (log216 = 4). В общем, чем менее вероятно событие, тем большее количество информации передается с его возникновением. Интересно, что это употребление понятия информация параллельно тому, что физикам известно как энтропия или случайность. Когда множество сильно структурировано и не характеризуется случайностью, показатели и энтропии, и информации низкие. Это значение термина, следовательно, связано не с тем, что сообщено, но с тем, что могло бы быть сообщено; следовательно, его следует концептуально различать с 2. 2. Свободное значение: любой материал с содержанием. Это значение термина близко к стандартному значению в неспециальном употреблении. здесь, в основном, любое знание, которое получено, обработано и понято. Когда понятие моделей обработки информации впервые вводилось в когнитивной психологии, термин информация использовался в значении 1. Однако трудность в определении того, сколько информации содержится в чем-то и, следовательно, обрабатывается кем-то, кто имеет дело с относительно прямым, но сложным сообщением (например, это предложение), быстро привела к смещению к значению 2.
Определения, значения слова в других словарях:
Поделиться: