Что значит объективность информации
Что значит объективность информации
Информация. Свойства информации
Информация обладает определенными свойствами. К основным свойствам информации можно отнести достоверность, объективность, полноту, актуальность, понятность и доступность (рис. 1).
Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к принятию неправильных решений. Например, объявление, опубликованное в сети Интернет, может содержать недостоверные сведения о характеристиках какой-либо продукции. Покупатель, который поверил такому объявлению и приобрел товар, может напрасно потратить деньги.
Информация объективна, если она не зависит от чьего-либо мнения или суждения. Объективную информацию можно получить, например, с помощью исправных измерительных приборов. Сообщение «Автомобиль двигался на большой скорости» содержит субъективную информацию. Сообщение «Автомобиль двигался со скоростью 100 км/ч» будет объективным при исправном спидометре.
Информация полна, если ее достаточно для принятия решений. Неполная информация может привести к ошибочным выводам и действиям. Например, сообщение «Температура на улице 10 градусов» без уточнения «тепла» или «мороза» может привести к неправильному выбору человеком верхней одежды.
Информация актуальна, если она необходима в настоящее время. Например, телеграмма о приезде друзей, полученная своевременно, позволит вовремя их встретить. Устаревшая, преждевременная или незначимая информация для человека является неактуальной.
Информация понятна, если она выражена на языке, понятном для человека. Например, записка на испанском языке для человека, который не знает этого языка, будет непонятна.
Информация доступна, если имеет возможность ее получения. Различные барьеры могут сделать информацию недоступной. Например, секретные документы, хранящиеся в архиве, невозможно получить людям, которым доступ к таким архивам запрещен. Поэтому для этих людей информация, содержащаяся в этих документах, будет недоступной.
Каждый человек решает для себя вопрос о полезности и важности полученной информации в зависимости от того, удовлетворяет или не удовлетворяет эта информация перечисленным свойствам. Знание основных свойств информации помогает человеку правильно оценивать получаемую информацию и принимать верное решение в каждом конкретном случае.
Человек постоянно получает информацию из окружающего мира, анализирует ее свойства, выявляет существенные закономерности и тем самым познает мир. В процессе понимания информации, ее анализа и применения на практике у человека формируются знания. Одна и та же информация может приводить к появлению разных знаний у разных людей. Сформированные знания человек использует в своей деятельности. В то же время деятельность человека, способствует постоянному пополнению его знаний об окружающем мире.
Знания людей может разделить на два вида: декларативные и процедурные (рис. 2).
Декларативные знания, по своей сути, являются утверждениями и начинаются со слов «Я знаю, что…». К этому виду относятся знания о конкретных объектах. Например, «Я знаю, что вещество, энергия и информация являются основными ресурсами современного общества», «Я знаю, что компьютер является универсальным устройством для работы с информацией».
Процедурные знания, определяют действия, которые надо выполнить для достижения поставленной цели. Они начинаются со слов «Я знаю, как…». Например, «Я знаю, как подключить принтер к системному блоку компьютера», «Я знаю, как записать алгоритм сложения двух чисел». Декларативные и процедурные знания позволяют человеку сформировать свое собственное представление о предметах, процессах и явлениях окружающего мира.
Два подхода к понятию “информация”.
Информация для человека – это сведения, которые уменьшают существующую до их получения неопределенность знания.
Под информацией, когда речь идет о технике, принято понимать все сведения, которые представлены в определенной форме для хранения, передачи и обработки с помощью технических средств, в том числе и компьютера.
Таким образом, понятие «информация» многозначно. Существуют различные подходы к пониманию информации. До сих пор не дано единого, универсального и исчерпывающего ее определения. Термин «информация» может содержать разный смысл, в зависимости от тех областей знаний, в которых он используется.
Информация и ее свойства
Объекты материального мира находятся в состоянии непрерывного изменения, которое сопровождается обменом энергии. Все виды сопровождаются появлением сигналов. При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств — это явление называется регистрацией сигналов.
Данные — это зарегистрированные сигналы.
Информация — это сведения об объектах и явлениях окружающей среды, их параметров, свойствах и состояниях, которые уменьшают имеющуюся в них степень неопределенности, неполноту знаний. Данные могут рассматриваться как записанные наблюдения, которые не используются, а пока хранятся.
Содержание
Свойства информации, определяющие ее качества
Под качеством информации понимают степень её соответствия потребностям потребителей. Свойства информации являются относительным, так как зависят от потребностей потребителя информации. Выделяют следущие свойства, характеризующие качество информации:
В общем случае достоверность информации достигается:
Операции с данными
Для повышения качества данные преобразуются из одного вида в другой с помощью методов обработки. Обработка данных включает операции:
1) Ввод(сбор) данных — накопление данных с целью обеспечения достаточной полноты для принятия решений
2) Формализация данных — приведение данных поступающих из разных источников, к одинаковой форме, для повышения их доступности.
3) Фильтрация данных — это отсеивание «лишних» данных, в которых нет необходимости для повышения достоверности и адекватности.
4) Сортировка данных — это упорядочивание данных по заданному признаку с целью удобства использования.
5) Архивация — это организация хранения данных в удобной и легкодоступной форме.
6) Защита данных — включает меры, направленные на предотвращение утраты, воспроизведения и модификации данных.
7) Транспортировка данных — прием и передача данных между участниками информационного процесса.
8) Преобразование данных — это перевод данных из одной формы в другую или из одой структуры в другую.
Кодирование данных
Для автоматизации работы с данными, которые относятся к различным типам, необходимо унифицировать их форму представления — состоящий в выражении данных одного типа, через данные другого типа. Системный код вычислительной техники — двоичное кодирование, основанное на предоставлении данных в виде последовательных двух знаков: 1 и 0. Эти знаки называются двоичными цифрами-binary digit или bit.
Одним битом выражаются два понятия: 0 или 1.
Тремя битами — восемь понятий: 000,001,010,011,100,101,110,111
Кодирование целых и действительных чисел
Алгоритм превода целых десятичных чисел в двоичные: 1) Разделить число на 2. Зафиксировать остаток (0 или 1) частное.
2) Если частное не равно нулю, то разделить его на 2 и т.д. пока частное не станет равно 0. Если частное 0, то записать все полученные остатки, начиная с первого с права на лево.
Чтобы получить обратную,надо проссумировать степени 2 соответа не нулевого разрядам записи числа.
Кодирование текстовых данных
Если каждому символу алфавита сопоставить определенное целое или не целое число (например,порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию и звуковую. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Для того чтобы весь мир одинаково кодировал текстовые данные, нужны единые таблицы кодирования, а это пока невозможно из-за противоречий между символами национальных алфавитов, а также противоречий корпоративного характера.
Для английского языка, захватившего де-факто нишу международного средства общения, противоречия уже сняты. Институт стандартизации США (ANSI — American National Standard Institute) ввел в действие систему кодирования ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена США).В системе ASCII закреплены две таблицы кодирования — базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255. В СССР в этой области действовала система кодирования КОИ-7 (код обмена информацией, семизначный). Однако поддержка производителей оборудования и программ вывела американский код ASCII на уровень международного стандарта.
Предмет и задачи информатики
Информатика — это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.
Предмет информатики составляют следующие понятия:
• аппаратное обеспечение средств вычислительной техники;
• программное обеспечение средств вычислительной техники;
• средства взаимодействия аппаратного и программного обеспечения;
• средства взаимодействия человека с аппаратными и программными средствами.
В информатике особое внимание уделяется вопросам взаимодействия. Для этого даже есть специальное понятие — интерфейс. Методы и средства взаимодействия человека с аппаратными и программными средствами называют пользовательским интерфейсом. Соответственно, существуют аппаратные интерфейсы, программные интерфейсы и аппаратно-программные интерфейсы.
В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений:
• архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);
• интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);
• программирование (приемы, методы и средства разработки компьютерных программ); „
• преобразование данных (приемы и методы преобразования структур данных);
• защита информации (обобщение приемов, разработка методов и средств защиты данных);
• автоматизация (функционирование программно-аппаратных средств без участия человека);
• стандартизация (обеспечение совместимости между аппаратными и программными средствами, а также между форматами представления данных, относящихся к различным типам вычислительных систем).
Информация
Содержание
Введение [ править ]
Информация — психический продукт любого психофизического организма, производимый им при использовании какого-либо средства, называемого средством информации. Информация или сообщение, или данные не передаются от организма к организму, но формируются при пользовании средствами информации, которые могут передаваться-получаться от одного организма к другому. Например, книги являются средствами информации. С помощью книг — определенных изделий человек может, действуя на себя данными средствами (книгами) производить информацию;в разговорном языке означает передаваемые сведения, знания; нечто осмысленное и как-то полезное получателю. Такое словоупотребление довольно верно́: informare с латыни — «научать». Информацией является и эта книга. Для примера — кусочек информации:
Это слово несёт обширный и притом чёткий смысл: вы знаете о деревьях и видели их немало, можете вспомнить научные истины о природе, строении и видах деревьев или вообразить какое-нибудь дерево в уме. Но что вы воистину знаете? Ведь, глядя на дерево, мы не принимаем в память само вещественное дерево, а видим лишь отражённый от него свет, и даже тот не «захватываем» по правде: попав на сетчатку глаза, свет преобразуется в электрические импульсы в нашем мозгу. Под их действием состояния многих-премногих нейронов поменялись и зримый образ дерева отпечатался в памяти. Информация — не есть Знание. «Информированный Человек» не значит «Знающий Человек».
С другой стороны, одно и то же сообщение может как нести информацию, так и не содержать её вовсе. Когда человек впервые слышит фразу «Волга впадает в Каспийское море», это несёт ему информацию о впадении данной реки в данное море, однако если ему это повторить, то теперь эта фраза не будет для него нести новой информации.
Свойства информации [ править ]
Главным свойством информации является ее способность мгновенно распространяться при наличии большого количества носителей/потребителей информации. Носителями информации могут выступать как флешки, дискеты, жесткие диски, так и мозги живых существ. Главным СВОЙСТВОМ информации является ее нематериальность.
Качество информации — степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.
Существует два основных подхода к трактовке понятия «информация». В основе лежат близкие по смыслу слова «неопределенность» и «неразличимость». Согласно первому представлению под «информацией» понимается совокупность сведений, уменьшающая или снимающая существовавшую до её получения неопределенность (некомпетентность). При этом само понятие «информация» рассматривается как мера того количества неопределенности, которое ликвидируется после получения её потребителю.
Неопределенность (информация) является основным аспектом разнообразия системы. Эшби рассматривал энтропию как характеристику разнообразия системы, поскольку она определяется вероятностями реализации состояний и достигает своего максимума на равномерном распределении (максимальное разнообразие — это когда любое состояние может реализоваться с равной вероятностью), а минимума — когда какое-то одно состояние реализуется с вероятностью, равной 1. Закон Эшби реализуется в виде теоремы Шеннона, теоремы Котельникова, теоремы Холево. Н. Марголис и Л. Левитин доказали теорему о том, что общее число элементарных действий, которые система может выполнить в секунду, ограничено энергией.
Новизна [ править ]
Объективность [ править ]
Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.
Полнота [ править ]
Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.[2]
Достоверность [ править ]
Достоверность — верность информации, не вызывающая сомнений. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация); непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации.
В общем случае достоверность информации основывается на фактах, достигается: указанием времени свершения событий, сведения о которых передаются; сопоставлением данных, полученных из различных источников; своевременным вскрытием дезинформации; исключением искажённой информации и др.
Адекватность [ править ]
Адекватность — степень соответствия смысла реально полученной информации его ожидаемому содержимому. Например задан вопрос — «Сколько у человека пальцев на руке?»
Актуальность [ править ]
Актуальность информации — это степень соответствия информации текущему моменту времени. вовремя полученная информация. (информация о землетрясении, урагане…)
Эмоциональность [ править ]
Эмоциональность — свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.
Знаки [ править ]
В примере с деревом информация передавалась световыми лучами, в примере с подругой информацию несли радиоволны, передаваемые сотовой телефонной сетью.
Матрос совершает особые взмахи флажками. Лишь увидев его, мы получаем информацию. Но зная расшифровку жестов, мы можем получить ещё больше информации (или же дезинформацию!) от матроса.
Такая последовательность жестов будет означать: «внимание».
Звуковые волны, так же как и свет могут отражаться от преград, таким образом можно получать информацию, например, о рельефе дна водоема. По такому принципу работает эхолот.
Через воздух передается речь.
С изобретением телефона человечество научилось передавать с помощью электричества голосовую информацию. Последовательное изменение давления воздуха (звуковые колебания) преобразовывалось в последовательное изменение электрического напряжение, которое передавалось по проводам и потом обратно преобразовывалось в звуковые колебания.
Посредством радиоволн информация передается через сотовую связь, так же она передается от радиостанций и телестанций, радары получают информацию о движении самолетов, компьютеры через радиомодемы и беспроводные сети друг с другом общаются.
С помощью радиации (рентгеновское излучение) врачи получают информации о внутреннем состоянии больного. Искусствоведы узнают о том, что под слоем краски картины неизвестного художника спрятано произведение гениального художника Леонардо да Винчи.
Хранение информации [ править ]
Свет далёких звёзд добирается до нас годы, века, тысячелетия… Свойства света от звезды несут информацию о ней. Пока свет летит, он хранит о ней информацию, но это очень ненадежный способ хранения. Стоит только свету попасть в телескоп или просто в глаз человеку, хуже — просто встретить случайную преграду, так тут же информация о звезде преобразуется в другой вид, да в такой, что никакими ухищрениями нам её преобразовать к понятному представлению не удастся. После получения информации её нужно где-то хранить.
Один способ хранения информации — человеческий мозг. Человек что-то услышал, что-то увидел, что-то почувствовал и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
Наскальные рисунки это тоже способ хранения информации, достаточно трудоемкий, но зато очень надежный.
Очень долго бумага была практически единственным способом хранения информации. И только за последние два века человечество изобрело множество новых способов хранения информации.
На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы. Магнитные диски различных размеров и плотности (дискеты, жесткие диски), магнитооптические диски, оптические диски (CD, DVD) используются для хранения различных видов информации (текстов, фильмов, музыки, результатов экспериментов, математических расчетов и т.п).
Аналоговая и цифровая информация [ править ]
Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения. Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:
U ( t ) = K ( P ( t ) − P 0 ) <\displaystyle U(t)=K(P(t)-P_<0>)> ,
Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.
Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.
Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.
Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.
Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т. д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.
Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное преимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.
Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.
Количество информации [ править ]
Человек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т. п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность — получили информацию.
Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т. п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.
Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.
Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно рассчитать по следующей формуле, которую предложил нам Шеннон:
Количество информации измеряется в битах — сокращение от английских слов BInary digiT, что означает двоичная цифра.
Для равновероятных событий формулу можно упростить:
Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log 2 2 = 1 <\displaystyle \log _<2>2=1> бит информации.
Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?
Предположим, что мы бросили 8 монет. У нас 2 8 <\displaystyle 2^<8>> вариантов падения монет. Значит после броска монет мы получим log 2 2 8 = 8 <\displaystyle \log _<2><2^<8>>=8> бит информации.
Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.
Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность — бесконечное количество информации.
Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «Войне и мир», с помощью двухзначных цифр — их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» — код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874…, пририсуем перед этим числом запятую и ноль (0,70123856383901874…). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т. д.).
Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.
Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации».
В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено — не намагничено, есть отверстие — нет отверстия, заряжено — не заряжено, отражает свет — не отражает свет, высокий электрический потенциал — низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое — цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т. п.
Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт — 1 из 256 ( 2 8 <\displaystyle 2^<8>> ). Для измерения количества информации также принято использовать более крупные единицы:
1 Кбайт (один килобайт) | 2 10 байт = 1024 байта |
1 Мбайт (один мегабайт) | 2 10 Кбайт = 1024 Кбайта |
1 Гбайт (один гигабайт) | 2 10 Мбайт = 1024 Мбайта |
Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 10 3 <\displaystyle 10^<3>> , 10 6 <\displaystyle 10^<6>> и 10 9 <\displaystyle 10^<9>> , соответственно, но исторически сложилась практика использования множителей со степенями двойки.
Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации.
Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.
Классификация информации [ править ]
Информацию можно разделить на виды по разным критериям.
1) По способу восприятия:
2) По области возникновения:
3) По форме представления:
4) По предназначению:
6) По способам кодирования:
7) По области возникновения: