Информация
Введение
правитьИнформация — психический продукт любого психофизического организма, производимый им при использовании какого-либо средства, называемого средством информации. Информация или сообщение, или данные не передаются от организма к организму, но формируются при пользовании средствами информации, которые могут передаваться-получаться от одного организма к другому. Например, Салют люба карие марвишку эту гарик тарик адрес сандаловчка каринав Каспийское море», это несёт ему информацию о впадении данной реки в данное море, однако если ему это повторить, то теперь эта фраза не будет для него нести новой информации.
Свойства информации
правитьГлавным свойством информации является ее способность мгновенно распространяться при наличии большого количества носителей/потребителей информации. Носителями информации могут выступать как флешки, дискеты, жесткие диски, так и мозги живых существ. Главным СВОЙСТВОМ информации является ее нематериальность.
Качество информации — степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.
Существует два основных подхода к трактовке понятия "информация". В основе лежат близкие по смыслу слова "неопределенность" и "неразличимость". Согласно первому представлению под "информацией" понимается совокупность сведений, уменьшающая или снимающая существовавшую до её получения неопределенность (некомпетентность). При этом само понятие "информация" рассматривается как мера того количества неопределенности, которое ликвидируется после получения её потребителю.
Неопределенность (информация) является основным аспектом разнообразия системы. Эшби рассматривал энтропию как характеристику разнообразия системы, поскольку она определяется вероятностями реализации состояний и достигает своего максимума на равномерном распределении (максимальное разнообразие — это когда любое состояние может реализоваться с равной вероятностью), а минимума — когда какое-то одно состояние реализуется с вероятностью, равной 1. Закон Эшби реализуется в виде теоремы Шеннона, теоремы Котельникова, теоремы Холево. Н. Марголис и Л. Левитин доказали теорему о том, что общее число элементарных действий, которые система может выполнить в секунду, ограничено энергией.
С другой точки зрения "информация" является "отраженным разнообразием". В основе этой точки зрения лежит утверждение, что информация - атрибут материи, связанный с разнообразием её свойств. Информация есть там, где имеется неоднородность и разнообразие. Единицей измерения информации можно считать элементарный акт анализа (выделения отличительных свойств и признаков между какими-нибудь атомарными сущностями (то есть элементами системы)). Чем больше какая-нибудь система обладает отличными друг от друга элементами, тем больше в ней содержится информации. Важно отметить, что информация существует в виде её носителя, характеризуя его. Например, кварц является носителем генетической информации в геологии, в зависимости от интерпретации его устройства. В то же время на наноструктурированные кварцевые пластинки записывают информацию в цифровом виде. В книге "Природа информации" Урсул А.Д. отметил, что "Неоднородность - это иное выражение разнообразия".
Новизна
правитьГлавной характеристикой информации является ее новизна. Всё, что не привносит новизны в наше понимание сущности объекта или явления — информацией не является. Такая характеристика называется признак. И называется этот признак - уменьшение неопределённости объекта или явления
Объективность
правитьОбъективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.
Полнота
правитьИнформацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.[2]
Достоверность
правитьДостоверность — верность информации, не вызывающая сомнений. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация); непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации.
В общем случае достоверность информации основывается на фактах, достигается: указанием времени свершения событий, сведения о которых передаются; сопоставлением данных, полученных из различных источников; своевременным вскрытием дезинформации; исключением искажённой информации и др.
Адекватность
правитьАдекватность — степень соответствия смысла реально полученной информации его ожидаемому содержимому. Например задан вопрос — «Сколько у человека пальцев на руке?»
Актуальность
правитьАктуальность информации — это степень соответствия информации текущему моменту времени. вовремя полученная информация. (информация о землетрясении, урагане…)
Эмоциональность
правитьЭмоциональность — свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.
Знаки
правитьВ примере с деревом информация передавалась световыми лучами, в примере с подругой информацию несли радиоволны, передаваемые сотовой телефонной сетью.
Матрос совершает особые взмахи флажками. Лишь увидев его, мы получаем информацию. Но зная расшифровку жестов, мы можем получить ещё больше информации (или же дезинформацию!) от матроса.
Такая последовательность жестов будет означать: «внимание».
Информация по оптоволокну передается следующим образом: светодиод загорается и тухнет в определенном порядке, фотоприемник на другом конце кабеля регистрирует эти сигналы и передает данные на обработку ЭВМ. Обработав эти зарегистрированные данные алгоритмом ЭВМ получает передаваемую информацию в случае верно выбранного алгоритма, либо, если алгоритм неверный, - неверную информацию.
Звуковые волны, так же как и свет могут отражаться от преград, таким образом можно получать информацию, например, о рельефе дна водоема. По такому принципу работает эхолот.
Через воздух передается речь.
Человечество изобрело множество способов передавать информацию посредством электричества. Телеграф - это один из самых первых способов передачи информации посредством электричества. Для того, чтобы передавать информацию через телеграф была придумана специальная азбука — азбука Морзе. Высокий потенциал в течение короткого времени назвали точкой, высокий потенциал в течение длительного времени назвали тире. Определенная последовательность точек и тире обозначает одну букву. Например, последовательность точка, точка, точка, пауза, тире, тире, тире, пауза, точка, точка, точка передает информацию о бедствии — SOS.
С изобретением телефона человечество научилось передавать с помощью электричества голосовую информацию. Последовательное изменение давления воздуха (звуковые колебания) преобразовывалось в последовательное изменение электрического напряжение, которое передавалось по проводам и потом обратно преобразовывалось в звуковые колебания.
Посредством радиоволн информация передается через сотовую связь, так же она передается от радиостанций и телестанций, радары получают информацию о движении самолетов, компьютеры через радиомодемы и беспроводные сети друг с другом общаются.
С помощью радиации (рентгеновское излучение) врачи получают информации о внутреннем состоянии больного. Искусствоведы узнают о том, что под слоем краски картины неизвестного художника спрятано произведение гениального художника Леонардо да Винчи.
Хранение информации
правитьСвет далёких звёзд добирается до нас годы, века, тысячелетия… Свойства света от звезды несут информацию о ней. Пока свет летит, он хранит о ней информацию, но это очень ненадежный способ хранения. Стоит только свету попасть в телескоп или просто в глаз человеку, хуже — просто встретить случайную преграду, так тут же информация о звезде преобразуется в другой вид, да в такой, что никакими ухищрениями нам её преобразовать к понятному представлению не удастся. После получения информации её нужно где-то хранить.
Один способ хранения информации — человеческий мозг. Человек что-то услышал, что-то увидел, что-то почувствовал и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
Наскальные рисунки это тоже способ хранения информации, достаточно трудоемкий, но зато очень надежный.
Очень долго бумага была практически единственным способом хранения информации. И только за последние два века человечество изобрело множество новых способов хранения информации.
На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы. Магнитные диски различных размеров и плотности (дискеты, жесткие диски), магнитооптические диски, оптические диски (CD, DVD) используются для хранения различных видов информации (текстов, фильмов, музыки, результатов экспериментов, математических расчетов и т.п).
Аналоговая и цифровая информация
правитьЗвук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения. Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:
где — электрическое напряжение, — давление воздуха, — среднее давление воздуха, а — коэффициент преобразования.
И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции и являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.
Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.
Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.
Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.
Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.
Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т. д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.
Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное преимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.
Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.
Количество информации
правитьЧеловек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т. п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность — получили информацию.
Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т. п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.
Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.
Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно рассчитать по следующей формуле, которую предложил нам Шеннон:
— количество информации;
— количество исходов;
- вероятности исхода.
Количество информации измеряется в битах — сокращение от английских слов BInary digiT, что означает двоичная цифра.
Для равновероятных событий формулу можно упростить:
— количество информации;
— количество исходов.
Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили бит информации.
Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней — шесть равновероятных событий. Получаем: . После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.
Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?
бита.
Предположим, что мы бросили 8 монет. У нас вариантов падения монет. Значит после броска монет мы получим бит информации.
Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.
Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность — бесконечное количество информации.
Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «Войне и мир», с помощью двухзначных цифр — их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» — код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874…, пририсуем перед этим числом запятую и ноль (0,70123856383901874…). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т. д.).
Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.
Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации».
В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено — не намагничено, есть отверстие — нет отверстия, заряжено — не заряжено, отражает свет — не отражает свет, высокий электрический потенциал — низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое — цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т. п.
Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт — 1 из 256 ( ). Для измерения количества информации также принято использовать более крупные единицы:
1 Кбайт (один килобайт) | 210 байт = 1024 байта |
1 Мбайт (один мегабайт) | 210 Кбайт = 1024 Кбайта |
1 Гбайт (один гигабайт) | 210 Мбайт = 1024 Мбайта |
Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей , и , соответственно, но исторически сложилась практика использования множителей со степенями двойки.
Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации.
Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.
Классификация информации
правитьИнформацию можно разделить на виды по разным критериям.
1) По способу восприятия:
- Визуальная — воспринимаемая органами зрения.
- Аудиальная — воспринимаемая органами слуха.
- Тактильная — воспринимаемая тактильными рецепторами.
- Обонятельная — воспринимаемая обонятельными рецепторами.
- Вкусовая — воспринимаемая вкусовыми рецепторами.
2) По области возникновения:
- Элементарная — отражает процессы, явления неодушевленной природы.
- Биологическая — отражает процессы, животного и растительного мира.
- Социальная — отражает процессы человеческого общества.
3) По форме представления:
- Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
- Числовая — в виде цифр и знаков, обозначающих математические действия.
- Графическая — в виде изображений, предметов, графиков.
- Звуковая — устная или в виде записи передача лексем языка аудиальным путём.
- Машинная — выдаваемую и воспринимаемую средствами вычислительной техники.
4) По предназначению:
- Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
- Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
- Личная — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
- Социальная — система знания, которая характеризует политические, экономические и культурологические процессы.
- Статистическая — официальная задокументированная государственная информация, которая дает цифровую характеристику массовым событиям, явлениям, процессам, которые происходят в экономической, культурной, социальной и других сферах государства.
5) По значению:
- Актуальная — информация, ценная в данный момент времени.
- Достоверная — информация, полученная без искажений.
6) По способам кодирования:
- Символьную, основанную на использовании символов — букв, цифр, знаков и т. д. Она является наиболее простой, но практически применяется только для передачи несложных сигналов о различных событиях. Примером может служить зеленый свет уличного светофора, который сообщает о возможности начала движения пешеходам или водителям автотранспорта.
- Графическую — основанную на использовании произвольного сочетания в пространстве графических примитивов. К этой форме относятся фотографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человек.
- Текстовую — основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетании, порядке следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Благодаря взаимосвязи символов и отображению речи человека текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме.
7) По области возникновения:
- Биологическая — отражает процессы растительного и животного мира.
- Механическая — отражает процессы неодушевленной природы.
- Социальная — отражает процессы человеческого общества.
Далее
правитьИли назад к учебнику Информационные технологии.