Информация: различия между версиями

30 605 байт добавлено ,  11 лет назад
rvv
(Удалено содержимое страницы)
(rvv)
{{wikipedia}}
== Введение ==
«Информация» в разговорном языке означает передаваемые сведения, знания; нечто осмысленное и как-то полезное получателю. Такое словоупотребление довольно верно́: ''informare'' с латыни — «научать». Информацией является и эта книга. Для примера — кусочек информации:
<center><big>дерево</big></center>
 
Это слово несёт обширный и притом чёткий смысл: вы знаете о деревьях и видели их немало, можете вспомнить научные истины о природе, строении и видах деревьев или вообразить какое-нибудь дерево в уме. Но ''что'' вы воистину знаете? Ведь, глядя на дерево, мы не принимаем в память само вещественное дерево, а видим лишь отражённый от него свет, и даже тот не «захватываем» по правде: попав на сетчатку глаза, свет преобразуется в электрические импульсы в нашем мозгу. Под их действием состояния многих-премногих нейронов поменялись и зримый образ дерева отпечатался в памяти.
 
Поэтому «дерево» для вас — не просто ряд из шести букв (сам по себе содержащий пустяково мало информации), но ''знак'', вызывающий огромный объём воспоминаний, впечатлений, ассоциаций, знаний о деревьях. Мы вспоминаем ''информацию'', полученную через органы чувств.
 
Ваша подруга по мобильному сказала, что гуляет в парке. Возможно, она лжёт о своём занятии, — даёт совершенную ''дезинформацию''. Но слова и интонации голоса были слышны, стало быть, в каком-то смысле дала ''информацию''. Есть где запутаться.
 
С другой стороны, одно и то же сообщение может как нести информацию, так и не содержать её вовсе. Когда человек впервые слышит фразу «Волга впадает в Каспийское море», это несёт ему информацию о впадении данной реки в данное море, однако если ему это повторить, то теперь эта фраза не будет ''для него'' нести новой информации.
 
== Знаки ==
 
В примере с деревом информация передавалась световыми лучами, в примере с подругой информацию несли радиоволны, передаваемые сотовой телефонной сетью.
 
Матрос совершает особые взмахи флажками. Лишь увидев его, мы получаем информацию. Но зная расшифровку жестов, мы можем получить ещё больше информации (или же дезинформацию!) от матроса.
 
<center>[[Файл:Semafor.png]]</center>
 
Такая последовательность жестов будет означать: «внимание».
 
Информация по оптоволокну передается следующим образом: светодиод загорается и тухнет в определенном порядке, свет внутри оптоволокна передает информация от последовательности включения и выключения светодиода к фотоприемнику, фотоприемник преобразует свет в импульсы электрического напряжения.
 
Звуковые волны, так же как и свет могут отражаться от преград, таким образом можно получать информацию, например, о рельефе дна водоема. По такому принципу работает эхолот.
 
Через воздух передается речь.
 
Человечество изобрело кучу способов передавать информацию посредством электричества. Телеграф это одно из самых первых способов передачи информации посредством электричества. Для того, чтобы передавать информацию через телеграф была придумана специальная азбука – азбука Морзе. Высокий потенциал в течении короткого времени назвали точкой, высокий потенциал в течении длительного времени назвали тире. Определенная последовательность точек и тире обозначает одну букву. Например, последовательность точка, точка, точка, пауза, тире, тире, тире, пауза, точка, точка, точка передает информацию о бедствии – SOS.
 
С изобретением телефона человечество научилось передавать с помощью электричества голосовую информацию. Последовательное изменение давления воздуха (звуковые колебания) преобразовывалось в последовательное изменение электрического напряжение, которое передавалось по проводам и потом обратно преобразовывалось в звуковые колебания.
 
Посредством радиоволн информация передается через сотовую связь, так же она передается от радиостанций и телестанций, радары получают информацию о движении самолетов, компьютере через радиомодемы и беспроводные сети друг с другом общаются.
 
С помощью радиации (рентгеновское излучение) врачи получают информации о внутреннем состоянии больного. Искусствоведы узнают о том, что под слоем краски картины неизвестного художника спрятано, произведение гениального художника Леонардо да Винчи.
 
== Хранение информации ==
 
Свет далёких звёзд добирается до нас годы, века, тысячелетия… Свойства света от звезды несут информацию о ней. Пока свет летит, он хранит о ней информацию, но это очень ненадежный способ хранения. Стоит только свету попасть в телескоп или просто в глаз человеку, хуже — просто встретить случайную преграду, так тут же информация о звезде преобразуется в другой вид, да в такой, что никакими ухищрениями нам её преобразовать к понятному представлению не удастся. После получения информации её нужно где-то хранить.
 
Один способ хранения информации — человеческий мозг. Человек, что-то услышал, что-то увидел, что-то почувствовал и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
 
Наскальные рисунки это тоже способ хранения информации, достаточно трудоемкий, но зато очень надежный.
 
Очень долго бумага была практически главным способом хранения информации. И только за последние два века человечество изобрело целую кучу способов хранения информации.
 
На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы. Магнитные диски различных размеров и плотности (дискеты, жесткие диски), магнитооптические диски, оптические диски (CD, DVD) используются для хранения различных видов информации (текстов, фильмов, музыки, результаов экспериментов, математических расчетов и т.п).
 
== Аналоговая и цифровая информация ==
Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения. Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:
 
<center><math>U(t)=K(P(t)-P_0)</math>, </center>
 
где <math>U(t)</math> – электрическое напряжение, <math>P(t)</math> – давление воздуха, <math>P_0</math> – среднее давление воздуха, а <math>K</math> – коэффициент преобразования.
 
И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции <math>U(t)</math> и <math>P(t)</math> являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.
 
Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.
 
Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.
 
Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.
 
Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.
 
Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т.д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.
 
Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное приимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.
 
Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете храниться в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.
 
== Количество информации ==
Человек или какой нибудь другой приемник информации, получив порцию информации. разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенность. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность – получили информацию.
 
Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, на сколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он по мимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед, тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.
 
Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.
 
Существует формула для расчета количества информации. Мы имеем некоторую неопределенность и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:
 
<center><math>I = -(p_1 \log_{2}p_1 + p_2 \log_{2}p_2 + ... +p_N \log_{2}p_N)</math>, где </center>
 
<math>I</math> – количество информации;<br/>
<math>N</math> – количество исходов;<br/>
<math>p_1, p_2, ..., p_N</math>- вероятности исхода.<br/>
 
Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.
 
Для равновероятных событий формулу можно упростить:
 
<center><math>I = \log_{2}N</math>, где</center>
 
<math>I</math> – количество информации;<br/>
<math>N</math> – количество исходов.<br/>
 
Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили <math>\log_{2}2=1</math> бит информации.
 
Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем: <math>\log_{2}6 \approx 2,6</math>. После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.
 
Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?
 
<center>
<math>-\left( {{1 \over {10^{10}}} \log_2{1 \over {10^{10}}} + \left({ 1 - {1 \over {10^{10}}}} \right) \log_2 \left({ 1 - {1 \over {10^{10}}} }\right)} \right) \approx 3,4 \cdot 10^{-9}</math> бита.
</center>
Предположим, что мы бросили 8 монет. У нас <math>2^8</math> вариантов падения монет. Значит после броска монет мы получим <math>\log_2{2^8}=8</math> бит информации.
 
Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос, мы получаем один бит информации.
 
Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и подставив это значение в формулу для равновероятных событий, мы получим бесконечность – бесконечное количество информации.
 
Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки встречающиеся в «Войне и мир» с помощью двухзначных цифр, их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» код «01» и так далее, закодируем знаки припинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы, поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. И так если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски, и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).
 
Реально, такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика, нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.
 
Интуитивно нам понятно что, чем меньшая точность измерения, тем меньше информации мы получаем, чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации».
 
В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть отверстие – нет отверстия, заряжено – не заряжено, отражает свет – не отражает свет, высокий электрический потенциал – низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.
 
Наравне с битом, часто используется величина, называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (<math>2^8</math>). Для измерения количества информации так же принято использовать более крупные единицы:
{|
|1 Кбайт (один килобайт)
| 2<sup>10</sup> байт = 1024 байта
|-
|1 Мбайт (один мегабайт)
| 2<sup>10</sup> Кбайт = 1024 Кбайта
|-
|1 Гбайт (один гигабайт)
| 2<sup>10</sup> Мбайт = 1024 Мбайта
|}
 
Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей <math>10^3</math>, <math>10^6</math> и <math>10^9</math>, соответственно, но исторически сложилась практика использования множителей со степенями двойки.
 
Бит по Шеннону и бит который используется в компьютерной технике совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации.
 
Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.
 
== Далее ==
* [[Системы счисления]]
* [[Компьютерная память]]
* [[Кодирование]]
 
Или назад к учебнику [[Информационные технологии]].
 
[[Категория:Информатика]]
[[Категория:Теория информации]]
142

правки