Please enable JavaScript.
Coggle requires JavaScript to display documents.
Информация и информационные процессы (Формула Шеннона (slide-4,…
Информация и
информационные
процессы
Формула
Хартли
Показательная Формула Хартли, где:
N-количество вариантов
I-степень в которую нужно возвесть 2,
чтобы получить N
Ральф Хартли
(1888-1979)
Логарифмическая формула Хартли,
в которой мы получаем степень в которую нужно возвести 2,
чтобы получить N
Информация и
вероятность
Вероятность-это число в интервале от 0 до 1.
В математике вероятность принято обозначать буквой p.
Если событие имеет вероятность p, то количество информации в битах, полученное в сообщении об этом событии, равно
Обнаружение
ошибок
Для обнаружения ошибки,
необходимо вводить избыточность
в передаваемое сообщение
(включать в него "лишние" биты)
Например, можно добавить в конец блока 1,
если в сообщении нечётное число единиц и 0,
если число единиц чётно.
Этот бит называется битом чётности.
Если присутствует возможность обнаружить сразу несколько ошибок, то используют другой метод - вычисляют контрольную сумму с помощью какой-либо хэш-функции.
Если контрольная сумма блока данных, вычисленная приёмником, не совпадает с контрольной суммой, записанной передающей стороной, то произошла ошибка
Формула
Шеннона
Неопределённость знания об источнике данных
вычисляется по формуле Шеннона
Сумма вероятностей всех событий,
Составляющих полную систему,
равна 1.
Неопределённость наибольшая для случая,
когда все события равновероятны
При рвновероятных событиях
неопределённость совпадает
с количеством информации
вычисляемой по формуле Хартли.
Скорость передачи данных-это
количество битов(байтов, Кбайт и т.д.),
которое передайтся по
каналу связи за единицу времени.
Основная единица измерения скорости-
биты в секунду(bps- bits per second)
Информационный объём данных I,
переданных по каналу за время t
вычисляется по формуле - I=v*t,
где v - скорость передачи данных.
Помехоустойчивые коды-это код,
который позволяет исправлять ошибки,
если их количество не превышает некоторого уровня.
Расстояние Хэмминга - это количество позиций,
в которых различаются два закодированных
сообщения одинаковой длинны.
Коды Хэмминга- коды, в которых информационные и контрольные биты перемешаны, и за счёт этого можно сразу, без перебора, определить номер бита, в котором произошла ошибка.