Выбери формат для чтения
Загружаем конспект в формате docx
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Передача информации
Процесс передачи информации предполагает наличие источника и приемника информации. Информация передаётся в материально-энергетической форме в виде сигнала (например, звукового, светового, электрического) непрерывно или дискретно по определенному каналу (например, воздушное пространство, кабель, нервные клетки).
Наименьшей единицей измерения количества информации является бит (на английском - binary digit - дословный перевод "бинарная единица", или двоичная единица). Название единицы символично и передаёт смысл о том, что 1 бит - это количество информации, необходимое для однозначной фиксации одного из двух равновероятных событий. Другими словами, 1 бит информации позволяет вдвое снизить неопределённость знаний при получении информационного сообщения. Например, при получении сообщения о выпадении результата "орел" или "решка" при подбрасывании монеты человек получает 1 бит информации.
В таблице представлены единицы измерения количества информации.
Единицы измерения количества информации.
Название единицы измерения
Краткое название
Выражение через предыдущую величину
Выражение через бит
1 бит
б
Наименьшая единица
1 бит
1 байт
Б
8 бит = 23 бит
23 бит
1 Килобайт
Кб
1024 байт =
210 байт
213 бит
1 Мегабайт
Мб
1024 Кб = 210 Кб
220 байт = 223 бит
1 Гигабайт
Гб
1024 Мб = 210 Мб
220 Кб = 230 байт = 233 бит
1 Терабайт
Тб
1024 Гб = 210 Гб
220 Мб = 230 Кб = 240 байт = 243 бит
Скоростью передачи информации (скоростью информационного потока) называется количество информации, передаваемое за единицу времени.
Пропускной способностью информационного канала называется максимальна скорость передачи информации по каналу.
Единицы измерения скорости передачи информации:
1 Килобит/сек = 1024 бит /сек
1 Килобайт/сек = 1024 байт /сек = 8192 (1024*8) бит/сек
1 Мегабит/сек = 1024 Кбит /сек = 210 Кбит/сек = 220 бит/сек
1 Мегабайт/сек = 1024 Кбайт /сек = 210 Кбайт/сек = 223 бит/сек
Скорость передачи информации рассчитывается по формуле:
А = V ∙ t,
где:
А – размер файла (бит),
V – скорость передачи информации (бит/сек)
t – время передачи информации (в секундах).
Количество информации определяется с позиций вероятностного и алфавитного подходов. При этом следует отметить, что в основе обоих подходов лежит вероятность реализации события.
Вероятностный подход применяется, если события, количество информации о которых измеряется, имеют различные вероятности осуществления. В этом случае примеряется формула Шеннона:
Алфавитный подход применяется, если события, количество информации о которых измеряется, имеют равновероятные возможности осуществления. В этом случае примеряется формула Хартли:
I= log2N,
где:
N – неопределенность знаний (количество возможных исходов),
I– количество информации (в битах).
Если N не является целой степенью 2, то число log2N не является целым числом, и для нахождения количества информации I надо выполнить округление в большую сторону. Таким образом, при решении задач в этом случае I находится как log2N', где N' – степень двойки, ближайшая к N, причем, N'>N.
В последнем случае подход называется алфавитным за счёт истолкования:
• информационного сообщения как последовательности знаков некоторой знаковой системы,
• символов (элементов алфавита) этой системы - как возможных событий, имеющих возможность равновероятной реализации (появления в сообщении).
Приведём некоторые частные случаи формул для определения количества информации для различных видов сообщений: текстового, графического, звукового.
Текстовое сообщение.
А = i ∙S,
где:
А – размер файла (бит),
i – количество бит на один символ (информационная емкость или информационный вес одного символа)
S - количество символов в сообщении.
Причем:
S = x ∙ y ∙ z (где x - число страниц, y - число строк на каждой странице, z – число символов в каждой строке).
Связь размера текстового сообщения с количеством символов, участвующих в сообщении, производится по следующей формуле:
C = 2 i ,
где:
С – мощность алфавита,
i - информационная емкость одного символа.
Графическое сообщение.
А = i ∙S,
где:
А – размер файла (бит),
i – количество бит на один пиксель (глубина кодирования)
S - количество точек в изображении. Причем:
S = x ∙ y (где х – количество точек по горизонтали, у - количество точек по вертикали).
Связь размера графического сообщения с количеством символов, участвующих в сообщении (используемых цветов), производится по следующей формуле:
C = 2 i,
где:
С – количество используемых цветов,
i – количество бит на один пиксель (глубина кодирования).
Звуковое сообщение.
Моно:
А = i ∙ T ∙ D,
Стерео:
А =2 ∙ i ∙ T ∙ D
где:
А – размер файла(бит),
i – количество БИТ на одно измерение (глубина кодирования)
T – время звучания
D – частота дискретизации (Гц).