May 29, 2019

26. Понятие информации; виды информации; математические основы информатики; подходы к оценке количества информации; структура и закономерности протекания информационных процессов.

В понятие «информация» вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. В общем понятие информации трактуется так:

Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

Говоря о компьютерной обработке данных под информацией, понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Различают основные виды информации, которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – наскальные рисунки, картины, фотографии, схемы, чертежи на различных материалах (бумага, холст, мрамор и др.).
  • звуковая (акустическая) – для хранения звуковой информации в 1877 г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

P.S. Такого в вопросе нет билете.

Свойства информации

  • Объективность.
  • Достоверность.
  • Полнота.
  • Точность информации.
  • Ценность информации.
  • Актуальность.
  • Понятность.
  • Доступность.
  • Краткость.

Математические основы информатики

Способы измерения информации:

  • объемный

Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации, естественно, назвать объемом информации.

Объем информации в сообщении — это количество символов в сообщении.

Пояснение: поскольку, например, одно и то же число может быть записано многими разными способами (с использованием разных алфавитов): «двадцать один», 21, 11001, XXI, то этот способ чувствителен к форме представления (записи) сообщения.

В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме (с использованием алфавита, состоящего всего из двух символов 0 и 1). Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт.

  • энтропийный

Этот подход принят в теории информации и кодирования.

Общая мера неопределённостей называется энтропией.

Энтропия характеризуется некоторой математической зависимостью от совокупности вероятности наступления этих событий. Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости.

Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.


Американский инженер Р. Хартли процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:

I = log_2 N 

где N – число равновероятных событий, I – количество информации.

Задача

Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

Решение

Такое сообщение содержит I = log_2 3 = 1,585 бита информации.


Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный  Клод Шеннон предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I = - (p_1 * log_2 p_1 + p_2 * log_2 p_2 + . . . + p_N * log_2 p_N)

где p_i — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Задачи

Определить количество информации, получаемое при реализации одного из событий, если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку.

Решение

а) Будем бросать несимметричную четырехгранную пирамидку.

Вероятность отдельных событий будет такова:

р1 = 1 / 2,
р2 = 1 / 4,
р3 = 1 / 8,
р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log_2 1/2 + 1 / 4 log_2 1/4 + 1 / 8 log_2 1/8 + 1 / 8 log_2 1/8) 
= 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 
= 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:

I = log_2 4 = 2 (бит).

  • алгоритмический

Алгоритмический способ измерения информации характеризуется следующими рассуждениями:

Слово 000. . . . . .0 – простое, слово 010101. . . .01 – более сложное, а слово, в котором 0 и 1 выбираются экспериментально при бросании монеты ( 1 – орел, 0 – решка) – еще сло��нее.

Компьютерная программа, печатающая первое слово – совсем простая, для получения второго слова нужна более сложная программа, которая будет печатать символ, противоположный предыдущему. Случайная последовательность, не обладающая никакими закономерностями, может быть напечатана программой, в которой каждый очередной символ будет печататься отдельным оператором. Т. е. длина программы, печатающей хаотичную последовательность близка к длине самой последовательности. Следовательно, любому сообщению можно приписать количественную характеристику, отражающую размер программы, которая позволяет ее воспроизвести.


Количество информации (информационный объем), содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков (символов), определяется с помощью формулы:
V = I * K

V – информационный объем сообщения;

I = log_2 N - информационный объем одного символа (знака);

К – количество символов (знаков) в сообщении;

N –мощность алфавита (количество знаков в алфавите).

Формирование представления информации называется ее кодированием.

В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки.

Обратный переход к исходному представлению называется декодированием.
Последовательность битов, рассматриваемых аппаратной частью ЭВМ как единое целое, называется машинным словом.

Так как оперативная память ЭВМ состоит из конечной последовательности слов, а слова - из конечной последовательности битов, то объем представляемой в ЭВМ информации ограничен емкостью памяти, а числовая информация может быть представлена только с определенной точностью, зависящей от архитектуры памяти данной ЭВМ.


Системой счисленияназывается совокупность приемов наименования и записи чисел.

В любой системе счисления для представления чисел выбираются некоторые символы (слова или знаки), называемые базисными числами, а все остальные числа получаются в результате каких-либо операций из базисных чисел данной системы исчисления.

Символы, используемые для записи чисел, могут быть любыми, только они должны быть разными и значение каждого из них должно быть известно.

Система счисления называется позиционной, если значение каждой цифры (ее вес) изменяется в зависимости от ее положения (позиции) в последовательности цифр, изображающих число.

Пример: Позиционная система счисления основана на том, что десять единиц каждого разряда объединяются в одну единицу соседнего старшего разряда. Таким образом, каждый разряд имеет вес, равный степени 10. 

Например, в записи числа 343.32 цифра 3 повторена три раза, при этом самая левая цифра 3 означает количество сотен (ее вес равен 10^2); цифра 3. стоящая перед точкой, означает количество единиц (ее вес равен 100 ), а самая правая цифра 3 — количество десятых долей единицы (ее вес равен 10^-1), так что последовательность цифр 343.32 представляет собой сокращенную запись выражения:

3x10^2 + 4x10^1 + 3x10^0 + 3x10^-1 + 2x10^-2.

Подходы к оценке количества информации

  1. Статистический (количество информации оценивается с точки зрения неопределенности, снимаемой при получении информации, при этом не затрагивается смысл информации)
  2. Семантический (учитывается ценность информации, ее полезность; ценность определяется эффективностью в последующем управлении на ее основе, но это величина относительная)
  3. Структурный (за единицу информации берется некоторая элементарная единица, следовательно, общее количество информации определяется их суммой; подход механический, при нем не учитывается ценность информации)

Структура и закономерности протекания информационных процессов

Структурно информационный процесс включает следующие составляющие: сбор (восприятие), передачу, переработку, хранение и представление информации. Результатом реализации составляющих является воздействие.

Примечание: исключением является представление информации, так как эта составляющая имеет место только тогда, когда информация используется людьми. В информационном процессе наблюдается также то, что не всегда воздействие направлено на источник информации. Оно может быть направлено на отдельные элементы системы управления или на нее в целом. 

Поскольку материальным носителем информации является сигнал, то информационный процесс можно рассматривать одновременно как цикл обращения и преобразования сигналов, несущих информацию.

Восприятие информации состоит в том, что формируется образ объекта или материального процесса, производится его опознание и оценка. При восприятии осуществляется фильтрация информации, т.е. отделение полезной информации. В результате восприятия получается сигнал в форме, удобной для передачи или обработки информации, ее систематизации, кодирования, построения форм сообщения.

Передача информации состоит в переносе ее на расстояние посредством различных сигналов по акустическим, механическим, пневматическим, электромагнитными и другим каналам связи.

Прием информации на другой стороне канала имеет характер вторичного восприятия со свойственными ему операциями борьбы с помехами.

Хранение информации — это перенос ее во времени.

В зависимости от того, как меняется ценность информации во времени, надо обеспечить соответствующую длительность ее мнения. Другой важной характеристикой информации, влияющей на ее хранения, кроме ценности, является частота использования. Чем чаше нужны сведения, тем быстрее их надо извлекать из хранилищ. Извлечение информации имеет характер восприятия.

Представление информации заключается в демонстрации перед сотрудником условных изображений, содержащих качественные и количественные характеристики входной информации. Для представления информации используются оптические, акустические и двигательные сигнализаторы, цифровые и графические регистрирующие приборы с видимой записью, электроннолучевые трубки с экранами, мнемонические плоские и объемные щиты, табло и макеты с встроенными сигнальными и индикаторными элементами.

Воздействие состоит в том, что сигналы, несущие информацию, производят регулирующие, управляющие или защитные действия, вызывающие изменения в объекте управления.

Структура информационного процесса реализуется информационной системой, целью функционирования которой является преобразование информации о составляющих процесса управления.


P.S.S. Наверное нужно, пусть будет тут.

Клодом Шенноном была предложена модель процесса передачи информации по техническим каналам связи, представленная схемой.