Лекция: Информация,ее cв-ва.Виды инфор-ых процессов.Формулы Хартли и Шеннона для измерения кол-ва инф-ции.
Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием инф-ции в различных сферах человеческой деят-ти.Как любое фундаментальное понятие, информация не имеет точного всеобъемлющего определения (неопределимое понятие). В зависимости от области знания и человеческой деятельности сущ-ют разные подходы к определению понятия инф-ции.На бытовом уровне инф-ция понимается как сведения об окружающем мире, воспринимаемые человеком или специальными устройствами как знания, получаемые из различных источников. В технике–общения, передаваемые в форме знаков и сигналов без учета их смысла.В теории инф-ция–сведения, которые частично или полностью снимают неопределенность, существовавшую до их получения.
Информация – отображение реального мира с помощью сведений, сообщений.
Именно с позиций принятия решения рассматриваются качественные признаки инф-ции, ее потребительские свойства.
1. Объективность инф-ции – независимость ее от мнений и суждений субъекта. Объективная информация может быть получена с помощью исправных приборов.
2. Достоверность инф-ции – соответствие ее реальному состоянию внешнего мира. Достоверность связана с объективностью. Объективная информация достоверна, но и субъективная информация тоже может быть достоверной. Недостоверность (искажение) инф-ции может наступить:
· в результате преднамеренной дезинф-ции,
· в результате воздействия помех,
· в случае преувеличения или преуменьшения реального факта.
3. Полнота инф-ции – достаточность имеющихся сведений для понимания и принятия решения.
4. Актуальность (своевременность) инф-ции.
5. Полезность (ценность) инф-ции. Информация может рассматриваться как ценная или, наоборот, бесполезная с точки зрения задач, для решения которых ее можно применить.
6. Доступность: возможность получения инф-ции данным потребителем.
7. Своевременность: соответствие инф-ции нуждам потребителя в данный момент времени.
Все перечисленные свойства инф. оказывают большое влияние на правильность решений, и важены для процесса управления.
Работа с информацией.Информационные процессы (работа с информацией): поиск, сбор, хранение, передача, обработка, использование, защита и некоторые другие. Среди перечисленных можно выделить три основных типа информационных процессов: хранение, передача, обработка. Остальные информационные процессы в той или иной мере можно отнести к одному из трех типов. Рассмотрим их подробнее.Хранение инф-ции. Здесь необходимо ввести понятие носителя инф-ции. Инф-ция не существует сама по себе, она связана с некоторым материальным носителем: веществом или энергией.
Носитель инф-ции – это среда для записи и хранения инф..Передача инф. – это передача какого-либо сигнала. Сигнал – это способ передачи инф… Он представляет собой физический процесс, имеющий информационное значение.Процесс передачи инф. предполагает наличие ее источника и приемника, между которыми действует канал связи. По каналу связи посредством сигналов передается сообщение, несущее ту или иную информацию. Обычно передаваемая информация закодирована, и правило кодирования должно быть известно как источнику, так и получателю.В процессе передачи может произойти искажение сигнала от внешних помех. В такой ситуации следует принимать меры защиты передаваемой инф… Различают дискретные и аналоговые сигналы.Аналоговый (непрерывный) сигнал – сигнал, непрерывно меняющийся во времени. Дискретный (прерывистый) сигнал – сигнал, который может принимать конечное число значений в конечное число моментов времени.Сигналы, передающие текстовую информацию, т.е. последовательности символов – дискретны.Количество значений дискретного сигнала можно подсчитать, и каждое из них представить в виде числа. Отсюда дискретный сигнал называют также цифровым, а информацию, представленную в виде дискретных сигналов, информацией, представленной в оцифрованном виде. Например, цифровая видеокамера представляет и хранит изображение в виде конечного набора нулей и единиц.Дискретное представление инф. удобно для работы технических устройств (в особенности вычислительных машин), оно более помехоустойчиво, может быть сохранено на более длительный срок. Однако информация, записанная в аналоговой форме, полнее отражает многообразие мира, ибо многие нюансы теряются при записи посредством дискретных сигналов (оцифровке).Обработка инф.
В общем случае можно сказать, что обработка инф. – это преобразование инф. из одного вида в другой по строгим формальным правилам.
1. По способу восприятия. У человека пять органов чувств, и отсюда выделяют пять видов инф.: зрительная, звуковая, тактильная вкусовая, обонятельная.
2. По способу отображения: текстовая; числовая; графическая; звуковая.
Наиболее полно можно судить об объекте или явлении, если соединяются различные формы представления инф..
3. По общественному значению: личная (наследственность; знания, умения, опыт; эмоции, интуиция), массовая (обыденная; общественно-политическая; эстетическая) специальная: (научная; производственная; техническая; управленческая).
4. По способу передачи: дискретная и непрерывная.
5. По месту возникновения: входной, выходной, внутренней, внешней.
6. По стабильности: постоянной и переменной.
7. По стадии обработки: первичная, вторичная, промежуточная, результатная.
8. По предметной области: статическая, коммерческая, нормативная.
Может быть: качественной и некачественной, полной и неполной.
Измерение инф-ции.: 1) вероятностный подход;2) объемный подход.
Это есть меры качественного подхода. Вместе с тем технические проблемы развития разнообразных средств связи потребовали ввести количественную меру инф., независимую от субъективного человеческого восприятия. В 1948 г. К. Шеннон — специалист в области средств связи ввел математическое понятие количества инф., положив тем самым началотеории инф-ки. как технической и математической дисциплины. Теория инф-ки. — раздел кибернетики, изучающий способы измерения и передачи инф-ции.Количественную меру дает вероятностный подход. С этой точки зрения информация рассматривается как снятая неопределенность. Пример: в коробке лежит шашка неизвестного цвета. Существует неопределенность состояния системы — количество возможных ее состояний(2). Ответ «да» или «нет» на вопрос «Белая ли шашка?» — уменьшит неопределенность в 2 раза. Узнав результат, мы получим 1 бит инф… Обозначим N – количество возможных событий, I — количество инф. в сообщении о том, что произошло одно из N событий (N=2, I=1). Связь между этими величинами выражается формулой Хартли: = N, I= log2N. Пример: пусть на стеллаже 8 полок, книга может быть поставлена на любую из них. Сколько инф. содержится в сообщении о том, где лежит книга. N=8, тогда по формуле I=3. Сообщение о событии, уменьшающее неопределенность в 2 раза несет 1 бит инф.Чем больше начальная неопределенность исхода, тем больше инф. о его фактическом наступлении. Количественная мера неопределенности пропорциональна количеству возможных исходов. Это приводит к определению энтропии опыта — численная мера неопределенности опыта.Т.к. опыт имеет N равновероятных исходов, то можно считать, что на долю каждого исхода приходится 1/N часть общей
неопределенности опыта:. Обозначим вероятность i-го исхода опыта через Рi (i =1,2,...N). Pi =, тогда формула для численной меры неопределенности (формула количества инф.) имеет вид: – Ф. Шеннона.
Легко сосчитать, что при этом условии получаем I=1 бит. Форм. можно использовать и в тех случаях, когда возможные результаты опыта не являются равновероятными. Пусть в урне 10 шаров (1 черный и 9 белых). Р1=1/10, Р2=9/10, тогда количество инф. I=0,469 бит. Мы видим, что количество инф. оказалось меньшим, чем для опыта с 2-мя равновероятными исходами I=1 бит.
Теоремы Шеннона:
1. Всегда возможно создание системы эфф-ного кодирования дискретных сообщений, в ктр среднее число двоичных символов на один символ сообщения асимптотически приближается к энтропии ист-ка сообщения.
При наличии помех в канале всегда можно найти такую систему кодирования, при ктр сообщения будут переданы с заданной достоверностью.