Лекция: Информация,ее cв-ва.Виды инфор-ых процессов.Формулы Хартли и Шеннона для измерения кол-ва инф-ции.

Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием инф-ции в различных сферах человеческой деят-ти.Как любое фундаментальное понятие, информация не имеет точного всеобъемлющего определения (неопределимое понятие). В зависимости от области знания и человеческой деятельности сущ-ют разные подходы к определению понятия инф-ции.На бытовом уровне инф-ция понимается как сведения об окружающем мире, воспринимаемые человеком или специальными устройствами как знания, получаемые из различных источников. В технике–общения, передаваемые в форме знаков и сигналов без учета их смысла.В теории инф-ция–сведения, которые частично или полностью снимают неопределенность, существовавшую до их получения.

Информация – отображение реального мира с помощью сведений, сообщений.

Именно с позиций принятия решения рассматриваются качественные признаки инф-ции, ее потребительские свойства.

1. Объективность инф-ции – независимость ее от мнений и суждений субъекта. Объективная информация может быть получена с помощью исправных приборов.

2. Достоверность инф-ции – соответствие ее реальному состоянию внешнего мира. Достоверность связана с объективностью. Объективная информация достоверна, но и субъективная информация тоже может быть достоверной. Недостоверность (искажение) инф-ции может наступить:

· в результате преднамеренной дезинф-ции,

· в результате воздействия помех,

· в случае преувеличения или преуменьшения реального факта.

3. Полнота инф-ции – достаточность имеющихся сведений для понимания и принятия решения.

4. Актуальность (своевременность) инф-ции.

5. Полезность (ценность) инф-ции. Информация может рассматриваться как ценная или, наоборот, бесполезная с точки зрения задач, для решения которых ее можно применить.

6. Доступность: возможность получения инф-ции данным потребителем.

7. Своевременность: соответствие инф-ции нуждам потребителя в данный момент времени.

Все перечисленные свойства инф. оказывают большое влияние на правильность решений, и важены для процесса управления.

Работа с информацией.Информационные процессы (работа с информацией): поиск, сбор, хранение, передача, обработка, использование, защита и некоторые другие. Среди перечисленных можно выделить три основных типа информационных процессов: хранение, передача, обработка. Остальные информационные процессы в той или иной мере можно отнести к одному из трех типов. Рассмотрим их подробнее.Хранение инф-ции. Здесь необходимо ввести понятие носителя инф-ции. Инф-ция не существует сама по себе, она связана с некоторым материальным носителем: веществом или энергией.

Носитель инф-ции – это среда для записи и хранения инф..Передача инф. – это передача какого-либо сигнала. Сигнал – это способ передачи инф… Он представляет собой физический процесс, имеющий информационное значение.Процесс передачи инф. предполагает наличие ее источника и приемника, между которыми действует канал связи. По каналу связи посредством сигналов передается сообщение, несущее ту или иную информацию. Обычно передаваемая информация закодирована, и правило кодирования должно быть известно как источнику, так и получателю.В процессе передачи может произойти искажение сигнала от внешних помех. В такой ситуации следует принимать меры защиты передаваемой инф… Различают дискретные и аналоговые сигналы.Аналоговый (непрерывный) сигнал – сигнал, непрерывно меняющийся во времени. Дискретный (прерывистый) сигнал – сигнал, который может принимать конечное число значений в конечное число моментов времени.Сигналы, передающие текстовую информацию, т.е. последовательности символов – дискретны.Количество значений дискретного сигнала можно подсчитать, и каждое из них представить в виде числа. Отсюда дискретный сигнал называют также цифровым, а информацию, представленную в виде дискретных сигналов, информацией, представленной в оцифрованном виде. Например, цифровая видеокамера представляет и хранит изображение в виде конечного набора нулей и единиц.Дискретное представление инф. удобно для работы технических устройств (в особенности вычислительных машин), оно более помехоустойчиво, может быть сохранено на более длительный срок. Однако информация, записанная в аналоговой форме, полнее отражает многообразие мира, ибо многие нюансы теряются при записи посредством дискретных сигналов (оцифровке).Обработка инф.

В общем случае можно сказать, что обработка инф. – это преобразование инф. из одного вида в другой по строгим формальным правилам.

1. По способу восприятия. У человека пять органов чувств, и отсюда выделяют пять видов инф.: зрительная, звуковая, тактильная вкусовая, обонятельная.

2. По способу отображения: текстовая; числовая; графическая; звуковая.

Наиболее полно можно судить об объекте или явлении, если соединяются различные формы представления инф..

3. По общественному значению: личная (наследственность; знания, умения, опыт; эмоции, интуиция), массовая (обыденная; общественно-политическая; эстетическая) специальная: (научная; производственная; техническая; управленческая).

4. По способу передачи: дискретная и непрерывная.

5. По месту возникновения: входной, выходной, внутренней, внешней.

6. По стабильности: постоянной и переменной.

7. По стадии обработки: первичная, вторичная, промежуточная, результатная.

8. По предметной области: статическая, коммерческая, нормативная.

Может быть: качественной и некачественной, полной и неполной.

Измерение инф-ции.: 1) вероятностный подход;2) объемный подход.

Это есть меры качественного подхода. Вместе с тем технические проблемы развития разнообразных средств связи потребовали ввести количественную меру инф., независимую от субъективного человеческого восприятия. В 1948 г. К. Шеннон — специалист в области средств связи ввел математическое понятие количества инф., положив тем самым началотеории инф-ки. как технической и математической дисциплины. Теория инф-ки. — раздел кибернетики, изучающий способы измерения и передачи инф-ции.Количественную меру дает вероятностный подход. С этой точки зрения информация рассматривается как снятая неопределенность. Пример: в коробке лежит шашка неизвестного цвета. Существует неопределенность состояния системы — количество возможных ее состояний(2). Ответ «да» или «нет» на вопрос «Белая ли шашка?» — уменьшит неопределенность в 2 раза. Узнав результат, мы получим 1 бит инф… Обозначим N – количество возможных событий, I — количество инф. в сообщении о том, что произошло одно из N событий (N=2, I=1). Связь между этими величинами выражается формулой Хартли: = N, I= log2N. Пример: пусть на стеллаже 8 полок, книга может быть поставлена на любую из них. Сколько инф. содержится в сообщении о том, где лежит книга. N=8, тогда по формуле I=3. Сообщение о событии, уменьшающее неопределенность в 2 раза несет 1 бит инф.Чем больше начальная неопределенность исхода, тем больше инф. о его фактическом наступлении. Количественная мера неопределенности пропорциональна количеству возможных исходов. Это приводит к определению энтропии опыта — численная мера неопределенности опыта.Т.к. опыт имеет N равновероятных исходов, то можно считать, что на долю каждого исхода приходится 1/N часть общей

неопределенности опыта:. Обозначим вероятность i-го исхода опыта через Рi (i =1,2,...N). Pi =, тогда формула для численной меры неопределенности (формула количества инф.) имеет вид: – Ф. Шеннона.

Легко сосчитать, что при этом условии получаем I=1 бит. Форм. можно использовать и в тех случаях, когда возможные результаты опыта не являются равновероятными. Пусть в урне 10 шаров (1 черный и 9 белых). Р1=1/10, Р2=9/10, тогда количество инф. I=0,469 бит. Мы видим, что количество инф. оказалось меньшим, чем для опыта с 2-мя равновероятными исходами I=1 бит.

Теоремы Шеннона:

1. Всегда возможно создание системы эфф-ного кодирования дискретных сообщений, в ктр среднее число двоичных символов на один символ сообщения асимптотически приближается к энтропии ист-ка сообщения.

При наличии помех в канале всегда можно найти такую систему кодирования, при ктр сообщения будут переданы с заданной достоверностью.

еще рефераты
Еще работы по информатике