Лекция: Энтропия дискретной случайной величины

Теория энтропии – основа современной теории информации, которая является актуальным направлением исследований в области теории вероятностей и высшей математики в целом. Энтропия является информационной характеристикой дискретной случайной величины. Вычисляется она по формуле К. Шеннона:

Для первого стихотворения H(X) = 3,282844098 бит

Для второго стихотворения H(X) = 2,675265 бит

Энтропия в лингвистике – это одна из наиболее универсальных теоретико-информационных характеристик текста. Это показатель сложности текста в теоретико-информационном смысле.

Из данных результатов несложно сделать вывод, что стиль и звучание «Свободного стихотворения» Зинаиды Гиппиус намного сложнее стихотворения «The Cradle Song». Оно более вариативно и несколько труднее воспринимается на слух.

Задание. Подберите два стихотворения на двух различных языках и проанализируйте их, используя представленный выше алгоритм. Результаты анализа оформите в печатной форме. Защитите проект.

Литература

еще рефераты
Еще работы по иностранным языкам