Реферат: Сайт Ассоциация "История и компьютер"



А.Н. ПЕТРОВ

КОМПЬЮТЕРНЫЙ АНАЛИЗ ТЕКСТА: ИСТОРИОГРАФИЯ МЕТОДА1


// Круг идей: модели и технологии исторической информатики. Труды III конференции АИК / Ред. Л.И. Бородкин и И.Ф. Юшин. М., 1996. – [344 с.] // Сайт Ассоциация "История и компьютер". URL: http://kleio.asu.ru/?q=node/39 (дата обращения, – 7.03.2010)


Машиночитаемые источники естественного языка, которыми для квантитативных источниковедения и текстологии являются полнотекстовые базы данных, представляют язык в оцифрованном виде. Электронный текст существует как набор кодов. Можно говорить о 209 страницах дебатов в I Государственной Думе или о 870 килобайтах стенограмм. Одной из наиболее известных среди историков программ, реализующих работу с электронным текстом, является TACT. В настоящее время большинство систем обработки полнотекстовых баз данных в состоянии распознать такие элементы как слова, строки и параграфы без указания исследователя. Ряд рутинных операций решается программным путем, например, автоматическое составление списка всех слов текста с указанием частот их встречаемостей в источнике, поиск слов и контекста, вывод на печать. Работа с ТАСТ'ом имеет ряд последовательных этапов. Первоначально исследователь должен преобразовать текстовый файл в текстовую базу данных. Как правило, исходный текст должен быть в формате ASCII (ISO-646). На стадии преобразования необходимо проделать две операции. Во-первых, задать русский алфавит. Во-вторых, использовать описательный язык разметки документа: перечислить символы разметки стенограмм и указать ими строение документа. Рассмотрим образец разметки стенограмм первой Думы (1906) символами- флажками описательного языка Label Markup.


<<271 Сессiя I, заседанiе 6. 8 V 1906 г.>>

<<Голосъ. Сегодня надо оповестить.

Острогорскiй. Тогда придется отложить до послезавтра.>>

{Председатель}. Въ виду сделанных заявленiй, я сделаю собра нiе

отделовъ послезавтра. Этотъ вопросъ решенъ. Затемъ имею честь

доложить Государственной Думе...

Гр.{Гейденъ}. Будетъ ли завтра заседанiе?


Можно видеть, что части текста взяты в кавычки <<...>>. Флажки означают, что программа будет игнорировать при анализе стереотипное указание в шапке каждой страницы стенограмм на неизменявшиеся страницу, сессию, заседание и число. Из индексов также исключаются реплика анонима и Острогорского на странице 271, которые не имеют отношения к законодательству. При анализе эти части текста сохраняются в полнотекстовой базе стенограмм, но слова из них не входят в словарь, то есть не проиндексированы. Особенностью думской деятельности, как и деятельности прочих законодательных органов представительного характера, являлось смешение в ходе работы законодательства, текущих проблем избирателей и процессуальных вопросов. Например, в перерывах для подсчета результатов голосования о выборах в комиссии обсуждались планы дальнейших заседаний, отчет комиссии по Белостокскому погрому и многое другое. Довольно часто на одной странице стенографических отчетов располагалось обсуждение нескольких несвязанных между собой вопросов. Поэтому важной задачей при подготовке материалов законодательных прений для анализа и управления является выделение нужной информации. Для создания полнотекстовой базы первой Думы берутся страницы стенографических отчетов с обсуждением законодательства. Попутные законодательству дебаты размечаются так, чтобы они сохранялись для просмотра, но исключались при анализе и управлении. Каждый из законопроектов Государственной Думы преобразуется в отдельную базу данных. Подобным образом возможно представить законотворчество как развивавшийся во времени процесс.

Кроме флажков <<...>>, в данном случае можно видеть флажки {...}. Имена ораторов: Председателя и Гейдена, - находятся в фигурных скобках {...}. Такими флажками программе ТАСТ указывалось на введение фамилий. Удобство способа разметки текста с помощью расстановки фигурных скобок - флажков состоит в том, что можно быстро создать модель содержания документа. В этом случае после образования базы из размеченного текста стенограмм программа автоматически показывает список всех ораторов в дебатах. При моделировании содержания стенограмм удобен язык Label Markup, так как он позволяет быстрее других обрабатывать большие объемы текста. В то же время, с его помощью нельзя дать широкое описание размеченных элементов, как в случае с языками COCOA или BYU. В конкретном источниковедческом исследовании стенограмм Думы потребности в них не возникает, так как ораторы не были организованы иерархически, а хронологические рамки заседаний единственной сессии были узкими - 72 дня. Кроме создания модели текста на встречаемости имен ораторов, для обработки стенограмм также определяется, какие элементы будут для программы счетчиками концов слов и предложений. Как правило, это точка, восклицательный и вопросительный знаки.

После создания полнотекстовой базы данных начинается управление и анализ полученного машиночитаемого источника. Создание запросов к базе имеет два этапа. Во-первых, можно выбрать слова из образованного частотного словаря-индекса их встречаемостей в тексте - как вручную, так и автоматически. Например, с использованием языка запросов к базе данных задаются вопросы следующего рода: показать все случаи встречаемости понятия "дворянство" рядом с оратором Гейденом (двор.*; when оратор=Гейден) или показать случаи, когда Председатель употреблял слова или выражения 37 и более раз (freq>=37; when оратор=Председатель). Команды подобного рода в TACT'е строятся с помощью библиотеки так называемого "языка операторов". Во-вторых, при запросе в одной из 5-ти форм определяется демонстрация результатов обработки: полный текст, KWIC2 с заданным контекстом, INDEX, график распределений, таблица конфигураций слов. ТАСТ производит базы данных как из размеченных, так и неразмеченных языком семантических маркеров текстов. В его состав входит программа Collgen, которая позволяет автоматически находить в тексте языковые клише из 2 и более слов 2 и более раз - в зависимости от выдвинутой проблемы.

Подготовка объёмных нарративных источников, к которым относятся отчеты Думы, для компьютерного моделирования обычно начинается с получения оцифрованной версии документа. Этого можно достичь использованием трех вариантов. Во-первых, применение технологии сканирования и оптического распознания знаков. Ее весьма часто заменяют обозначением OCR - Optical Character Recognition. Использование сканера позволяет получать оцифрованное изображение документа. Оцифровка анализируется с помощью алгоритмического распознания знаков, что дает возможность преобразовывать исходный образ текста в машиночитаемый вид. Проблема применения данного варианта ввода источников в компьютер заключается в несовпадении результатов развития собственно сканирования, с одной стороны, и распознания получаемых образов, с другой. Сканирование, оптическая технология, как более доступные для разработки, позволяют осуществлять практически все виды работ, связанные с преобразованием лингвистических источников в машиночитаемые образы. Дальнейшая процедура преобразование образов собственно в машиночитаемый текст сталкивается со сложностью задачи распознания. По этой причине количество получаемых ошибок, в зависимости от качества источника, может превышать разумный порог в 5-10%, что приводит к необходимости обращения ко второму варианту получения машиночитаемого текста - вводу текста с клавиатуры. Данная альтернатива OCR имеет широкое распространение в кругах источниковедов, специалистов по исследованию текста. Наконец, кроме сканирования и ввода текста с клавиатуры существует возможность использования уже существующих машиночитаемых источников, подготовленных ранее для других целей. Как правило, они содержатся в фондах текстовых архивов. К числу наиболее известных относят International Computer Archive of Modern English at University of Bergen (ICAME) и Oxford Text Archive, основанные на коллекциях греческой, латинской и английской литературы. С 1976 года оксфордский архив занимается распространением электронных текстов среди заинтересованных лиц и организаций3. В Америке такие архивы имеются, в частности, в университетах Канзаса (MALIN), Маршалла (Byrd) и Государственном университете Миссисипи.

Развитие международных коммуникаций 1990-х годов в рамках Internet'а позволило историкам получить оперативный доступ в компьютерных сетях России к архивам исторических текстов в других государствах. Старейшим среди текстовых архивов, созданных для этой цели, считается Исторический архив текстов университета Миссисипи в США (The Historical Text Archive). В 1993 в Голландии возник Groningen Historical Electronic Text Archive (GHETA), который также поставил целью сделать машиночитаемые исторические тексты доступными через Internet. GHETA связана с международной ассоциацией "History & Comruting", голландским Архивом исторических данных, университетом Миссисипи, текстовым архивом в Оксфорде и другими историческим архивами, что позволяет получать данные из разных мест c помощью процедуры передачи файлов File Transfer Protocol (FTP)4. Подавляющее большинство западноевропейских и американских исторических организаций, занимающихся архивированием машиночитаемых текстов, связаны частью единой компьютерной сетью Internet'а под названием HNsource. Благодаря ей существует, например, возможность работать с большими базами данных на французском языке в рамках проекта ARTFL Чикагского университета. Его полнотекстовые базы содержат 2000 французских текстов XVII-XX веков: литературного, философского, научного характера, - а также коллекции отсканированных документов.


* * *


Одной из интенсивно развивающихся отраслей использования машиночитаемых письменных источников в целях хранения и обработки является применение семантических языков разметки текста. Оно было обзорно рассмотрено выше на примере стенограмм. Первоначально понятие разметки текстов использовалось для описания ссылок и других отметок в тексте как инструкция для наборщика или машинистки по правилам печати и оформления. После того, как создание текстов было компьютеризовано, понятие разметки было расширено для обозначения всех кодов, вставленных в электронные тексты для управления форматированием, печатью и прочими видами обработки. В этом смысле разметка является кодировкой для ясного указания на то, как следует понимать текст. Удобство данного вида работы с электронными текстами состоит в том, что можно изменять коды без изменения источника. Язык разметки указывает правила кодирования документа, правила отличия знаков кода от знаков текста и что коды означают. Все языки разметки основаны на трех основных положениях.

Во-первых, на самом примитивном уровне все тексты без исключения состоят из линий символов. Например, из букв или байтов данных, пометок на страницах или графики. Они получили название "явления". По сути, это минимальная частица текста типа слова или точки, рассматриваемая вне зависимости от структурной или категориальной классификации. В базе данных из свободного текста "явления" представлены набором байтов для хранения и обработки.

Во-вторых, на следующем уровне абстракции всякий текст рассматривается как совокупность объектов различного свойства. Данные объекты появляются в тексте закономерно в определенном отношении к прочим объектам. Объекты могут включать друг друга, иметь связи или быть последовательно представлены. На этом уровне описания текст составлен из структурно определенных объектов, называющихся "элементами". Однако тексты не являются простой чередой слов или байтов. Они содержат примеры объектов, такие как параграфы, заголовки, имена, даты, представленные последовательностью "явлений". Все схемы разметки текстов, в большей или меньшей степени, направлены на описание этих компонентов. Рассмотрение схем указывает по крайней мере три важных аспекта текстовых объектов, которые нуждаются в распознании. Прежде всего, это "протяжение" - позиции в текстовом потоке, на которых формы объекта начинаются и заканчиваются; за ними следует "тип" - категория, которой предназначены формы объекта, после которой возникает "контекст" - связи текстовых объектов с формами другого объекта в документе.

Таким образом, и в-третьих, "тип документа" получается на основе грамматики, определяющей правила объединения классов текста. Подобным образом природа текста представляется как упорядоченная иерархия объектов содержания. Различаются два основные типа языка разметки текстов: процедурный и описательный. Процедурный язык состоит из знаков, которые изначально ясно указывали на то, как размеченные элементы текста должны быть распечатаны. Документы, размеченные процедурным языком, обыкновенно имеют начальную секцию, заголовок, который иногда хранится в отдельном файле. Заголовок определяет характер знаков, допущенных для описания текста, и значки, указывающие на отличие знаков процедурного языка от текста источника- оригинала. В подавляющем большинстве случаев используются значки {...}, \...\, <...>. Заголовки также могут содержать заданные пользователем условные символы, с помощью которых сложные последовательности знаков процедурного языка могут сокращаться для легкости использования. Подобная разметка текста требует специального программного обеспечения, которое изначально разрабатывалось для издательских целей. Различие между процедурным и описательным языками заключается в том, что описательный язык определяет скорее элементы и характерные черты документа, чем процедуры обработки. Задачей этого языка является определение различных феноменов в тексте, например, параграфов, предложений, действующих лиц. Данное различие описательного и процедурного языков рассмотрено в работах специалистов в области лингвистики и компьютерных технологий, гипертекста, гипермедиа, глобальных компьютерных сетей.

Остановимся несколько более подробно на выдвинутой общей теории разметки текста. Всякий раз, когда автор пишет что-либо, он размечает текст. К разметке относится промежутки между словами, отмечающие их границы, запятые, отмечающие границы фраз или точки, отмечающие границы предложений. Обыкновенно, автор постоянно использует два типа разметки текста в рукописи: пунктуационный и презентационный. Под рукописью будем понимать любой вид текста. Пунктуационный язык разметки текста, например, указывает на концы предложений с помощью пробела. Презентационный язык может содержать, для сравнения, нумерацию страниц рукописи. Приведенные два типа разметки текста не могут быть игнорированы из-за того, что на них построена вся система европейского письма, русского в частности. Пунктуационный язык разметки текста состоит из набора средств, обеспечивающих первичную синтаксическую информацию о написанных высказываниях. Из-за относительной стабильности пунктуации она доступна для большинства читателей. Однако ее характеризуют сложность в использовании в зависимости от стилистических вариаций авторов. Социальное разнообразие пунктуации делает язык богаче, чем усложняет компьютерную обработку текста. Презентационный язык, по сравнению с пунктуационным, имеет подчиненный характер. С его помощью делается ясное представление текста. Он включает в себя горизонтальные и вертикальные границы текста, номера томов и страниц, цитат и примечаний, а также указания на концы страниц или специальные символы. Пунктуационный и презентационный языки относятся к разряду естественных. К разряду электронных языков разметки отнесены языки описания полнотекстовых баз данных, хранящих информацию в машиночитаемом виде: процедурный, описательный, референциальный и метаязык. Разработчики теории семантических языков делали ставку, прежде всего, на их создание и использование.

Упомянутый ранее процедурный язык в компьютерный системах обработки текстов заменил презентационный. Процедурный язык часто стал набором компьютерных команд, определяющих, каким образом следует форматировать текст в конкретных программах. Принцип использования описательного языка изложен выше. Остановимся на референциальном языке. Он обращен к задаче замены пунктуации на ее описание, например "точка" вместо "." или "тире" вместо "-". Это может упростить процедуру компьютерную интерпретации текстов, отличающихся разнообразием пунктуации. Референциальный язык также использует библиотеки замен, хранимых в отдельном файле или другой компьютерной системе. Строго говоря, в этом он сближается с описательным языком. Наконец, метаязык предоставляет пользователю возможность контролировать и интерпретировать все языки обработки текстов.

Для историков, имеющих целью анализ текста, более всего подходит описательный язык. Документы, размеченные описательным языком, также как и закодированные с помощью процедурного, имеют заголовок, содержащий допущенные знаки описания5. Однако знаки разных описательных языков могут отличаться от процедурного и между собой. Для того, чтобы было возможно переформулировать тексты, размеченные разными языками, существует метаязык Standard Generalized Markup Language (SGML) - стандартный обобщенный язык разметки. В середине 1980-ых SGML как инструмент текстологии получил официальное признание Международной Организацией Стандартов. В 1987 для простоты использования электронных текстов в исследованиях возник международный научный проект Text Encoding Initiative (TEI)6. Для стандартизация обработки электронных источников TEI использует SGML7.

Среди разработчиков большинства программ обработки текстов преобладали математики и лингвисты, из-за которых программное обеспечение стало отвечать прежде всего задачам лингвистического и литературного анализа8. Проблема историчности текстов разработчиками не ставилась и не решалась. Поэтому конкретно историческое изучение текстовых источников с помощью компьютерного контент-анализа обычно сопровождается классической научной критикой: определением временных и пространственных факторов, прямо и косвенно присутствующих в документах, их социальной направленности, общественного контекста возникновения источника, изменением смыслового содержания понятия во времени, "эзопова языка", - то есть учетом совокупности факторов, лежащих за пределами вычислительной лингвистики. В этом случае большую роль начинают играть исследования по теории и практике аргументации, риторике, социальной семиотике, психолингвистике, лингвистической семантике, прагмалингвистики и теории массовой коммуникации9. Разметка текста языками семантических маркеров не может полностью решить задачи анализа социальной информации. В исторической науке компьютерный анализ текста развивается одновременно с источниковедением в области машиночитаемых документов, основной проблемой которого следует назвать правильное создание и использование формализованных данных, среди которых интерес для текстологии представляют полнотекстовые базы данных10. Понятие "анализ текста" в большинстве случаев использовалось историками-клиометристами для обозначения всего, что не является просто поиском в документе и проверкой правописания. Среди формальных методов обработки исторических текстов на первом месте обычно упоминается контент-анализ.


* * *


Обычно термин "контент-анализ" используется для обозначения двух разных вещей: метода для автоматической классификации документов по содержанию и метода для раскрытия значения слов и идей. Автоматическая классификация документов в течение ряда лет используется в историко-социальных науках и библиографических системах поиска. Текст, его резюме или заголовок служат основными основами классификации. Напротив, семантический контент-анализ нацелен на определение организации слов вокруг идей или понятий в большей степени, чем на организации текста. Суть подхода заключается в сведении изучаемого текста к ограниченному набору определенных элементов, которые затем подвергаются счету и анализу на базе фиксации частоты повторяемости символов и их корреляции друг с другом. Слова в тексте при этом классифицируются в соответствии с их дистанционными связями между собой. Для этого используется лингвистическая и статистическая техника, например кластерный анализ или анализ связей. В распоряжении текстологов находится ряд программ автоматизированного анализа для компьютеров IBM. Среди них назовем ARRAS, TACT, TextPack V, SYREX, SATO11.

Контент-анализ в литературных и лингвистических расчетах начал интенсивно развиваться в 1950-х годах. Он оказался приемлемым для изучения широкого круга проблем гуманитарного знания и социальных наук12. Контент-анализ нашел эффективное применение в исследованиях этно-культурных, политических явлений, истории мысли13. Социологи, специализировавшиеся на исследованиях массовой коммуникации, приступили к разработке контент-анализа в основном в США. В дальнейшем при участии математиков его применили в политологии, философии, лингвистике14. Применение контент-анализа в истории оказалось ограничено потребностью в сильной классической традиции в значительно большей степени, чем в эмпирической социологии или психологии, построенных на методическом фундаменте непосредственных наблюдений и экспериментов15. Кроме того, контент-анализ, несмотря на видимую интердисциплинарность, был разработан прежде всего в связи с потребностями социологических исследований содержания массовой коммуникации. Социологи сформулировали общие теоретические принципы формализации эмпирических данных, приемов анализа текстов, которые с тех пор стали совокупно называться контент-анализом. Некоторые проблемы применения данного типа анализа в истории оказались внешними проявлениями ряда теоретико-методологических расхождений между исторической наукой и социологией, как близких, но самостоятельных социальных наук. Социологизированность контент-анализа – специфическая черта – осложнилась прямой зависимостью результатов исследования от того, что именно в тексте исследователь считает возможным подвергнуть формализации, подсчету, а также какими теоретико-методологическим принципами при этом он намерен воспользовался. В классической статистике данная проблема решается на первом этапе составления формуляра для сбора эмпирических данных. В текстологии ее решают в ходе анализа эмпирического материала. Проблема формализации в текстологии более сложна. Вопрос о корректности изучения формализованных текстов в значительно большей степени открыт для критики по сравнению с методикой в изучении хорошо структурированных источников типа переписей или фабрично-заводской статистики. Однако проблема теоретического анализа, проведенного до и после вычислений, остается общей. Моделирование в политической и социально- экономической истории постоянно испытывает ее влияние как результат фундаментальных объектно-субъектных отношений в области эпистемологии.

В количественном анализе повествовательных источников интересный вопрос также представляет теоретическая возможность выборочного научного изучения материалов. В ряде случаев не представляется возможным выработать универсальный критерий и метод отбора внутри единого корпуса документов, то есть выборки из генеральной совокупности, в отличие от ряда статистических данных, характеризующихся массовостью и повторяемостью. Использование всеобщего принципа представительных выборок не выдерживает критики в текстологии из-за отсутствия однородности содержания документов единого корпуса. Теоретически трудно исключить при правовом анализе документов аграрной политики, например, какой-либо проект из единого портфеля законодательных реформ Думы.

Методы контент-анализа привлекались при исследованиях различных по времени и характеру повествовательных источников. Ближе всего к социологическому фундаменту этого метода оказались исследования исторической прессы. Именно для периодики контент-анализ был разработан, и благодаря интересу к процессам массовой коммуникации историки получили возможность формального анализа текстов.

Благодаря постоянному поиску методов текстологии, появились исследования политического мышления с помощью когнитивного картирования, преобразующего линейную аргументацию в иерархическое древо271>16. Несмотря на ряд нерешенных проблем формализации рассуждений, данные исследования сохранили методологическую значимость. Отход от принципа линейности стал удобным способом перестройки информации в дальнейших лингвистических, исторических, философских исследованиях, разработках программного обеспечения для анализа письменных источников17. Вообще, методологические проблемы применения когнитивных методов в исследованиях заняли особое место среди специалистов в области моделирования социального взаимодействия, социальной психологии и политического мышления из-за того, что формальный анализ в перечисленных социальных науках развивался под определяющим влиянием американского математика Аксельрода и группы исследователей во главе с Бонемом и Шапиро, увлекавшимся французским структурализмом под влиянием Фуко.

Обращение к ментальным категориям основано на стремлении объяснить процесс принятия решения с помощью методов понимания текста, теоретически-игрового моделирования. Подробно проблемы когнитивного картирования и операционного кодирования как взаимодополняющих методов анализа процесса принятия решения рассматрены в статье известных норвежских политологов Херадствейта и Нарвесена. Они разобрали ряд методологических вопросов использования кодирования и картирования как методов когнитивной репрезентации политического мышления при помощи компьютера18. Ко времени написания статьи исследования по компьютерному моделированию политического мышления носили экспериментальный характер. Начало им положили работы профессора Йельского университета Абельсона. Абельсон стал известен рядом междисциплинарных работ по применению методов компьютерного моделирования к изучению политического мышления и развитию когитологии. Им была создана одна из первых иерархических моделей понятийных структур. Работа Абельсона в области "когнитивного диссонанса" положила начало сотрудничеству с Шенком, результатом которого стала совместная книга и ряд систем интерпретации политических текстов19. Впоследствии идеи Абельсона и Шенка были воплощены Карбонелом в программе POLITICS.

Резюмируя, отметим, что компьютерный анализ исторических текстов вобрал в себя достижения нескольких научных подходов. Выяснилось, например, что при обработке и анализе текста для исследователей важное значение имеет показ частоты встречаемости различных классов лексики (concordances). Это позволяет точно определять значение конкретных слов и фраз в контексте. Совместная встречаемость частей речи впервые была использована на практике при изучении точного значения слов Бога и пророков в библейских текстах. Первое компьютеризированное исследование в данной гуманитарной области было проведено священником Бузой для составления частотного словаря работ Фомы Аквинского. В дальнейшем католические теологи, вставшие у истоков исторической количественной филологии, создали самостоятельную школу компьютеризированного анализа сакральной литературы с центром во французском католическом университете г. Лувен. В 1968 при нем был образован Центр электронной обработки документов CETEDOC20. Подчеркнем, что совместная встречаемость, исследованная впервые теологами, не является статистической мерой. Это реорганизация текстологической информации для выделения контекста использования определенных слов21. Компьютерный показ совместной встречаемости слов является по существу самым старым и наиболее распространенным способом применения компьютера в гуманитарной области. Начиная с 1950-х годов большинство современных и старых европейских языков были подвергнуты подобной обработке, что привело к включению анализа встречаемостей в состав расхожих методов текстологии и исчезновению представления о нем как о новом и экспериментальном22.

Одним из способов демонстрации совместной встречаемости может являться перечень слов с указанием на местонахождения, причем ключевые слова показываются справа или слева от контекста. В данном случае перечень не может расцениваться как достаточная для историка перестройка текста, при которой желательно демонстрировать семантическое окружение для каждой встречаемости. Без этого исследователь, использующий подготовленные результаты, не может избежать необходимости постоянного обращения к оригиналу для проверки использования слова23. С подобной формой изложения результатов на границе контекста связан формат демонстрации совместной встречаемости KWOC - "ключевое слово без контекста" (keyword-out-of-context), который разрабатывался для исследования прозаических текстов24.

Вместе с анализом прозы тесно развивалось изучение поэтического языка с акцентом на демонстрирование контекста слов в поэтической строке как основной единице произведения. Большинство исследований в создании компьютерных программ для показа совместной встречаемости классов лексики последовали данному принципу25. В результате специалисты пришли к альтернативному KWOC'у формату - "ключевое слово в контексте" KWIC (keyword-in-context). Вместо демонстрирования полного контекста предложения, часто занимавшего несколько строк, как это было возможно при принятии формата KWOC-формата, KWIC демонстрировал ключевые слова в центре экрана компьютера с контекстом, умещающимся на одной строке. В качестве примера использования KWIC'а может быть использована демонстрация контекста термина "парламент" в стенограммах Думы, приводимая ниже. При включении данных в исследования, организованные на основе KWIC'а или KWOC'а, специалистами часто подчеркивается отрицательное воздействие на результаты слабой критики источников, предварявшей расчеты. Это выражается в неясности методики исследования, ограниченности выводов, излишней детализации26.

В числе наиболее эффективных программ для исследования совместной встречаемости в формате KWIC довольно часто упоминается COCOA (COunt and COncordance Generation on Atlas), разработанная компьютерной лабораторией "Атлас" в Англии (Chilton Atlas Computer Laboratory). Программа написана для демонстрации совместной встречаемости слов и их подсчета британским ученым Расселом (D.B.Russell) в 1967. СОСОА состояла из частотного профиля и трех таблиц, содержащих список слов с указанием частоты их встречаемости в тексте, словаря и порядка "графической рифмовки". Она была в состоянии показывать и сортировать ключевые слова в контексте27. Заметим, что существует возможность показа не только слов, но и букв в контексте - KLIC (key-letter-in-context). Однако последние 30 лет автоматическое индексирование и исследование конфигураций слов в формате KWIC показывало, главным образом, частоту слов в тексте и списки ключевых слов в контексте28. Программы реорганизовывали линейный текст "вертикально" таким образом, что каждая форма каждого слова могла быть быстро найдена по правописанию или словарной форме. Выгоды нелинейного представления текста, использованные в когитологии, политологии и истории, были развиты текстологами. Принципы СОСОА в KWIK'е оказались использованы в ряде программ для IBM-совместимых компьютеров. Среди них часто упоминаются Oxford Сoncordance Programm (OCP; Hockey, Martin, 1988: переработана в Micro-OCP), WordCruncher (Jones, 1987), TACT (Bradley, Presutti 1990), KAYE (Kaye, 1989), CLAN (MacWhinney, Snow, 1990). Они позволили решать некоторые вопросы стилистического, лингвистического, лексического анализа во много раз быстрее по сравнению с предыдущими программами. В последние десять лет новое поколение программного обеспечения использует эффективную обработку текста, опирающуюся на "топографический" принцип реорганизации слов в тексте. Они представлены в форме нелинейных гистограмм на основе их позиции в линейном тексте. Программы WordCruncher и Tact позволили показать распределение определенных слов в форме графика, на котором видно наличие или отсутствие таких слов в частях текста29. Эти слова иногда называют "плюсовыми" или "минусовыми", когда они встречаются более или менее часто в одном месте, а не в другом.

* * *

Для иллюстрации этих возможностей обратимся к динамике появления конфессиональной категории "мусульманство" в стенографических отчетах первой Думы (законопроект "О гражданском равенстве"). Эта динамика отражена 10% интервалами, разбивающими весь текст дебатов на 10 равных частей.


Текст отчетов

Количество упоминаний о

График распределения ключевых понятий

0-10%

0




10-20%

0




20-30%

0




30-40%

4

>>>>

40-50%

0




50-60%

0




60-70%

0




70-80%

4

>>>>

80-90%

61

>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>

90-100%

19

>>>>>>>>>>>>>>>>>>>>

Всего:

88





"Топографический" принцип демонстрации распределения терминов говорит, что в первой трети текста и в промежутке 40-70% базы данных категория "Мусульманство" была "минусовой", то есть не встречена. В промежутках 30-40% и 70-100% категория стала "плюсовой", то есть в этих местах появились упоминания о мусульманах.

Одной из возможностей "топографического" анализа стало изучение ассоциаций слов и моделей словесных комбинаций. Они показывают в табличной форме, какие конфигурации встречены с определенным словом или словами внутри контекста. Данные пакеты обыкновенно имеют три этапа работы: 1. разбивку текста на слова и фиксирование их к определенной позиции в тексте; 2. сортировку слов в алфавитном порядке; 3. подсчет частоты встречаемости каждого слова и их совместной встречаемости. Большинство современных программ обработки текста, в том числе ТАСТ, выделяют заданное исследователем слово, показывают в скобках количество его нахождений в тексте (7), подсчитывают номер строки, на которой встречено слово (1409) и заданную границу контекста - |. Перестройка текста стенографических отчетов демонстрирует семантическое окружение ключевого термина думских дебатов "парламент".


парламентъ (7)


(1409) существующее всюду, где | есть >парламентъ, правомъ какого

(1448) это известнымъ афоризмомъ: | >парламентъ все можетъ сделать,

(3026) | Тутъ указывалось на то, что>парламентъ не можетъ

(3028) | не сказалъ бы, что поэтому >парламентъ не можетъ уравнять

(3029) въ правахъ. Совершенно также >парламентъ мо-| жетъ уравнять

(3320) речь справедливымъ афоризмомъ:>парламентъ не можетъ прев-|

(3322) требуетъ | невозможнаго. Но всякiй>парламентъ не только можетъ,


Статистические методы анализа текстовых структур представлены в сопряженном с демонстрацией совместной встречаемости методе анализа комбинации слов (collocate analysis). Его задачей является определение слов или совместной встречаемости слов, использованных в соединении с определенными исследователем ключевыми словами в изучаемом тексте. Для этого выбираются узловое слово или группа слов, которые объединены идеей или объектом, затем собираются все слова вокруг каждой встречаемости узловых слов. Собранный таким образом контекст образует минитекст. Затем производится анализ частоты встречаемости слов в минитексте. Он включает все комбинации узловых слов. После этого производится сравнение ожидаемой частоты встречаемости комбинации в минитексте с действительной частотой встречаемости, что является мерой притяжения комбинации узла. Например, сила связи и комбинация слов вокруг понятия "гражданин" в стенограммах Думы дает (в программе Tact) нижеприведенную картину (без демонстрации промежуточных расчетов):


Совместная встречаемость (Collocates)

Частота встречаемости (Collocate Freq)

Частота типа (Type Freq)

Сила связи (Z-score)

равенстве

17

35

13.563

обоего

5

5

11.013

передъ

10

26

9.048
еще рефераты
Еще работы по разное