Реферат: Теория и метод системной психологии
Теория и метод системной психологии
СИСТЕМНЫЕ ОСНОВАНИЯ ПСИХОЛОГИИ
Рыжов Б.Н., МГПУ, Москва
В статье излагаются основы методологического построения системной психологии, включая энтропийные характеристики состояния систем, принципы анализа деятельности как процесса системообразования. Представлены теоретические положения системной теории мотивации.
Ключевые слова: система, структура, связи, элементы, энтропия, законы психофизики и термодинамики, типы системодинамики, мотивация, виды и типы мотивации.
«Ближайшими методологическими задачами являются уточнение понятийного аппарата психологической науки в целом, анализ теоретических, экспериментальных и прикладных методов исследования, а также систематизация фактических данных».
^ Б.Ф. Ломов. Методологические и теоретические проблемы психологии. 1984г.
1. Общие основы дискретной системологии
^ Энтропийный анализ в психологии: история проблемы
Более полутора столетий назад, в середине XIX века, почти одновременно произошло рождение двух весьма далеких друг от друга и казавшихся сугубо специальными научных дисциплин, сыгравших, тем не менее, одинаково большую роль в становлении современных взглядов на природу человека и Вселенной.
Одной из этих дисциплин была психофизика – наука о соотношении физического стимула и вызываемого им ощущения, ставшая одним из главных источников новой экспериментальной психологии. Еще в 1834 г. профессор физиологии Лейпцигского университета Эрнст Вебер опубликовал работу, посвященную определению порогов кожной и тактильной чувствительности. В ней он утверждал, что добавочный раздражитель должен находиться в постоянном для каждой модальности отношении к исходному раздражителю, чтобы возникло едва заметное различие в ощущениях. Позднее к этой проблеме обратился коллега Вебера по университету физик Густав Фехнер, который предложил математическую интерпретацию установленной Вебером зависимости, назвав ее законом Вебера. В дальнейшем Фехнер получил логарифмическую зависимость величины ощущения от величины исходного раздражителя, дав этому закону свое имя.
Следует отметить, что существование логарифмической зависимости ощущений от вызывающих их изменений внешнего мира отмечалась многими исследователями задолго до Фехнера. Можно сослаться на «формулу счастья», выведенную в 1738 г. знаменитым швейцарским математиком и естествоиспытателем Даниилом Бернулли (1700—1782). Счастье Бернулли понимал как отношение прибыли к величине всего располагаемого человеком богатства. Однако ни «формула счастья» Бернулли, ни работы французского оптика Пьера Бугера (1698—1758), предложившего похожую зависимость при измерении яркости света, не произвели научной сенсации. В отличие от этого, публикация Фехнером в 1860 г. книги «Элементы психофизики», содержавшей подробное описание открытого им закона, произвело эффект разорвавшейся бомбы: восприятие человека можно не только измерять количественно, но оно подчиняется строгому математическому закону [11].
Середина XIX века – время быстрого научного прогресса, когда подобно психофизике в различных областях знания появляется многих новых направлений. Особое место среди них принадлежало термодинамике – разделу физики, изучающему соотношения теплоты и других форм энергии. Несмотря на то, что предмет этой науки, как может показаться на первый взгляд, имеет вполне частное значение, один из наиболее известных теоретиков современной науки Илья Пригожин утверждал, что основной закон термодинамики – так называемое второе начало, – гласящий, что в изолированных системах энтропия возрастает, стал одновременно основным принципом философского понимания развития мира [9].
Становление термодинамики связывают с деятельностью французского военного инженера Сади Карно (1796–1832). В своем единственном опубликованном произведении он сформулировал основные идеи, легшие в основу второго начала термодинамики. Эти идеи были развиты в начале второй половины XIX века Рудольфом Клаузиусом (1822–1888), впервые введшим понятие энтропии, как количественной меры неупорядоченности состояния системы и предложивший научное обоснование и математическое выражение второго начала термодинамики.
Следующий шаг сделал профессор Венского университета Людвиг Больцман (1844–1906), установивший логарифмическую зависимость между энтропией и вероятностью состояния системы. Знаменитая формула Больцмана показывает, что процессы, в которых энтропия уменьшается, не являются абсолютно невозможными, а второе начало термодинамики объясняется естественным переходом всякой изолированной системы от состояний маловероятных к состояниям все более вероятным. Мысль Больцмана позволяет считать Вселенную такой системой, в которой могут происходить редкие и необратимые во времени процессы самоорганизации структур. В этом случае будут возникать локальные зоны уменьшения энтропии – очаги возникновения жизни [16].
Но вот обстоятельство, возвращающее нас из мира исследования физических систем к системам психологическим. Легко заметить почти полную идентичность психофизического закона формулам для численных измерений энтропии. Как видно из Табл. 1, они не только имеют одно и то же математическое выражение и появляются почти в одно и то же время, но даже имеют одни и те же буквенные обозначения, что само по себе, конечно, курьез.
Т а б л. 1
^ Сравнительно-историческая характеристика создания основных законов в психофизике и термодинамике
ПСИХОФИЗИКА
ТЕРМОДИНАМИКА
автор, год и место опубликования
закона
вид
закона
автор
закона, год и место опубликования
вид
закона
Э.Вебер,
1834г.
Лейпциг;
Г. Фехнер,
1851г.
Лейпциг
dS – изменение
ощущения;
с – постоянная
модальности;
dR – изменение
раздражения, впервые вызывающее новое ощущение;
R – величина
раздражения
Р.Клаузиус, 1860г.
Цюрих
dS – изменение энтропии
системы;
dQ – изменение теплоты
системы
T – абсолютная температура
системы
Г. Фехнер,
1860г.
Лейпциг
^ S – величина
ощущения;
С – постоянная
интегрирования
Л.Больцман 1876г.
Вена
^ S – энтропия системы
W – вероятность
состояния системы
k – постоянная
Больцмана
Важно увидеть за этим совпадением одно из первых доказательств единства законов природы, проявляющих себя на самых разных уровнях ее организации. В психологии это совпадение, в частности, говорит о том, что наше восприятие соотнесено не с величиной действующего раздражителя, а мерой его упорядоченности в ряду других раздражителей.
Тем не менее, факт одновременного рождения основных законов психофизики и термодинамики и почти полного совпадения их математических выражений остался, по сути, не оцененным ни физиками, ни психологами. Только спустя почти столетие, в середине XX века, знаменитый австрийский философ и биолог Людвиг фон Берталанфи выдвинул первую в современной науке обобщенную системную концепцию, задачами которой стали разработка математического аппарата описания разных типов систем, установление изоморфизма законов в различных областях знания и поиск средств интеграции науки.
Приблизительно в это же время понятие «энтропия» впервые становится употребительным в психологии. Однако это было мало связано с быстро набиравшим силу общесистемным движением. Причиной временного интереса части психологов к энтропийным оценкам стала недавно созданная американским инженером Клодом Шенноном (1916–2001) теория информации, на основе которой разрабатывались первые в мире автоматические системы управления военной и гражданской техникой.
Используя предложенную Шенноном интерпретацию энтропии, как меры неопределенности сообщения и понятие информации, как количества снятой неопределенности благодаря сделанному сообщению, английские исследователи У. Хик и Р. Хаймен в начале 1950-х г. установили прямо пропорциональную зависимость между количеством информации, содержащейся в стимуле, и временем реакции на этот стимул. Хотя выведенный ими закон имел ограниченное применение, он все же стал отправной точкой для множества эргономических работ, позволивших коренным образом улучшить качество проектирования новой техники в авиации и других наукоемких областях промышленности [11].
Вскоре Дональд Бродбент (1926–1983) на основе информационного подхода предложил кибернетическую модель процессов восприятия. Его работа определила две ведущие ли
нии информационного подхода в психологии: изучение информационных структур в когнитивных процессах и, построенное на этой основе, кибернетическое моделирование.
Однако обнадеживающее представление о том, что экспериментальная психология нашла свой теоретический фундамент и быстро превращается в точную науку, оказалось кратковременным. Причиной тому было очевидное несоответствие заимствованных моделей психологической реальности в тех случаях, когда информационная среда отличалась от набора несвязанных между собой простых стимулов.
Более того, встает закономерный вопрос – почему Больцман, работая с теми же физическими системами, что и его предшественник Клаузиус, но, подходя к этим системам с несколько иных (вероятностных) позиций, был вынужден предложить собственную формулу энтропии. Шеннон, также работая с физическими системами, но уже в области передачи сигналов по каналам связи, использовал собственную, вполне оригинальную формулу. Психология же, заимствуя формулу Шеннона, пыталась применить ее для решения собственных задач, в совершенно иной системной среде.
Сегодня, по-видимому, трудно не согласиться с Б. Ф. Ломовым, утверждавшим в своей последней книге «Методологические и теоретические проблемы психологии» что, перспективы психологии как фундаментальной науки зависят от дальнейшего развития системного подхода и сближения разных типов познавательного инструментария, приводящих к взаимопревращению методов одного рода в методы другого и их взаимному обогащению [6]. Но можно предположить, что эволюция системных взглядов в психологии подразумевает не простое использование последней по дате создания формулы энтропии, разработанной в физике или математике, а формирование собственной, психологической метрики системных описаний и переосмысление с ее учетом многих привычных психологических стереотипов. Одному из возможных путей в этом направлении посвящена эта работа.
^ 1.2. Понятие и основные характеристики систем (тезаурус)
Незавершенность теории неизбежно проявляет себя в несовершенстве ее понятийного аппарата и аксиоматики. Напротив, когда по-
нятийный фундамент становится отлаженным и непротиворечивым, начинает работать и построенная на нем теория. С этих позиций современная системная теория еще весьма далека от своего завершения. Многие ее основополагающие понятия так и не получили четкого определения и остаются рыхлыми и размытыми. Другие понятия, наоборот, имеют весьма консервативную трактовку, что нередко оказывается серьезным тормозом для движения вперед. Примером первого может быть само понятие «система», несмотря на свое ключевое значение, так и не получившее до сих пор четкого определения в системологической литературе. Примером второго – понятие энтропии, имеющей, как уже было отмечено, ряд формальных физических определений, но не исчерпывающих, тем не менее, всей полноты этого понятия за пределами собственно физических дисциплин. Системологический анализ психических явлений, подразумевает, прежде всего, необходимость уточнения наиболее важные определения и характеристики системологических понятий в том ракурсе, который они приобретают как психологические объекты.
Основным понятием системологии является система. Среди множества ее определений можно выделить несколько самых распространенных. Для Л. фон Берталанфи система – это комплекс взаимодействующих элементов [2,3]. По мнению Р. Акоффа – это множество взаимосвязанных элементов [1]. А. И. Уемов дает определение системы как множества объектов, на которых реализуется заранее определенное отношение с фиксированными свойствами [13]. Легко заметить, что во всех этих определениях упущен или недостаточно выражен главный системообразующий признак, на который указывал еще Аристотель – целое больше суммы составляющих его частей. С его учетом определение системы должно звучать следующим образом:
СИСТЕМА – это множество связанных между собой объектов, обладающих в своей совокупности особой функцией по отношению к какому-либо постороннему объекту.
Таким образом, система представляет собой всегда относительное понятие, имеющее смысл по отношению к внешнему объекту. В то же время, по отношению к какому-либо другому внешнему объекту совокупность объектов, ранее определенная как система, может не иметь системообразующего признака и, следовательно, не являться системой. Или же напротив, эта совокупность, имеющая общую связь с другими объектами может соответствовать элементу системы более высокого уровня организации.
Например, группа спортсменов по отношению к их тренеру – команда и, конечно, система, определяющая его особое поведение в их присутствии. Те же люди на улице по отношению к случайному встречному – просто прохожие, никак не влияющие на его поведение. Для него они не являются системой.
Упомянув категорию системной связи, необходимо заметить, что, в системологической литературе, эта категория относится к наиболее развитой области системных описаний. Особенно обстоятельно представлено в литературе направление, касающееся качественной и структурной организации связей, определяющих типологию образуемых ими систем. Однако для количественного описании систем не менее важно то, что понятие связи должно рассматриваться как категория вероятностная, и в этом смысле вероятность функциональной связи между двумя ее элементами определяет жесткость этой связи. Если вероятность связи равна единице, связь является абсолютно жесткой.
Необходимо выяснить и еще один момент категориального характера – форму существования систем. В дальнейшем мы будем исходить из того, что система может существовать и как особый материальный объект, и как отражение этого объекта в виде композиции других материальных объектов, воспроизводящей основные связи исходной системы. Это замечание позволяет дать определение еще одному важному понятию – информации. Отражение системы в связях другой системы есть информация о ней.
Анализ формальных характеристик систем начинается с описания статических характеристик, не учитывающих изменений состояния системы во времени. Любая система может иметь ряд статических характеристик, в том числе первичных характеристик, под которыми следует понимать ее объем, или количество составляющих элементов ( n ), и сложность системы ( С ), соответствующая сумме всех имеющихся связей между ее элементами.
При этом для каждой системы могут быть определены предельные уровни сложности – максимальный и минимальный. Максимального уровня сложности система достигает в том случае, когда каждый ее элемент связан с каждым из остальных (Сmax). Минимальный уровень сложности (Сmin) имеет место тогда, когда разрушение любой из имеющихся в системе связей между ее элементами означает разделение системы на независимые фрагменты. Если устранение какой-либо связи приводит к разрушению системы и отделению от нее одного или нескольких элементов, такая связь считается основной. Все остальные связи считаются дополнительными.
На основе первичных характеристик системы могут быть выделены ее вторичные характеристики, определяющие меру порядка в системе. Очевидно, что максимальной упорядоченности, т. е. полного взаимного соответствия всех элементов система достигает при максимальном уровне сложности – Сmax. Напротив, при минимальном уровне сложности (Сmin) система обладает минимальной упорядоченностью и наибольшим числом степеней свободы.
Учитывая это, унифицированную количественную меру неупорядоченности системы энтропию можно представить как разность максимально возможной и реальной сложности системы, отнесенная ко всему диапазону уровней сложности этой системы, т.е. разности величин Сmax и Сmin(от максимальной сложности до предельного упрощения). Обозначив энтропию символом S , получим формулу энтропии:
(1.2.1) (1)
где, S – энтропия системы; Сmax –максимальный уровень сложности системы; Сmin – минимально возможный уровень сложности системы..
Из формулы 1.2.1 видно, что энтропия системы может изменяться от нуля, в случае максимального усложнения системы (С = Сmax), до единицы при ее предельного упрощения (С = Сmin).
Следует отметить, что в случае предельного упрощения системы вероятность связей между элементами системы стремится к нулю, и абсолютная минимальная сложность системы также стремится к нулю. При этом, разумеется, сложность системы никогда не может достичь нуля, иначе само выделение системы утрачивает смысл.
Естественнонаучное понимание энтропии сложилось во второй половине XIX – середине XX в. и несло на себе характерное для физики того периода стремление к статистической метрике мира бесконечного числа взаимодействующих между собой частиц. Однако взгляд на мир физика во многом не совпадает с взглядом биолога или психолога, для которых более привычна качественная оценка рассматриваемых явлений. Противоречие здесь заключается в том, что физика, как правило, имеет дело с гомогенной средой, а психология и биология всегда работают со сложными гетерогенными системами, не допускающими простых статистических описаний, удобных для газов или кодов сообщений, передаваемых по каналам связи. Это противоречие лежит в основе уже упоминавшихся затруднений при переносе физических метрик энтропии в область психологии. Для его устранения психология должна опираться на собственную метрику состояний сложных систем. При этом она должна иметь в виду либо анализ наиболее общих и часто встречающихся, так называемых, характеристических, состояний систем, либо их содержательный, предметный анализ.
Вместе с тем, в задачах сравнительного анализа состояния систем с неизменным (или близким к неизменному) числом элементов, важную роль начинают играть разностные меры, типа:
(1.2.2)
которые после раскрытия входящих в них членов приобретают вид:
(1.2.3)
где S1 ,S2 и С1 ,С2 - соответственно, энтропия и сложность системы в двух ее сравниваемых состояниях.
Можно заметить, что выражение для изменения энтропии может быть сведено к формуле Клаузиуса, представляющей изменение некоторой системной характеристики тела (в данном случае, количества подведенного к нему тепла), отнесенное к абсолютной величине этой характеристики (температуры).
Аналогично можно дать интерпретацию психофизичекому закону Вебера–Фехнера о соотношении интенсивности ощущения и вызывающего его раздражения. Применительно к нему С1и С2 являются сравниваемыми интенсивностями раздражителя, которые дают минимальное ощущение их различия – S. Сmax, в данном случае соответствует максимальной из действующих интенсивностей. Системологическая интерпретация психофизического закона, таким образом, заключается в
том, что мы реагируем на организованность, упорядоченность действующего стимула – обстоятельство, на которое указывали еще гештальтпсихологи, выдвинувшие понятие закона прегнантности, или «закона хорошей формы».
^ 1.3 Структура и свойства связей
в системе
Для характеристики системных связей необходимо уточнить различие между прямыми и обратными, а также непосредственными и опосредованными связями. Прямой или обратный вид связи задается только направлением действия данной связи (Рис. 1). Однако организация этих связей может быть различна. В одном случае эти связи образуются без помощи промежуточных элементов, получая название непосредственных. В другом случае (Рис. 1) взаимодействие между двумя элементами системы осуществляется благодаря опосредованным связям, состоящим из цепочки промежуточных элементов и связей между ними.
С
деланные уточнения могут иметь значение при определении некоторых характеристик систем. Например, если для упрощения расчетов мы рассмотрим систему, в которой действуют только непосредственные жесткие связи, то минимальная сложность такой системы (Сminж ) будет на единицу меньшее общего количества элементов системы:
(1.3.1)
Максимальной сложности Сmax такая система достигает в случае связанности каждого элемента с каждым. Выражением Сmax ж при этом является:
(1.3.2)
Подставив в формулу энтропии (1.2.1) значения для Сmax ж и Сmin ж получим для рассматриваемого упрощенного случая формулу энтропии, зависящую только от реального числа элементов и сложности системы:
(1.3.3)
При этом можно заметить, что при больших объемах системы, энтропия системы изменяется пропорционально квадрату числа ее элементов и обратно пропорционально удвоенной величине ее сложности.
Представление энтропии в виде нелинейной зависимости сложности и объема системы (1.3.3) отражает важную закономерность системной организации и имеет ряд принципиальных последствий с точки зрения теоретического анализа форм и типов существования систем. Но, разумеется, системный анализ, учитывающий только действующие в системе жесткие непосредственные связи, может иметь ограниченное применение. Вероятностный характер связей требует рассмотрения всех наличных отношений между элементами системы. При этом в отличие от упрощенной модели все элементы системы оказываются связанными друг с другом.
Учитывая это, очевидно, что ввиду имеющихся опосредованных связей общая или суммарная вероятность связи Р будет больше чем вероятность, обеспеченная только непосредственными связями. Например, если вероятность каждой из непосредственных связей (Рис. 1) будет равна 0,5 то при определении суммарной вероятности связи элемента 1 с элементом 3 (Р(1-3)) необходимо наряду с вероятностью непосредственной связи Р1-3 = 0,5 учесть вероятности двух опосредованных связей Р1-2-3 и Р1-4-3 . Поскольку суммарная вероятность Р(1-3) представляет собой в этом случае вероятность появления хотя бы одного из трех совместных событий, согласно требованиям теории вероятностей, она может быть найдена как разность между единицей и вероятностью произведения соответствующих противоположных событий. В рассматриваемом случае она будет равна 0,7.
Таким образом, система, состоящая из n элементов, будет иметь n2 прямых и обратных связей между этими элементами, включая связь каждого элемента с самим собой. Суммарные вероятности всех имеющихся в данной системе связей могут быть записаны в виде квадратной матрицы, сумма столбцов которой представляет обобщенное выражение сложности имеющихся в системе связей.
Приведенные уточнения для оценки характеристик системы могут иметь ряд практически важных следствий. В качестве примера можно назвать возможность объективно оценить сложность того или иного тестового задания или сравнить между собой сложность двух заданий (матриц Равена, заданий из тестов Векслера и т.п.). Не менее интересным представляется использование процедуры оценки энтропии системы в социометрических задачах, связанных с оценкой социально-психологического климата в малой группе, определением эффективности групповой организации, роли лидера группы и др.
Вместе с тем, учитывая вероятностный характер связей, важное значение принадлежит структурной организации системы, и уровню опосредованности ее связей. Чем более сложно опосредованной будет связь между какими-либо двумя элементами, т. е., чем большее число промежуточных элементов и непосредственных связей будет стоять между ними, тем менее вероятной в итоге окажется эта связь и, в конечном итоге, тем большей будет энтропия системы. Поэтому важным оказывается не только общее число связей в системе, но и место их расположения, тот особый вклад, который конкретная связь привносит в упорядоченность всей системы.
Этот вклад, привнесенный в систему конкретной дополнительной связью, определяет меру существенности этой связи. Существенность каждой связи, таким образом, будет тем больше, чем больше изменяется энтропия системы в результате установления этой связи. Меру существенности или качества любой связи (К) можно представить как разницу энтропии системы до и после установления этой связи:
К = S1 - S2 (1.3.4)
где S1 – исходная энтропия системы, а S2 – конечная энтропия системы.
Примером различного качества устанавливаемых в системе связей может быть анализ следующего случая. Предположим, что существует система, состоящая из четырех элементов, соединенных в линейную структуру посредством четырех непосредственных равновероятных связей Р и имеется возможность внесения в эту систему дополнительной связи той же вероятности, которая может быть установлена между любыми двумя ее элементами (Рис.2). Каков будет системный эффект от установки этой дополнительной связи в различных звеньях системы?
Т а б л.2
^ Матрица вероятностей связей 4-х элементной системы
(исходное состояние)
элемент
1
элемент
2
элемент
3
элемент
4
элемент
1
1
Р
Р2
Р3
элемент
2
Р
1
Р
Р2
элемент
3
Р2
Р
1
Р
элемент
4
Р3
Р2
Р
1
Прежде всего необходимо определить Сmin и Сmaxсистемы для заданного уровня вероятности имеющихся связей Р. В исходном состоянии, система оказывается упрощенной до предела, ее энтропия максимальна. Для того, чтобы вычислить сложность системы в этом состоянии требуется построить матрицу ее исходных связей (табл. 2).
Согласно принятому определению сложность имеющихся в системе связей в исходном состоянии – С 4 исходн.находится как сумма столбцов этой матрицы. В рассматриваемом примере исходная сложность системы из 4-х элементов будет одновременно являться минимальной сложностью системы, Сmin. Общая формула для вычисления Сmin в системе с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р будет представлять функциональный ряд:
Сn min = n + 2(n - 1)P + 2(n - 2)Р2 + … + 2Р n-1
(1.3.5)
Т а б л.3
^ Матрица вероятностей связей 4-х элементной системы
(максимально упорядоченное состояние)
элемент
1
элемент
2
элемент
3
элемент
4
элемент
1
1
Р4
Р4
Р4
элемент
2
Р4
1
Р4
Р4
элемент
3
Р4
Р4
1
Р4
элемент
4
Р4
Р4
Р4
1
Таким образом, сложность имеющихся в системе связей в исходном состоянии,
^ С4 исходн.равна:
С 4 исходн. = С 4 min = 4 + 6Р + 4Р2 + 2Р3
(1.3.6)
Аналогично, максимальная сложность рассматриваемой системы находится как сумма столбцов матрицы ее связей при достижении системой максимальной упорядоченности (Табл. 3), где Р4 – суммарная вероятность прямой связи между любыми двумя элементами в 4-х элементной системе.
Общая формула для максимальной сложности системы с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р находится как:
Сnmax = n + n(n - 1)Рn(1.3.7)
При этом, Рn– суммарная вероятность прямой связи между любыми двумя элементами системы с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р определяется по формуле:
Рn = 1 – (1 – Р)( 1 – Р Рn-1 )n – 2 (1.3.8)
В рассматриваемом случае, максимальная сложность системы с 4-мя элементами будет равна:
Сnmax = 4 + 12(1 – (1 – Р)( 1 – Р (1 – (1 – Р)×
×( 1 – Р2)))2) (1.3.9)
Допустим далее, что мы воспользовались возможностью внесения в систему дополнительной связи, установив ее между элементами 1 и 3 (Рис. 2, новая связь выделена пунктиром). При этом вероятность этой связи Р осталась такой же, как вероятность остальных имеющихся в системе связей. Назовем такое состояние первым новым состоянием системы. Предположим далее, что в качестве альтернативы этому состоянию, дополнительная связь была установлена между элементами 1 и 4 (Рис. 2, новая связь здесь также выделена пунктиром). Таким образом, структура связей системы оказалась замкнутой в кольцо. Это будет второе новое состояние системы.
Разница энтропийных характеристик системы в двух ее новых состояниях при различных уровнях вероятности непосредственных связей между элементами системы (Рис.3).
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,99
Дополнение системы
существенной связью 1-4 (кольцо)
Дополнение системы
несущественной связью 1-3
Р
S
Рис. 3. Зависимость энтропии 4-х элементной системы (тетраэдр)
от вероятности системных связей
Очевидно, что добавление новой связи, всегда повышает уровень порядка в системе. Но при высоких уровнях вероятности имеющихся в системе непосредственных связей, существенность новой связи, замыкающей ее кольцевую структуру, оказывается значительно больше, чем у альтернативной связи. Так, при вероятности непосредственной связи Р=0,9, замыкание системы в кольцо, дает в 2,3 раза большее снижение энтропии, чем при установке дополнительной связи между элементами 1–3, а при Р=0,99 кольцевая связь оказывается уже в 20 раз существеннее альтернативной.
Еще более контрастно выглядит эта зависимость при увеличении числа элементов системы. В этом легко убедиться, увеличив в рассмотренном примере число элементов до пяти, а число связей в исходном состоянии, соответственно – до четырех (Рис.4).
Здесь можно заметить не только нарастающее преимущество кольцевой связи (дополнительная связь между элементами 1–5) в области высоких вероятностей непосредственных связей, но также и уменьшение порядка в системе при увеличении вероятности непосредственных связей в области их малых значений (в данном примере, в диапазоне Р = 0 – 0,2). Причем нарастание энтропии при малых вероятностях связей происходит независимо от места установки новой связи.
Этот факт можно интерпретировать таким образом, что система должна «созреть» для того, чтобы в ней проявился эффект существенной связи. В мало организованной и слабосвязанной системе важно только число системных связей, а не их структура. При этом для системы может быть определен критический диапазон вероятности непосредственных связей, при котором добавление новой связи дает наименьшее увеличение порядка (в рассмотренных примерах такой диапазон будет составлять Р = 0,14 - 0,21 для 4-х элементной системы и Р = 0,18 - 0,24 для 5-и элементной системы).
Дополнение системы
существенной связью 1-5 (кольцо)
Дополнение системы
несущественной связью 1-3
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,99
Р
S
Рис. 4. Зависимость энтропии 5-и элементной системы (пентаэдр)
от вероятности системных связей
Вместе с тем, для психологии общая способность к установлению существенных связей в регулируемых системах предстает как один из важнейший показателей и наиболее заметная характеристика человеческого ума. При этом, немаловажным является обстоятельство, насколько велика исходная система, в которой устанавливается новая связь. Значимость или ценность одинакового изменения энтропии будет тем выше, чем больше по объему исходная система.
Например, ценность одного и того же меткого замечания высказанного однажды в дружеской среде частным лицом, а в другой раз высказанного уже публично государственным деятелем в ситуации политического кризиса, может быть совершенно различна. Для подтверждения этого факта стоит напомнить известную метафору, использованную британским экс премьер-министром Уинстоном Черчиллем в знаменитой фултоновской речи вскоре после завершения второй мировой войны.
В то время мир оказался разделен на два блока. Во главе одного из них стоял Советский Союз, а второго – Соединенные Штаты Америки. Вчерашние союзники в общей борьбе против нацизма встали перед лицом забытых на время войны идеологических противоречий, усиленных обоюдными претензиями на мировое господство. В то же время в сознании народов не было четкого представления о новой ситуации, которая сложилась в мире после победы над общим врагом. И русские и американцы, хотя и принадлежали к разным политическим системам, все же видели друг в друге братьев по оружию.
Это благодушие, считал Черчилль, может дорого обойтись западным странам. Необходимо создать понятный каждому и устрашающий образ врага, не прибегая вместе с тем к большому объему новой информации - ведь обыденное сознание хорошо воспринимает только знакомые факты. Черчилль превосходно справился с поставленной задачей. Он нарисовал в сознании своих слушателей хорошо знакомый им образ железного занавеса, которым с наступлением ночи закрывают витрины магазинов. Но в его речи занавес опустился между двумя мирами. Привычный и вполне мирный образ неожиданно приобрел зловещий символ ночи опустившейся над половиной Европы. А в слове «железный» обывателю уже слышался металлический лязг гусениц надвигающихся на беззащитный Запад советских танковых армий.
Простой, но, без сомнения, эффектный образ приобрел для западного мира роль существенной связи между двумя частями мировой системы. Выражение это было растиражировано другими политиками и журналистами и вскоре стало пугающим синонимом социалистического лагеря. На многие десятилетия борьба с «железным занавесом» стала знаменем в руках противников советского блока.
^ Динамические характеристики
систем
Морфологическое описание систем, особенно систем психологических, всегда сопряжено с рядом условностей, поскольку все реально существующие системы с момента своего возникновения находятся в состоянии постоянного изменения, непрерывно утрачивая одни свойства и приобретая другие. Описание деятельности системы, видов и уровней ее функционирования, составляет предмет функционального описания, важнейшей частью которого является анализ динамических характеристик системы.
Следуя избранной логике, можно получить основные первичные динамические характеристики, перейдя от первичных статических характеристик системы - ее объема n и сложности C, к скорости изменения этих параметров. Таким образом, получим скорость изменения числа элементов системы – Vn и скорость изменения сложности системы - Vc . Аналогично может быть получена вторичная динамическая характеристика системы: скорость изменения энтропии – Vs .
Динамика энтропийных показателей представляет особый интерес. Еще в 1864 г. Р. Клаузиус обнаружил важнейшую закономерность доступной для нашего наблюдения части Вселенной – ее основной закон, или второе начало термодинамики. Второе начало термодинамики вызвало продолжительную полемику, связанную с адекватностью ее применения к таким объектам космической природы, как Солнечная система, Галактика и т.д. У истоков этой полемики стоял сам Клаузиус, выдвинувший гипотезу о неизбежной тепловой смерти Вселенной вследствие неизменного увеличения ее энтропии. Главный аргумент его противников состоял в том, что Вселенную в принципе нельзя рассматривать как изолированную систему, и, следовательно, второе начало к ней неприменимо.
Один из наиболее интересных аспектов возникшей дискуссии был связан с поведением живых систем, энтропия которых, как казалось, повсеместн
еще рефераты
Еще работы по разное
Реферат по разное
Харламов анатолий Васильевич научно-практическое обоснование новых подходов к повышению эффективности использования корма и производства говядины в мясном и молочном скотоводстве
18 Сентября 2013
Реферат по разное
А. А. Поярков Главный инженер
18 Сентября 2013
Реферат по разное
С. В. Пьянов Главный инженер проекта
18 Сентября 2013
Реферат по разное
Вестник белорусской государственной сельскохозяйственной академии №2 2010 животноводство и ветеринарная медицина
18 Сентября 2013