И геометрическое моделирование

К данному типу относится модели­рование психологических структур и про­цессов. Например, восприятие можно моделировать с помощью субъективных пространств; при разработке теории лич­ности используются модели классифика­ции и реконструируются семантические пространства и т. д. Эти модели строятся на основе применения методов многомер­ного шкалирования и кластерного анализа. Входными данными в эти методы являются матрицы близостей.

Для подсчета матрицы расстояния необ­ходимо выбрать метрику или метод вычис­ления расстояния между объектами в много­мерном пространстве. Наиболее часто используются следующие метрики;

Евклида:

d. = SQR[(x. - xj2];

ц ^ ' * ik jk' ' '

сити-блок (Манхэттен):

de = SUM <ABS (xlk - XjkVn}; Минковского:

метрика на основе корреляции Пирсо­на:

dy=l-r,/2;

метрика на основе корреляции Спир-мена:

с!и = 1 - гещ/2;

i j — номера столбцов;

k — номер строки;

cL — элемент матрицы расстояний;

xik' хг~ элементы исходной матрицы;

п — количество объектов.

Коэффициент корреляции Пирсона под­считывается для данных, измеренных в по­рядковых шкалах и шкалах наименований:

r.= (SUM{(x.k-x.i)(x.k-x.J})/ (SQR {SUM (xjk-x..)3 SUM (xjfc- x..)3}).

Коэффициент ранговой корреляции rs Спирмена является непараметрическим аналогом классического выборочного ко­эффициента корреляции (неранговые выборки автоматически ранжируются):

гещ =1-6 (SUM {(Xik- xjk}2)/n(n2 - 1).


Исходный этап для применения МШ (многомерное шкалирование) и КА (клас­терный анализ) — это вычисление расстоя­ний между строками или столбцами.

Наиболее распространенной считается обычная евклидова метрика. Ее обобще­ние — метрика Минковского, частным случаем которой является манхэггеновская метрика, или метрика сити-блок. Норма­лизованные евклидовы расстояния в боль­шей степени подходят для переменных, измеренных в различных единицах или значительно отличающихся по величине. Манхэттеновская метрика, как правило, применяется для номинальных или качест­венных переменных.

Расстояния, вычисляемые на основе коэффициента корреляции отражают со­гласованность колебаний оценок в отли­чие от метрики Евклида, которая опреде­ляет в среднем сходные показатели.

Кластерный анализ (КА)

КА позволяет строить систему класси­фикации исследованных объектов и пере­менных в виде «дерева» (дендрограммы) или же осуществлять разбиение объектов на заданное число удаленных друг от друга классов.

Методы КА можно расклассифициро­вать на:

внутренние (признаки классификации равнозначны);

внешние (существует один главный при­знак, который определяют по остальным).

Внутренние методы можно разделить на:

иерархические (процедура классифика­ции имеет древовидную структуру);

неиерархические.

Иерархические подразделяются на:

агяомеративные (объединяющие);

дивизивные (разъединяющие).

В психологии наиболее распространен иерархический дивизивный метод. Он позволяет строить «дерево» классифи­кации п объектов посредством их иерар­хического объединения в группы или кла­стеры на основе заданного критерия — минимума расстояния в пространстве m переменных, описывающих объекты. Кроме того, с его помощью осуществляется раз-



7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ


 


биение некоторого множества объектов на естественное число кластеров.

Графическое представление результатов дается в виде «дерева» иерархической клас­теризации. По оси X — объекты, подле­жащие классификации (на одинаковом расстоянии друг от друга). По оси Y — рас­стояния, на которых происходит объеди­нение объектов в кластеры. Для опреде­ления естественного числа кластеров вво­дится оценка разбиения на классы, которую вычисляют по величине отношения сред­них внутрикластерных расстояний к меж­кластерным (А. Дрынков, Т. Савченко, 1980). Глобальный минимум оценки харак­теризует естественное число классов, а ло­кальные — под- и надструктуры. Методы иерархического КА различаются по стра­тегии объединения, т. е. пересчета расстоя­ний. Выделяются стратегии ближайшего соседа. При объединении i-ro и j-ro клас­сов в класс k расстояние между новым классом k и любым другим классом h пе­ресчитывается следующим образом: dhk=l/2dhi+l/2dhj-l/2|dhi-dhj|.

Расстояния между другими классами сохраняются неизменными. Стратегия дальнего соседа:

dhk=l/2dbl+l/2diy+l/2|dlll-cg. Группового среднего:

dhk = (ni/nk) dh. + (nj/nk) dhj,

где ni, nj, nk — число объектов в классах i, j, k.

Первые две стратегии, за исключением последней, изменяют пространство (сужают и растягивают). Поэтому если не удается получить достаточно хорошего разбиения на классы с помощью третьей стратегии (а их необходимо выделить), то использу­ются первые две. При этом первая страте­гия объединяет классы по близким грани­цам, а вторая — по дальним.

В социальной психологии при иссле­довании взаимоотношений в коллективах помимо разбиения на классы необходимо установить также объекты, через которые классы связаны друг с другом. На эти во­просы можно ответить с помощью денд­ритного КА, который часто применяется совместно с иерархическим [Плюта, 1981]. Главная роль в нем принадлежит дендриту —


ломаной линии, которая не содержит замк­нутых ломаных и в то же время соединяет любые два элемента. Предлагается пост­роение дендрита, у которого сумма длин связей минимальна. Сначала к каждому объекту находится ближайший, при этом образуются скопления первого порядка, которые затем также объединяются по величине минимального расстояния до тех пор, пока не будет построен дендрит. Группы объектов считаются вполне отделимыми, если длина дуги между ними dllc > Cp, где СР = сср + S; СсР — средняя длина дуги; S — стандартное отклонение.

Дендриты могут иметь форму розетки, амебообразного следа, цепочки. При сов­местном использовании иерархического КА и дендрита распределение элементов по классам осуществляется по первому методу, а взаимосвязи между ними анали­зируются с помощью дендрита.

Многомерное шкалирование (МШ)

Одним из количественных методов изу­чения психических явлений и процессов, адекватно отражающих их системный ха­рактер, признан метод МШ. С его помо­щью анализируются попарные различия Dy между элементами i и j, в результате чего строится геометрический образ сис­темы. Элементы системы изображаются точками моделирующего пространства, а связям между элементами соответствуют расстояниям dij между i и j. Метод МШ разрабатывался в работах У. Торгерсона, Р. Шепарда, К. Кумбса, Д. Краскала, Ф. Ян-га, В. Крылова и др.

Модели МШ мбжно расклассифициро­вать по двум основаниям.

По типу данных, полученных в экспе­рименте:

• прямое субъективное шкалирование (задана одна матрица близостей Dy);

• модель предпочтений (задана матрица близостей Dy и матрица предпочтений);

• модель индивидуального шкалирова­ния (задано несколько матриц близостей). По процедуре реализации метода:

• метрическое шкалирование (расстоя­ния в реконструированном пространстве



7.2. Математическая психология


 


, полу- Стохастические модели

y пропорциональны различиям ченным в эксперименте);

• неметрическое шкалирование (дан­ные djj монотонно связаны с расстояния­ми dy в пространстве Минковского).

Метод Шепарда—Краскала позволяет вычислять показатель стресса, т. е. невязку между исходными и вычисленными раз­личиями между объектами:

S = SQR(SUM{(d..-D..)2}/SUM{D..}2),

где d.. — расстояния между объектами, вы­численные в процедуре МШ; Dy — исход­ные различия;

• шкалирование в псевдоевклидовом пространстве (не выполняется аксиома неравенства треугольника). В данном случае величина расстояния между объектами определяется по формуле

dy = (SUM Ь (xu - х/)1/2,

где £, принимает значение 1 для евкли-дового пространства и —1 — для псевдо-евклидового. Функция стресса для этих пространств вычисляется и выбирается наи­меньшая;

• нечеткое шкалирование (данные опи­саны «нечеткими» психолингвистичес­кими шкалами).

Совместное использование МШ и КА позволяет провести анализ данных, более адекватный, чем дает применение каждого метода в отдельности. При больших вы­борках необходимо сначала провести КА, а затем с помощью МШ реконструировать пространство всех классов и каждого клас­са в отдельности (при необходимости). На основании обобщенного опыта было об­наружено, что при КА маленькие классы адекватны данным, часто являясь осмыс­ленными группами, а большие — нет. И наоборот, при МШ небольшие изме­нения в данных могут стать причиной существенных изменений в локальном взаимном расположении точек. В то же время общее расположение точек внутри конфигурации является содержательным (см. работы Граева, Суппеса).