И геометрическое моделирование
К данному типу относится моделирование психологических структур и процессов. Например, восприятие можно моделировать с помощью субъективных пространств; при разработке теории личности используются модели классификации и реконструируются семантические пространства и т. д. Эти модели строятся на основе применения методов многомерного шкалирования и кластерного анализа. Входными данными в эти методы являются матрицы близостей.
Для подсчета матрицы расстояния необходимо выбрать метрику или метод вычисления расстояния между объектами в многомерном пространстве. Наиболее часто используются следующие метрики;
Евклида:
d. = SQR[(x. - xj2];
ц ^ ' * ik jk' ' '
сити-блок (Манхэттен):
de = SUM <ABS (xlk - XjkVn}; Минковского:
метрика на основе корреляции Пирсона:
dy=l-r,/2;
метрика на основе корреляции Спир-мена:
с!и = 1 - гещ/2;
i j — номера столбцов;
k — номер строки;
cL — элемент матрицы расстояний;
xik' хг~ элементы исходной матрицы;
п — количество объектов.
Коэффициент корреляции Пирсона подсчитывается для данных, измеренных в порядковых шкалах и шкалах наименований:
r.= (SUM{(x.k-x.i)(x.k-x.J})/ (SQR {SUM (xjk-x..)3 SUM (xjfc- x..)3}).
Коэффициент ранговой корреляции rs Спирмена является непараметрическим аналогом классического выборочного коэффициента корреляции (неранговые выборки автоматически ранжируются):
гещ =1-6 (SUM {(Xik- xjk}2)/n(n2 - 1).
Исходный этап для применения МШ (многомерное шкалирование) и КА (кластерный анализ) — это вычисление расстояний между строками или столбцами.
Наиболее распространенной считается обычная евклидова метрика. Ее обобщение — метрика Минковского, частным случаем которой является манхэггеновская метрика, или метрика сити-блок. Нормализованные евклидовы расстояния в большей степени подходят для переменных, измеренных в различных единицах или значительно отличающихся по величине. Манхэттеновская метрика, как правило, применяется для номинальных или качественных переменных.
Расстояния, вычисляемые на основе коэффициента корреляции отражают согласованность колебаний оценок в отличие от метрики Евклида, которая определяет в среднем сходные показатели.
Кластерный анализ (КА)
КА позволяет строить систему классификации исследованных объектов и переменных в виде «дерева» (дендрограммы) или же осуществлять разбиение объектов на заданное число удаленных друг от друга классов.
Методы КА можно расклассифицировать на:
внутренние (признаки классификации равнозначны);
внешние (существует один главный признак, который определяют по остальным).
Внутренние методы можно разделить на:
иерархические (процедура классификации имеет древовидную структуру);
неиерархические.
Иерархические подразделяются на:
агяомеративные (объединяющие);
дивизивные (разъединяющие).
В психологии наиболее распространен иерархический дивизивный метод. Он позволяет строить «дерево» классификации п объектов посредством их иерархического объединения в группы или кластеры на основе заданного критерия — минимума расстояния в пространстве m переменных, описывающих объекты. Кроме того, с его помощью осуществляется раз-
7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ
биение некоторого множества объектов на естественное число кластеров.
Графическое представление результатов дается в виде «дерева» иерархической кластеризации. По оси X — объекты, подлежащие классификации (на одинаковом расстоянии друг от друга). По оси Y — расстояния, на которых происходит объединение объектов в кластеры. Для определения естественного числа кластеров вводится оценка разбиения на классы, которую вычисляют по величине отношения средних внутрикластерных расстояний к межкластерным (А. Дрынков, Т. Савченко, 1980). Глобальный минимум оценки характеризует естественное число классов, а локальные — под- и надструктуры. Методы иерархического КА различаются по стратегии объединения, т. е. пересчета расстояний. Выделяются стратегии ближайшего соседа. При объединении i-ro и j-ro классов в класс k расстояние между новым классом k и любым другим классом h пересчитывается следующим образом: dhk=l/2dhi+l/2dhj-l/2|dhi-dhj|.
Расстояния между другими классами сохраняются неизменными. Стратегия дальнего соседа:
dhk=l/2dbl+l/2diy+l/2|dlll-cg. Группового среднего:
dhk = (ni/nk) dh. + (nj/nk) dhj,
где ni, nj, nk — число объектов в классах i, j, k.
Первые две стратегии, за исключением последней, изменяют пространство (сужают и растягивают). Поэтому если не удается получить достаточно хорошего разбиения на классы с помощью третьей стратегии (а их необходимо выделить), то используются первые две. При этом первая стратегия объединяет классы по близким границам, а вторая — по дальним.
В социальной психологии при исследовании взаимоотношений в коллективах помимо разбиения на классы необходимо установить также объекты, через которые классы связаны друг с другом. На эти вопросы можно ответить с помощью дендритного КА, который часто применяется совместно с иерархическим [Плюта, 1981]. Главная роль в нем принадлежит дендриту —
ломаной линии, которая не содержит замкнутых ломаных и в то же время соединяет любые два элемента. Предлагается построение дендрита, у которого сумма длин связей минимальна. Сначала к каждому объекту находится ближайший, при этом образуются скопления первого порядка, которые затем также объединяются по величине минимального расстояния до тех пор, пока не будет построен дендрит. Группы объектов считаются вполне отделимыми, если длина дуги между ними dllc > Cp, где СР = сср + S; СсР — средняя длина дуги; S — стандартное отклонение.
Дендриты могут иметь форму розетки, амебообразного следа, цепочки. При совместном использовании иерархического КА и дендрита распределение элементов по классам осуществляется по первому методу, а взаимосвязи между ними анализируются с помощью дендрита.
Многомерное шкалирование (МШ)
Одним из количественных методов изучения психических явлений и процессов, адекватно отражающих их системный характер, признан метод МШ. С его помощью анализируются попарные различия Dy между элементами i и j, в результате чего строится геометрический образ системы. Элементы системы изображаются точками моделирующего пространства, а связям между элементами соответствуют расстояниям dij между i и j. Метод МШ разрабатывался в работах У. Торгерсона, Р. Шепарда, К. Кумбса, Д. Краскала, Ф. Ян-га, В. Крылова и др.
Модели МШ мбжно расклассифицировать по двум основаниям.
По типу данных, полученных в эксперименте:
• прямое субъективное шкалирование (задана одна матрица близостей Dy);
• модель предпочтений (задана матрица близостей Dy и матрица предпочтений);
• модель индивидуального шкалирования (задано несколько матриц близостей). По процедуре реализации метода:
• метрическое шкалирование (расстояния в реконструированном пространстве
7.2. Математическая психология
, полу- Стохастические модели |
y пропорциональны различиям ченным в эксперименте);
• неметрическое шкалирование (данные djj монотонно связаны с расстояниями dy в пространстве Минковского).
Метод Шепарда—Краскала позволяет вычислять показатель стресса, т. е. невязку между исходными и вычисленными различиями между объектами:
S = SQR(SUM{(d..-D..)2}/SUM{D..}2),
где d.. — расстояния между объектами, вычисленные в процедуре МШ; Dy — исходные различия;
• шкалирование в псевдоевклидовом пространстве (не выполняется аксиома неравенства треугольника). В данном случае величина расстояния между объектами определяется по формуле
dy = (SUM Ь (xu - х/)1/2,
где £, принимает значение 1 для евкли-дового пространства и —1 — для псевдо-евклидового. Функция стресса для этих пространств вычисляется и выбирается наименьшая;
• нечеткое шкалирование (данные описаны «нечеткими» психолингвистическими шкалами).
Совместное использование МШ и КА позволяет провести анализ данных, более адекватный, чем дает применение каждого метода в отдельности. При больших выборках необходимо сначала провести КА, а затем с помощью МШ реконструировать пространство всех классов и каждого класса в отдельности (при необходимости). На основании обобщенного опыта было обнаружено, что при КА маленькие классы адекватны данным, часто являясь осмысленными группами, а большие — нет. И наоборот, при МШ небольшие изменения в данных могут стать причиной существенных изменений в локальном взаимном расположении точек. В то же время общее расположение точек внутри конфигурации является содержательным (см. работы Граева, Суппеса).