И геометрическое моделирование

К данному типу относится модели­рование психологических структур и про­цессов. Например, восприятие можно моделировать с помощью субъективных пространств; при разработке теории лич­ности используются модели классифика­ции и реконструируются семантические пространства и т. д. Эти модели строятся на основе применения методов многомер­ного шкалирования и кластерного анализа. Входными данными в эти методы являются матрицы близостей.

Для подсчета матрицы расстояния необ­ходимо выбрать метрику или метод вычис­ления расстояния между объектами в много­мерном пространстве. Наиболее часто используются следующие метрики;

Евклида:

d. = SQR[(x. - xj2];

ц ^ ' * ik jk' ' '

сити-блок (Манхэттен):

de = SUM <ABS (xlk - XjkVn}; Минковского:

метрика на основе корреляции Пирсо­на:

dy=l-r,/2;

метрика на основе корреляции Спир-мена:

с!и = 1 - гещ/2;

i j — номера столбцов;

k — номер строки;

cL — элемент матрицы расстояний;

xik' хг~ элементы исходной матрицы;

п — количество объектов.

Коэффициент корреляции Пирсона под­считывается для данных, измеренных в по­рядковых шкалах и шкалах наименований:

r.= (SUM{(x.k-x.i)(x.k-x.J})/ (SQR {SUM (xjk-x..)3 SUM (xjfc- x..)3}).

Коэффициент ранговой корреляции rs Спирмена является непараметрическим аналогом классического выборочного ко­эффициента корреляции (неранговые выборки автоматически ранжируются):

гещ =1-6 (SUM {(Xik- xjk}2)/n(n2 - 1).

Исходный этап для применения МШ (многомерное шкалирование) и КА (клас­терный анализ) — это вычисление расстоя­ний между строками или столбцами.

Наиболее распространенной считается обычная евклидова метрика. Ее обобще­ние — метрика Минковского, частным случаем которой является манхэггеновская метрика, или метрика сити-блок. Норма­лизованные евклидовы расстояния в боль­шей степени подходят для переменных, измеренных в различных единицах или значительно отличающихся по величине. Манхэттеновская метрика, как правило, применяется для номинальных или качест­венных переменных.

Расстояния, вычисляемые на основе коэффициента корреляции отражают со­гласованность колебаний оценок в отли­чие от метрики Евклида, которая опреде­ляет в среднем сходные показатели.

Кластерный анализ (КА)

КА позволяет строить систему класси­фикации исследованных объектов и пере­менных в виде «дерева» (дендрограммы) или же осуществлять разбиение объектов на заданное число удаленных друг от друга классов.

Методы КА можно расклассифициро­вать на:

внутренние (признаки классификации равнозначны);

внешние (существует один главный при­знак, который определяют по остальным).

Внутренние методы можно разделить на:

иерархические (процедура классифика­ции имеет древовидную структуру);

неиерархические.

Иерархические подразделяются на:

агяомеративные (объединяющие);

дивизивные (разъединяющие).

В психологии наиболее распространен иерархический дивизивный метод. Он позволяет строить «дерево» классифи­кации п объектов посредством их иерар­хического объединения в группы или кла­стеры на основе заданного критерия — минимума расстояния в пространстве m переменных, описывающих объекты. Кроме того, с его помощью осуществляется раз-



7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ



биение некоторого множества объектов на естественное число кластеров.

Графическое представление результатов дается в виде «дерева» иерархической клас­теризации. По оси X — объекты, подле­жащие классификации (на одинаковом расстоянии друг от друга). По оси Y — рас­стояния, на которых происходит объеди­нение объектов в кластеры. Для опреде­ления естественного числа кластеров вво­дится оценка разбиения на классы, которую вычисляют по величине отношения сред­них внутрикластерных расстояний к меж­кластерным (А. Дрынков, Т. Савченко, 1980). Глобальный минимум оценки харак­теризует естественное число классов, а ло­кальные — под- и надструктуры. Методы иерархического КА различаются по стра­тегии объединения, т. е. пересчета расстоя­ний. Выделяются стратегии ближайшего соседа. При объединении i-ro и j-ro клас­сов в класс k расстояние между новым классом k и любым другим классом h пе­ресчитывается следующим образом: dhk=l/2dhi+l/2dhj-l/2|dhi-dhj|.

Расстояния между другими классами сохраняются неизменными. Стратегия дальнего соседа:

dhk=l/2dbl+l/2diy+l/2|dlll-cg. Группового среднего:

dhk = (ni/nk) dh. + (nj/nk) dhj,

где ni, nj, nk — число объектов в классах i, j, k.

Первые две стратегии, за исключением последней, изменяют пространство (сужают и растягивают). Поэтому если не удается получить достаточно хорошего разбиения на классы с помощью третьей стратегии (а их необходимо выделить), то использу­ются первые две. При этом первая страте­гия объединяет классы по близким грани­цам, а вторая — по дальним.

В социальной психологии при иссле­довании взаимоотношений в коллективах помимо разбиения на классы необходимо установить также объекты, через которые классы связаны друг с другом. На эти во­просы можно ответить с помощью денд­ритного КА, который часто применяется совместно с иерархическим [Плюта, 1981]. Главная роль в нем принадлежит дендриту —

ломаной линии, которая не содержит замк­нутых ломаных и в то же время соединяет любые два элемента. Предлагается пост­роение дендрита, у которого сумма длин связей минимальна. Сначала к каждому объекту находится ближайший, при этом образуются скопления первого порядка, которые затем также объединяются по величине минимального расстояния до тех пор, пока не будет построен дендрит. Группы объектов считаются вполне отделимыми, если длина дуги между ними dllc > Cp, где СР = сср + S; СсР — средняя длина дуги; S — стандартное отклонение.

Дендриты могут иметь форму розетки, амебообразного следа, цепочки. При сов­местном использовании иерархического КА и дендрита распределение элементов по классам осуществляется по первому методу, а взаимосвязи между ними анали­зируются с помощью дендрита.

Многомерное шкалирование (МШ)

Одним из количественных методов изу­чения психических явлений и процессов, адекватно отражающих их системный ха­рактер, признан метод МШ. С его помо­щью анализируются попарные различия Dy между элементами i и j, в результате чего строится геометрический образ сис­темы. Элементы системы изображаются точками моделирующего пространства, а связям между элементами соответствуют расстояниям dij между i и j. Метод МШ разрабатывался в работах У. Торгерсона, Р. Шепарда, К. Кумбса, Д. Краскала, Ф. Ян-га, В. Крылова и др.

Модели МШ мбжно расклассифициро­вать по двум основаниям.

По типу данных, полученных в экспе­рименте:

• прямое субъективное шкалирование (задана одна матрица близостей Dy);

• модель предпочтений (задана матрица близостей Dy и матрица предпочтений);

• модель индивидуального шкалирова­ния (задано несколько матриц близостей). По процедуре реализации метода:

• метрическое шкалирование (расстоя­ния в реконструированном пространстве



7.2. Математическая психология



, полу- Стохастические модели

y пропорциональны различиям ченным в эксперименте);

• неметрическое шкалирование (дан­ные djj монотонно связаны с расстояния­ми dy в пространстве Минковского).

Метод Шепарда—Краскала позволяет вычислять показатель стресса, т. е. невязку между исходными и вычисленными раз­личиями между объектами:

S = SQR(SUM{(d..-D..)2}/SUM{D..}2),

где d.. — расстояния между объектами, вы­численные в процедуре МШ; Dy — исход­ные различия;

• шкалирование в псевдоевклидовом пространстве (не выполняется аксиома неравенства треугольника). В данном случае величина расстояния между объектами определяется по формуле

dy = (SUM Ь (xu - х/)1/2,

где £, принимает значение 1 для евкли-дового пространства и —1 — для псевдо-евклидового. Функция стресса для этих пространств вычисляется и выбирается наи­меньшая;

• нечеткое шкалирование (данные опи­саны «нечеткими» психолингвистичес­кими шкалами).

Совместное использование МШ и КА позволяет провести анализ данных, более адекватный, чем дает применение каждого метода в отдельности. При больших вы­борках необходимо сначала провести КА, а затем с помощью МШ реконструировать пространство всех классов и каждого клас­са в отдельности (при необходимости). На основании обобщенного опыта было об­наружено, что при КА маленькие классы адекватны данным, часто являясь осмыс­ленными группами, а большие — нет. И наоборот, при МШ небольшие изме­нения в данных могут стать причиной существенных изменений в локальном взаимном расположении точек. В то же время общее расположение точек внутри конфигурации является содержательным (см. работы Граева, Суппеса).

Вероятностные модели

Модели с латентными переменными

Модели с латентными переменными являются важным классом вероятностных моделей. Они основаны на предположе­нии о том, что наблюдаемые, измеряемые тестами переменные могут быть объяснены с помощью так называемых латентных, более глубинных переменных, которые невозможно измерить непосредственно, однако можно оценить их значение кос­венно. К методам латентных переменных относятся конфирматорный и эксплора-торный факторный анализ, регрессионный анализ, однофакторный анализ, методы латентных структур. МакДоналд пред­ложил обобщенную модель латентных структур.

Цель создания моделей с латентными переменными — объяснение наблюдаемых переменных и взаимосвязей между ними с помощью латентных переменных. При заданном значении наблюдаемых перемен­ных требуется сконструировать множество латентных переменных и функцию, кото­рая достаточно хорошо аппроксимировала бы наблюдаемые переменные, а в конеч­ном счете — плотность вероятности на­блюдаемой переменной.

В факторном анализе основной акцент делается на моделировании значений на­блюдаемых переменных, их корреляциях, ковариациях, а в методах латентно-струк­турного анализа — на моделировании рас­пределения вероятности наблюдаемых переменных.

Модели факторного анализа (ФА)

Работа Пирсона (1901) — первая, ко­торая была посвящена методу главных компонент. Большой вклад при разработке теста на интеллект внесли К. Спирмен (1927, 1946), Л. Терстон (1947, 1951), а при разработке теории личности — Р. Кеттел (1947, 1951) и Г. Айзенк.

Входные данные, обрабатываемые ме­тодом ФА, — это корреляционная или ко-



7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ



вариационная матрицы. Основная цель методов — выявление интегральных ла­тентных факторов по наблюдаемым пере­менным, что означает построение для дан­ной корреляционной матрицы К соот­ветствующей матрицы нагрузок А. Матри­ца А определяется численными методами, при этом количество факторов не должно превышать количество наблюдаемых пе­ременных. То есть соотношения между п наблюдаемыми переменными должны объясняться возможно меньшим числом латентных факторов. Первый принцип, лежащий в основе классической модели ФА, — постулат о линейной независимости между латентными характеристиками; второй — наблюдаемые переменные могут быть представлены как линейная комби­нация некоторых латентных факторов. Ряд этих факторов является общим для не­скольких переменных, другие — специфи­ческие, связанные в основном только с одной переменной.

В 60-е гг, в связи с быстрым развитием методов ФА появилось огромное число раз­личных методов. В дальнейшем проявля­ется тенденция к обобщениям: возникает нелинейный ФА, построение обобщающей модели с латентными переменными, воз­никновение и развитие конфирматерного ФА.

Обобщенная математическая модель ФА в матричном виде — это К = AFAT + L2, где А — матрица нагрузок, К — корреля­ционная матрица, L — матрица ошибок, F — единичная матрица факторов.

Основные этапы ФА: 1) сбор эмпири­ческих данных и подготовка корреляци­онной (ковариационной) матрицы; 2) вы­деление первоначальных (ортогональных) факторов; 3) вращение факторной струк­туры и содержательная интерпретация результатов ФА,

Второй этап — это прежде всего выбор метода ФА. Назовем наиболее используе­мые из них в психологии.

Метод главныхкомпонент. Его модель имеет вид

К - V = AAJ = VCV:,

где V — матрица собственных векторов, С — диагональная матрица собственных значений.То есть в данном методе поиск

решения идет в направлении вычисления собственных векторов (факторов), а собст­венные значения характеризуют диспер­сию (разброс) по факторам.

Метод главных факторов. Дня опреде­ления числа факторов используются раз­личные статистические критерии, при помощи которых проверяется гипотеза о незначительности матрицы корреляцион­ных остатков.

Метод максимального правдоподобия (Д. Лоли), в отличие от предыдущего, ос­новывается не на предварительной оценке общностей, а на априорном определении числа общих факторов и в случае большой выборки позволяет получить статистичес­кий критерий значимости полученного факторного решения.

Метод минимальных остатков (Г. Хар­ман) основан на минимизации внедиаго-нальных элементов остаточной корреляци­онной матрицы; проводится предваритель­ный выбор числа факторов.

Альфа-факторный анализ был разрабо­тан специально для изучения психологи­ческих данных; выводы носят в основном психометрический, а не статистический характер; минимальное количество общих факторов оценивается по собственным значениям и коэффициентам общности. Факторизация образов, в отличие от клас­сического ФА, предполагает, что обшность каждой переменной определяется как линей­ная регрессия всех остальных переменных.

Перечисленные методы отличаются по способу поиска решения основного урав­нения ФА. Выбор метода требует большого опыта работы. Однако некоторые иссле­дователи используют сразу несколько ме­тодов, выделенные же во всех методах факторы считают наиболее устойчивыми.

Третий этап — это «поворот» факторов в пространстве для достижения простой структуры, в которой каждая переменная характеризуется преобладающим влиянием какого-то одного фактора. Выделяются два класса вращения: ортогональное и косо­угольное. К ортогональным методам отно­сятся методы «Vary max» (Kaiser, I958) — максимизируется разброс квадратов фак­торных нагрузок по каждому фактору в отдельности, что приводит к увеличению больших нагрузок и уменьшению — ма-



7.2. Математическаяпсихолог

леньких. «Quartymax» — простая струк­тура; в отличие от предыдущего метода формируется для всех факторов одновре­менно. В некоторых случаях важнее полу­чить простую структуру, чем сохранить орто­гональность факторов. Для достижения этого используются аналогичные методы косоугольного поворота: «Oblymin» и «Oblymax».

Все описанные выше модели ФА отно­сятся к эксплораторному (поисковому) ФА. Настоящим переворотом в ФА было изобретение копфирматорного (подтверж­дающего) КФА. Основной принцип КФА. в качестве гипотезы формируется струк­тура ожидаемой матрицы факторных на­грузок (весов), которая затем наклады­вается на заданную корреляционную матрицу. Гипотеза подвергается статис­тической проверке, и постепенно иссле­дователь приходит к соответствующей экспериментальным данным матрице на­грузок, не прибегая к вращению факторов. Однако гипотеза должна основываться на серьезном анализе природы изучаемых переменных и лежащих в их основе фак­торов. Часто для этого проводится пред­варительно эксплораторный ФА. В качест­ве математического аппарата в данной модели используется моделирование с по­мощью линейных структурных уравнений.

Данный подход предполагает априор­ное формулирование гипотез относительно количества латентных и измеряемых пере­менных, а также их взаимосвязи. Можно выделить следующие этапы:

составляется диаграмма путей, представ­ляющая собой графы, в которых присутст­вуют измеряемые и латентные переменные, соединенные стрелками (направлены в сто­рону влияний);

строятся системы уравнений множест-веной регрессии; их количество соответ­ствует количеству зависимых переменных;

проверяется соответствие предложенной модели (системы уравнений) эмпиричес­ким данным;

осуществляется перебор моделей на данных одной выборки.

Метод КФА позволяет оценить валид-ность тестов (конструктную, дискрими-нантную, конвергентную). Использование множества индикаторов для каждого латентного конструкта дает возможность представить степень, с которой каждая переменная объясняет латентную перемен­ную. Остаточная дисперсия обусловлена случайными флуктуациями. С помощью параметров измерительной модели оп­ределяется внутренняя согласованность теста, по которой можно говорить об уровне надежности измерения. В программе LISREL надежность измеряемых перемен­ных представляется в виде множественных корреляций этих переменных с латентными конструктами (P. Bentler. 1982, 1992; D. Cole, 1987). Моделирование с помощью латент­но-структурных уравнений позволяет также проводить анализ данных лонгитюд-ного исследования с множественными индикаторами (К. Joreskog, 1979, 1988).

Модель латентных классов

Все модели латентных структур пред­полагают локальную независимость харак­теристик. То есть для данной латентной характеристики наблюдаемые переменные независимы в смысле теории вероятностей.

В основе модели лежит формула Бэйеса, которая связывает априорную вероятность с апостериорной.

Общая методология сводится к введе­нию в модель (в качестве исходных дан­ных) априорной плотности распределения параметров и последующему нахождению по формуле Бэйеса (с учетом эксперимен­тальных данных) их апостериорной плот­ности распределения. Априорно задаются две латентные характеристики: количество классов (К) и соответствующее им отно­сительное число испытуемых в классе — P(k), а также параметр, позволяющий ус­танавливать степень вероятности опреде-леного ответа на i-й вопрос при условии, что испытуемый относится к k-му классу — r(k). Априорное задание этих латентных характеристик соответствует гипотезе ис­следователя либо задается стандартными способами.

Вероятность появления 1-го профиля

Pi=I(P(k)r,(k).

По формуле Бэйеса вычисляется апос­териорная (с учетом реальных профилей

ПСИХОЛОГИИ



ответов испытуемых на вопросы теста) вероятность принадлежности к классу k при условии, что испытуемый имеет i-й паттерн ответов:

Для каждого класса строится наиболее вероятный профиль ответов его предста­вителей.

Данный метод полезен при адаптации существующих новых опросников и их разработке, а также для анализа результа­тов исследования (J. Rost, 1988; Т. Савченко, 1995). При адаптации опросников метод латентно- структурного анализа (LSA) поз­воляет выделить вопросы теста, которые не соответствуют предложенной модели и подлежат замене или переформулирова­нию. Метод LSA используется также для проведения типологизации по множест­венному критерию.

Модели научения

Вероятностные модели представляют самый широкий класс моделей в психоло­гии. Модели такого типа существуют почти во всех ее разделах. Многие модели опи­саны в соответствующих разделах данного руководства, здесь же приведены отдель­ные , наиболее характерные примеры.

Так, в моделях научения есть класс ве­роятностных моделей. Примером общей вероятностной модели процесса научения является модель, имеющая дна подмноже­ства гипотез (К. Chow, J. Cotton, 1983; Ch. Brainerd, 1982). Согласно этим моде­лям, испытуемый выдвигает гипотезу из одного подмножества; в случае верного ре­шения в следующем испытании гипотеза выдвигается из этого же множества, а в случае неудачи — с вероятностью р про­исходит выбор одного из двух подмно­жеств. Однако модели, имеющие три под­множества гипотез, более адекватно отра­жают процесс идентификации понятий.

В качестве примера автоматной веро­ятностной модели можно привести разра-ботаннную А. Дрынковым (1985) модель, описывающую кривые научения и пред­ставляющую собой автомат-подкрепления со счетным множеством состояний.

Модели принятия решений

Теория принятия решений представляет собой набор понятий и семантических методов, позволяющих всесторонне ана­лизировать проблемы принятия решений в условиях неопределенности.

Можно выделить три основных подхода к построению моделей процесса принятия решения: теорию статистических решений, теорию полезности и теорию игр. Эти тео­рии нашли применение в психологичес­кой практике. Теория принятия решений моделирует поведение людей, которые, принимая решение, действуют в соответст­вии с некоторыми аксиомами. В основе теории принятия решений лежит предпо­ложение о том, что выбор альтернатив должен определяться двумя факторами: 1) представлениями лица, принимающего решение о вероятностях различных воз­можных исходов, которые могут иметь место при выборе того или иного варианта решения; 2) предпочтениями, отдаваемыми различным исходам. Первое — субъектив­ная вероятность, второе — ожидаемая по­лезность.

Теория полезности

Основы современной теории полезности были заложены А. Крамером и Д. Бернулли (1738), которые предположили, что для многих людей полезность богатства уве­личивается с убывающей скоростью по мере его роста. Лишь в 1931 г. философ и математик Ф. Рамсей построил систему аксиом для субъективно ожидаемой полез­ности. Опираясь на его результаты, Л. Сэ-видж (1964) ввел строгую систему аксиом для субъективно ожидаемой полезности, которая формируется из аксиом предпоч­тения. Теория предпочтений основывается на отношении нестрогого < «у не предпоч­тительнее, чем х» или строгого предпоч­тения < «х предпочтительнее, чем у» (G. Fishburn, 1972). В последних работах чаше используется строгое предпочтение. Функция U называется функцией полез­ности для отношения предпочтения > на X, если u(x) > u(y) для любых х и у, таких, что х > у.



7.2. Математическая психология



В настоящее время модель Сэвиджа для субъективно ожидаемой полезности полу­чила наибольшее признание среди теорий принятия решений с риском: SEU — Р* U, где SEU — субъективно ожидаемая полез­ность исхода; U — полезность наступив­шего исхода; Р* — субъективная вероят­ность наступившего исхода. Субъективная вероятность — число, выражающее сте­пень возможности данного события (по мнению субъекта).

С. Стивене и Е, Галантер (1957) полу­чили линейную функцию субъективной вероятности с искажениями на концах шкалы. Позже А. Тверски и Д. Канеман (1974) показали, что люди недооценивают низкие вероятности и переоценивают средние и высокие.

В теории максимизации принимаются аксиомы, комбинирующие субъективную вероятность и полезность.

В теории принятия решений оценки вероятностей, полученные на основе сужде­ния одного лица, входят и сумму £р (Е,) = 1, где ej 0 = 1,2, .... п) — полный набор взаимоисключающих событий, и если она не равна единице, то меняются рассмат­риваемые оценки [Кеепеу, 1974]. Для оценки распределения вероятностей величин, имеющих большое количество значений, берется несколько точек функции распре­деления этой величины и находится кри­вая, оптимально проходящая через эти точки.

Если необходимо использовать уже имеющиеся данные совместно с эксперт­ными оценками, то теорема Бэйеса дает возможность уточнить вероятностные оценки с учетом полученной дополнитель­ной информации. Для дискретного случая теорема имеет вид

P(E|S) = P<S|E) P(E)/ZP(S|E) P(E),

где S — данные, P(E/S) — вероятность со­бытия Е при данном S, a P(S|E) — вероят­ность S при данном Е. Функции Р(Е) и P(E|S) означают соответственно априор­ную и апостериорную вероятности для дискретного случая.

Достаточно широкий диапазон сужде­ний можно выразить посредством функ­ций одного класса. Функции внутри клас-

са можно изменять, используя теорему Бэйеса.

Существует четыре важных этапа про­цесса принятия решений: 1) определение альтернативных способов действия; 2) опи­сание вероятностей возможных исходов; 3) ранжирование предпочтений возможных исходов через их полезность; 4) рациональ­ный синтез информации, полученной на первых трех этапах.

Теория игр

Теория игр является «теорией матема­тических моделей принятия оптимальных решений в условиях конфликта» (Ю. Гер-мейер, 1972). Она используется для моде­лирования поведения в конфликтной ситуации. Под конфликтом понимается явление, применительно к которому можно указать, какие стороны и как в нем участ­вуют, какие возможны исходы, кто и как в них заинтересован. Понятие игры в тео­рии игр аналогично понятию конфликта в психологии.

Понятие оптимальности поведения сторон представляет наиболее важный элемент теоретико-игрового подхода к изучению конфликтов, так как выбор принципа оптимальности фактически рав­нозначен формализации представлений исследователя о модели принятия реше­ний в подобных ситуациях. Одним из наи­более распространенных является прин­цип максимально гарантированного ре­зультата, заключающийся и том, что сто­рона, принимающая решения, всегда выбирает действие, дающее максимально гарантированный эффект независимо от действий других участников конфликта. Родоначальником теории игр является Дж.фон Нейман. В России — это Ю. Гер-мейер, Г. Поспелов. Теория игр, так же как и теория принятия решений, — самостоя­тельное направление в исследованиях опе­раций; она используется во многих науках в качестве аппарата моделирования и ап­парата представления. Различаются игры: позиционные и в нормальной форме; антагонистические и с непротивополож­ными интересами; двух лиц и п лиц. Игра считается полностью заданной, если из-



7. ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ



вестно количество участников, их страте­гии и матрицы возможных исходов. В ко­нечной игре существуют гарантированные стратегии, обеспечивающие участнику выигрыш, не меньший, чем гарантирован­ный.

Л. Сэвилж ввел понятие риска. Он ра­ботал с матрицей риска, дополняющей матрицу полезности. Иначе говоря, выби­рается действие, приводящее к миними­зации максимально возможного риска.

Ю. Гермейер ввел аналогичный крите­рий для игр с непротивоположными ин­тересами. Модели, разработанные на ос­нове теории игр, дают хороший прогноз, однако при моделировании вводится до­статочно много ограничений, а также не учитываются личностные характеристики участников, поэтому, несмотря на усовер­шенствование математической теории игр, она обладает существенными ограниче­ниями. В связи с этим актуальной задачей математической психологии в данном на­правлении можно считать создание фор­мальных математических моделей поведе­ния человека в зависимости от его субъ­ективного опыта, личностных характери­стик и мотивации (Т.Савченко, 1990). Важным приложением аппарата теории игр является его использование в экспе­риментальной психологии в качестве экс­периментальной методики изучения пове­дения в ситуации с непротивоположными интересами (А. Раппопорт, К. Терхьн, М. Пилмак, А.Лебедев. Т. Савченко).

Динамическое программирование

Модели целенаправленного поведения

Рассмотрим одну из моделей психомо­торного акта, которая описывает решения и действия. Г.В.Кореневым (1989) предло­жена схема выработки решения и приве­дения его в действие. Решение человека реализуется в выполнении движения, ре­зультатом которого является достижение конечной цели. Модель — это идентифи­цирование обстановки, сопоставление ее с определенным психомоторным актом и принятие решения о выполнении движе­ния, которое обеспечивает предвидимое

будущее. Принятое решение реализуется через команды, приводящие в действие мышечный аппарат и формирование ак­цептора результатов действия для сравнения настоящего с предвидимым будущим. Модель психомоторного акта связывает с каждым классом обстановки свою про­грамму движения, выражающего волю человека. В качестве базисной модели используется система дифференциальных уравнений классической динамики, кото­рую пополняют программные и корректи­рующие силы. Влияние обстановки зада­ется классификационными уравнениями. Решение систем уравнений достаточно сложно — система обладает большим чис­лом степеней свободы.

Модели научения

Самые первые модели, примененные для описания процесса научения, пред­ставляли кривую научения как зависи­мость качества решения задачи от коли­чества повторений (Р. Аткинсон, Г. Бауэр, 1969; Р Буш, Ф. Мостеллер, 1962). Теория Торндайка трактует процесс научения как дифференциальное подкрепление сущест­вующих связей между раздражителями и ответами. Для К. Халла научение состоит в образовании связей, которые понимаются как устойчивые состояния. Для моделиро­вания состояния были применены конеч­ные автоматы. Под воздействием стимула подкрепления происходит смена состоя­ний, определяющих связи между раздра­жителями и ответами. Для описания та­кой структуры использовались автоматы подкрепления, являющиеся частным слу­чаем автоматов состояния. Эти автоматы могут моделировать процесс научения.

Многие исследователи для описания процесса научения обращаются к понятию выдвижения гипотез. Эти модели сходны с моделями, основанными на автоматах подкреплений. Термины «множество со­стояний» и «множество гипотез» эквива­лентны. Для описания процесса перехода из состояния в состояние или смены ги­потез часто применяется аппарат цепей Маркова. Существенным недостатком моделей этого класса является то, что они



7.2. Математическая психология



не отражают структуру связей между си­туациями и реакциями на них в процессе научения, не описывают процессов фор­мирования и модификации гипотез.

Модели интеллекта

Теоретики искусственного интеллекта (ИИ) дают рахтичные определения этого понятия, соответственно которым в иссле­дованиях выделяются две осноиные цели. Первая — создание программ для автома­тизации интеллектуальной человеческой деятельности (П. Уинстон). Вторая, свя­занная с исследованиями в психологии, — использование программ ИИ для объяс­нения процессов, протекающих у человека при решении тех или иных задач (Н. Ниль-сон, Т. Фейген).

Э. Хант (1978) под содержанием поня­тия «искусственный интеллект» понимает: игры, распознавание образов, решение задач, адаптивное программирование, при­нятие решений, обработку данных на естест­венном языке и т.д. Многие концепции ИИ, несомненно, повлияли на развитие психологической науки.

При моделировании интеллекта в психо­логии можно выделить следующие подходы: аппарат распознавания образов, который основан на процедуре Бэйеса, классичес­ком статистическом подходе и новых ма­тематических теориях, таких, как размытые множества и синергетика.

Современные исследования в этой об­ласти начались к Институте Карнеги с написания программ, решающих задачи. Основной интерес представляло то, как люди решают задачи (А, Ньюэлл, Г. Сай­мон, 1972). В работах многих других ис­следователей ИИ рассматривается скорее как расширение математики, а не как дис­циплина математической психологии (Дж. Мак-Карти, М. Минский, 1961). Дру­гое направление ИИ — это распознавание образов, которое начиналось с машинных программ классификации. В дальнейшем О. Селфридж (1959) предложил осуществ­лять распознавание образов, вычисляя «взвешенную» сумму ряда классификаций. К. проблеме распознавания можно «под­ходить», анализируя аналогии, которые

прослеживаются в биологических процес­сах. Мак-Каллок и Питте (1943) доказали, что любую функцию можно реализовывать с помощью должным образом организо­ванной сети идеальных нейронов. Логи­ческим продолжением нейрологических теорий явилось понятие перцептрона.

Перцептронные модели

Перцептрон возник как система, пред­назначенная для решения задач распозна­вания образов (М. Минский, С. Пейперс, 1971). Идея создания перцептрона принад­лежит Ф. Розенблатту (1965). Изучением данного типа моделей занималось много исследователей (Ф. Розенблатт, 1965; С. Пейперс, М. Минский, 1970; О. Селф­ридж, Н.Нельсон, 1969; В.Якубович, 1966). Наибольшее эмпирическое подкреп­ление эти модели получают в психофизи­ологии, например — рефлекторная дуга Е.Соколова (1981). Одной из наиболее известных моделей, основанных на понятии перцептрона, является система «Пандемо­ниум», предложенная О. Селфериджем (1974). Модели данного класса позволили выделить типы научения, Перцептронные модели поведенчески эквивалентны авто­матным моделям, но дают возможность представить механизм связи и ее модифи­кации при научении между ситуациями и ответными реакциями.

Моделирование естественного языка

В. В. Налимов разработал вероятност­ную модель языка с помощью модели­рования смысла слов. С каждым словом вероятностным образом связывается мно­жество смыслов. Смысловые значения служат функцией распределения для ин­дивида или однородной группы. В резуль­тате формируется модель понимания инди­видом некоторого текста. В этих моделях используется традиционный аппарат тео­рии вероятностей (Налимов, 1971).

В области ИИ на рубеже тысячелетия так же, как и во многих других науках, происходит смена парадигм.

В 90-х гг. определились новые парадиг­мы в ИИ.



7, ОСНОВНЫЕ ОТРАСЛИ ПСИХОЛОГИИ



Первая — создание теории однородных сред, элементами которых являются уст­ройства, подобные нейронам. Вторая — компьютерная графика, помогающая решать задачи с помощью актуализации образного мышления, Когнитивная интерактивная компьютерная графика является средством воздействия на право пол у шар ное мышле­ние человека в процессе научного твор­чества. Третья — специалисты различных направлений в области ИИ считают важ­ным развитие работ, касающихся представ­лений знаний и манипулирования ими (экспертные системы).

Нетрадиционные методы моделирования

Моделирование на «размытых» множествах

Нетрадиционный подход к моделиро­ванию связан с приписыванием элементу некоторой числовой оценки, которая не может объясняться объективной или субъ­ективной вероятностью, а трактуется как степень принадлежности элемента к тому или иному множеству. Множество таких элементов называется «нечетким», или «размытым» множеством.

Каждое слово х естественного языка можно рассматривать как сжатое описа­ние нечеткого подмножества М(х) полного множества области рассуждений U, где М(х) есть значение х. В этом смысле весь язык как целое рассматривается в качестве системы, в соответствии с которой нечет­ким подмножествам множества U припи­сываются элементарные или составные символы (т. е. слова, группы слов и пред­ложения). Так, цвет объекта как некото­рую переменную, значения этой переменной (красный, синий, желтый, зеленый и т. л.) можно интерпретировать как символы нечетких подмножеств полного множества всех объектов. В этом смысле цвет явля­ется нечеткой переменной, т. е. перемен­ной, значениями которой являются сим­волы нечетких множеств. Если значения переменных — это предложения в неко­тором специальном языке, то в данном случае соответствующие переменные на­зываются лингвистическими (Л. Заде, Ю. Шрейдер).

Синергетика » психологии

Еще одна альтернатива традиционному математическому аппарату — синергети-ческий подход, в котором математическая идеализация проявляется чувствительностью к начальным условиям и непредсказуе­мостью исхода для системы. Поведение можно описать с помощью апериодических и поэтому непредсказуемых временных ря­дов, не ограничиваясь при моделировании стохастическими процессами. Беспорядок в обществе может предшествовать появ­лению новой структуры, в то время как стохастические системы имеют низкую вероятность порождения интересных структур. Именно апериодические реше­ния детерминированных уравнений, опи­сывающих самоорганизующиеся структу­ры, помогут прийти к пониманию психо­логических механизмов самоорганизации (Фриман, 1992). В этих работах разум рас­сматривается как «странный аттрактор», управляемый уравнением сознания. Мате­матически «странный аттрактор» — это множество точек, к которому приближается траектория после затухания переходных процессов.

В основе большинства традиционных моделей психотерапии лежит концепция равновесия. Согласно синергетическому подходу, разум является нелинейной сис­темой, которая при далеких от равновесия условиях превращается в части сложных аттракторов, а равновесие — лишь пре­дельный случай. Этот тезис развивают тео­ретики психотерапии, выбирая тот или инойаспект теории хаоса. Так, например, выделяется феномен хаотического в психо­физиологической саморегуляции (Step­hen, Franes, 1992) и обнаруживаются ат­тракторы в паттернах семейного взаимо­действия (L. Chamber, 1991).

Рекомендуемая литератур»

Анастаэи А. Психологическое тестирование. М.: Педагогика, 1992.

Берна К. Измерения: понятия, теории, пробле­мы. М.: Прогресс, 1987.

Благуш П. Факторный анализ в обобщении. М.: Финансовая статистика, 1939.

Будущее искусственного интеллекта. М,: Наука,

1991.



7.3. Медицинская психология



Головина Г.М., Крылов В.Ю., Савченко Т.Н. Математические методы в современной психологии: статус, разработка, применение. М.: ИП РАН, 1995.

Девидсон М. Многомерное шкалирование. М.: Финансы и статистика, 1987.

Исследование операций/Под ред. Дж. Моудер. М., 1981.

Классификация и кластер. М.: Мир, 1980.

Кочетков В.В., Скотникова И.Г. Индивиду­ально-психологические проблемы принятия решения. М.: Наука, 1993.

Крылов В.Ю. Геометрическое представление данных в психологических исследованиях. М.: Наука, 1980.

Крылов В.Ю., Казанцев А.Ю. Модель ре­флексивного поведения В.А.Лефевра: частные слу­чаи, варианты аксиоматики, возможные обобщения. М., 1995.

Лефевр В.А. Формула человека. М.: Прогресс, 1991.

Лоули Д., Максвелл А. Факторный анализ как статистический метод. М.: Мир, 1967.

Льюс Р., Райфа X. Игры и решения. М., 1961.

Математические методы в исследованиях инди­видуальной и групповой деятельности/Под, ред. В.Ю. Крылова. М.: ИП АН СССР, 1989.

Нейман Дж. фон, Моргенштерн О. Теория игр и экономическое поведение. М., 1970.

Нормативные и дескриптивные модели принятия решений. М.:Наука, 1981.

Плюта В. Сравнительный многомерный анализ в экономическом моделировании. М.: Статитика, 1981.

Шошин П.Б. Психологические измерения/Под ред. М.Б. Михалевской. М.: МГУ, 1989. Ч. I.

Статистические методы для ЭВМ/Под ред. К. Эн-слейна, Э. Рэстона, Г.С. Уилфа. М.: Наука, 1976.

Терехина А.Ю. Анализ данных методами мно­гомерного шкалирования. М.: Наука, 1986.

Тюрин Ю.Н., Макаров А.А. Анализ данных на компьютере. М.: Финансы и статистика, 1995.

Хант Э. Искусственный интеллект. М.: Мир, 1978.

British Journal of Mathematical and Statistical Psychology/British Psychol. Soc. 1988. № 41.

Handbook of mathematical psychology. N.Y.: John Willey and Sons, Inc., 1963.

Handbook of mathematical psychology. N.Y., 1973. Journal of Mathematical Psychology. 1991. V. 35. Psyhometrika. 1993. V. 3. Psychological Science. 1992. № 2

Медицинская психология

Введение

Современная медицина и психология — это системы медицинских и психологичес­ких наук, имеющие один и тот же объект изучения и практического приложения добываемых знаний — человека. Их взаи­модействие порождает большой круг ме­дико-психологических проблем. Основное положение медицины о том, что врач дол­жен лечить не болезнь, а больного, требу­ет знания не только биологических и фи­зиологических особенностей организма человека, но и его психики. Единство кли­нического и психологического подходов в лечебной практике характеризовало всех выдающихся медиков, многие из которых стали основателями целых направлений в психологии (3. Фрейд, В.Н. Бехтерев, В.Н. Мясищев и др.).

Наши рекомендации