Широкое определение многомерного шкалирования
При самом широком определении М. ш. включает в себя множество разнообразных геометрических моделей для представления данных психологии или др. поведенческих наук. В это множество могут входить дискретные геометрические модели, такие как древовидные структуры (обычно связанные с иерархической кластеризацией), структуры пересекающихся либо непересекающихся кластеров или др. сетевые модели. Однако для М. ш. более типична связь с континуальными пространственными моделями представления данных. При широком определении М. ш. такие пространственные модели могут включать — в добавление к рассмотренной выше дистанциометрической модели для данных о близости — другие геометрические структуры, такие как векторная модель или модель развертывания для представления индивидуальных различий в данных о предпочтении (или др. преобладании), и даже модель факторного анализа.
См. также Индивидуальные различия, Методы многомерного анализа, Статистика в психологии
Дж. Д. Кэрролл
Многоосевой клинический опросник Миллона (Millon clinical multiaxial inventory)
Разработанный Теодором Миллоном М. к. о. М. (MCMI)используется в тех же целях, что и его прообраз — Миннесотский многофазный личностный опросник (MMPI). Составленный из 175 утверждений в форме самоописаний, этот опросник увязан как с клинической теорией Миллона, так и с «Руководством по диагностике и статистической классификации психических расстройств» (DSM-IV). 20 клинических шкал сгруппированы в четыре основные категории: Базовые личностные паттерны (Basic Personality Patterns [ось II]); Патологические личностные синдромы (Pathological Personality Syndromes)[ось II]); Умеренные клинические синдромы (Moderate Clinical Syndromes [ось I]) и Тяжелые клинические синдромы (Severe Clinical Syndromes [ось I]).
Валидизация составляла существенную часть конструирования опросника. В дополнение к программам для быстрой машинной обработки бланков с ответами пользователям доступна также программа машинной интерпретации результатов и составления заключения, в к-ром объединяются персонологические и симптоматические характеристики пациента. В соответствии с современными психодиагностическим мышлением это интерпретирующее заключение отражает многоосевую структуру оценки.
См. также Миннесотский многофазный личностный опросник, Оценка личности
Т. Миллон
Множественная корреляция (multiple correlation)
М. к. — метод многомерного анализа, широко применяемый в психологии и др. поведенческих науках. М. к. можно рассматривать как расширение двумерной корреляции, а ее коэффициент — как показатель степени связи одной переменной с оптимально взвешенной комбинацией неск. др. переменных. Веса этих переменных определяются методом наименьших квадратов, так чтобы минимизировать остаточную дисперсию.
Коэффициент М. к. принимает значения от 0 до 1 и интерпретируется аналогично коэффициенту двумерной корреляции, если справедливы допущения о прямолинейности и др. характеристиках двумерных интеркорреляций, на основе к-рых вычисляется этот коэффициент.
В психологии квадрат множественной корреляции (R2)или, как его еще наз., коэффициент множественной детерминации, часто используется для оценки доли дисперсии зависимой переменной, приходящейся на совокупность независимых переменных. Родственный метод — множественная регрессия — используется для предсказания зависимой переменной (или критерия) по совокупности независимых переменных (или предикторов).
См. также Корреляционные методы, Множественная регрессия, Статистика в психологии
Б. Фрухтер
Множественная личность (multiple personality)
Расстройство М. л. определяется как состояние, характеризуемое «существованием внутри индивидуума двух и более отдельных личностей, каждая из которых доминирует в определенное время». Каждая личность независима, автономна и внешне представляет отдельное и полное Я. Переход от одной личности к другой обычно происходит внезапно. В то время, когда вторичная личность проявляет себя, являясь «исполнителем», первоначальная или первичная личность не осознается; по возвращении ее происшедшее стирается из памяти.
Суть синдрома М. л. составляет психол. процесс диссоциации, при к-ром один сегмент поведения и переживаний отделен и не сообщается с другим. Вторичная личность обычно осознает существование первичной, но рассматривает ее в качестве объекта, считая себя субъектом. В некоторых случаях интеракции между разными личностями становятся чрезвычайно сложными.
При «раскрытии» таких случаев обычно обнаруживается длинная предыстория неправильной диагностики и неправильного лечения. Хотя и не слишком распространенные, эти случаи определенно не представляют собой «чрезвычайную редкость». На настоящий момент имеются описания нескольких сот случаев.
Поразительным является то обстоятельство, что в своих чувствах, аттитюдах, восприятии и поведении вторичные личности весьма отличны от главной, иногда представляя собой ее полную противоположность. Это перестает удивлять, если учесть, что вторичные личности возникают именно на основе неприемлемых чувств и стилей поведения, к-рые когнитивно диссонировали с основной личностью, когда она — в особенности в детские годы — пыталась адаптировать их к требованиям окружающей реальности.
Разные личности не только отличаются друг от друга по многим модальностям (перцептивной, мотивационной, аффективной и поведенческой), но также дают различные показатели по таким психол. тестам, как Миннесотский многофазный личностный опросник и тест Роршаха. Они также характеризуются определенными различиями в ЭЭГ.
Есть данные, свидетельствующие о том, что диссоциации, как и др. психол. процессы, располагается на едином континууме, а подлинно множественные личности просто представляют собой полюса этого континуума.
Длительность течения расстройства множественной личности по данным старой литературы составляет в большинстве случаев многие годы; расстройство трудно поддается лечению. Однако в последнее время сообщается о появлении некоторых общих принципов терапии.
Несмотря на усиление интереса к проблеме диссоциации в последнее время, расстройство М. л. все еще является одним из наименее понятных расстройств личности.
См. также Гипнотерапия
Дж. Уоткинс
Множественная регрессия с переменной-модератором (moderated multiple regression)
М. р. п.-м. — типичная модель многомерного анализа, предназначенная для проверки того, влияет ли на связь между двумя переменными — предиктором X и зависимой переменной Y — третья переменная М. Формула для уравнения простой линейной регрессии выглядит следующим образом:
Y = а + b1X,(1)
где а — интерсепт (или свободный член уравнения регрессии), а b — коэффициент регрессии, связанный с предиктором (или независимой переменной) X. По сравнению с ней уравнение (2) включает еще одну переменную-предиктор М, сглаживающий эффект к-рой представлен произведением ХМ:
Y = а + b1Х + b2М + b3(ХМ),(2)
где b1, b2, b3— коэффициенты регрессии, связанные с соответствующими предикторами.
Включение переменной-модератора в уравнение (2) позволяет специалисту по анализу данных обратиться к вопросу о том, зависит ли связь между зависимой переменной Y и предиктором X от третьей переменной. Напр., сказывается ли на связи средней продолжительности жизни (зависимая переменная) с излишним весом (переменная-предиктор) такой фактор, как АД (переменная-модератор)? Или влияет ли на связь познаний ученика (зависимая переменная) со стилем обучения учителя (переменная-предиктор) число учеников в классе (переменная-модератор)?
Между эффектами модератора в множественной регрессии и эффектами взаимодействия в дисперсионном анализе есть немалое сходство. Напр., эксперим. план с двумя интериндивидными факторами, X и М, представляет собой частный случай уравнения (2), в к-ром переменные-предикторы являются категорийными и некоррелированными. Уравнение (2), однако, является более общим в том смысле, что оно также допускает включение непрерывных и коррелированных независимых переменных — предикторов и модераторов. Более того, уравнение (2), при соответствующем кодировании, может включать повторные измерения факторов, для анализа к-рых обычно использовали методы дисперсионного анализа. Множественный регрессионный анализ шире дисперсионного анализа, и используемый в дисперсионном анализе термин «взаимодействие» можно рассматривать как переменную-модератор во множественной регрессии.
Рассмотрим ситуацию, когда новое лекарство испытывается в качестве средства лечения депрессии. С учетом фактора пола, по 8 пациентов психиатрического отделения, страдающих депрессией, распределяются случайным образом по двум уровням изучаемого фактора: назначен прием лекарства/не назначен прием лекарства, — причем таким образом, чтобы число испытуемых на каждом уровне было одинаковым. После завершения курса лечения, в качестве меры исхода используются показатели, полученные испытуемыми по шкале депрессии, относящейся к типу стандартизованных самоотчетов. В дополнение к оценке степени влияния нового лекарства на показатели пациентов по шкале депрессии нелишне было бы установить возможное различие в эффективности этого лекарства для лиц мужского и женского полов. Гипотетические данные представлены в табл. 3. Их анализ выполнен с использованием процедур традиционного дисперсионного анализа. Затем эти данные с помощью техники кодирования эффектов независимых переменных (т. е. предикторов) реорганизованы в таблицу в виде матрицы и проанализированы с использованием процедур множественного регрессионного анализа (табл. 4). Величины критериев значимости для соответствующих факторов в дисперсионном анализе (т. е. F-отношения) и весов предикторов в множественной регрессии (т. е. t2-значения) получаются эквивалентными.
Таблица 3. Влияния нового лекарства на показатели пациентов по шкале депрессии
Данные | |||||||||||
Фактор 2 (пол) | Фактор 1 (новое лекарство) | ||||||||||
Принимают лекарство | Не принимают лекарство | ||||||||||
М | |||||||||||
Ж | |||||||||||
Результаты дисперсионного анализа | |||||||||||
Источник изменчивости | SS | df | MS | F-отношение | |||||||
Пол | 7,56 | 7,56 | 1,29 | ||||||||
Лекарство | 370,56 | 370,56 | 63,30 | ||||||||
Пол х лекарство | 95,06 | 95,06 | 16,24 | ||||||||
Ошибка | 70,25 | 5,85 | |||||||||
Повторный анализ данных из табл. 3 с использованием модели множественной регрессии приведен в табл. 4.
Таблица 4. Матрица данных множественной регрессии, построенная с использованием кодирования эффектов факторов
Зависимая переменная | Переменные-предикторы | ||
Депрессия | Пол (а) | Лекарство (b) | Пол х лекарство |
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 | ||
-1 | -1 |
Результаты регрессионного анализа:
- уравнение: показатель депрессии = 28,69 — 0,69 х пол — 4,81 х лекарство — 2,44 (пол х лекарство);
- коэффициент множественной корреляции R = 0,93;
- коэффициент множественной детерминации R2 = 0,87.
Таблица 5. Проверка значимости весов предикторов (коэффициентов регрессии)
Предиктор | b | t | t2 (c) |
Пол | -0,69 | -1,14 | 1,29 |
Лекарство | -4,81 | -7,96 | 63,30 |
Пол х лекарство | -2,44 | -4,03 | 16,24 |
a)Мужской пол кодируется 1, женский -1.
b) Принимающие лекарство кодируются 1, не принимающие лекарство -1
c) Эти значения t2 идентичны значениям F-отношения в табл. 1.
Хотя взаимодействия в моделях традиционного дисперсионного анализа могут рассматриваться как частные случаи переменных-модераторов во множественной регрессии, регрессионные модели яв-ся более общими, так как применимы к непрерывным и коррелированным, а не только к категорийным и некоррелированным предикторам. В тех случаях, где используются коррелированные предикторы и модераторы, для оценки статистической значимости модераторов рекомендуется применять иерархические модели множественной регрессии.
См. также Каузальное мышление, Исследование методом двойного ослепления, Вероятность, Методология (научных) исследований, Статистика в психологии
Р. Р. Холден
Множественная регрессия (multiple regression)
М. p. — метод многомерного анализа, посредством к-рого зависимая переменная (или критерий) Y связывается с совокупностью независимых переменных (или предикторов) X посредством линейного уравнения:
Y' = а + b1Х1 + b2Х2 + ... + bkXk.
Коэффициенты регрессии или, по-другому, весовые коэффициенты b обычно определяют методом наименьших квадратов, минимизируя сумму квадратов отклонений фактических значений зависимой переменной от соотв. предсказанных значений.
При «пошаговом» («stepwise»)подходе переменные добавляются (или удаляются) по одному за раз к (из) совокупности независимых переменных до тех пор, пока изменения не становятся статистически незначимыми (или значимыми). Кроме того, совокупность переменных может добавляться (или удаляться) в целях оценки их вклада в множественную корреляцию; в этом случае для определения статистической значимости их эффекта применяется F-критерий. Нелинейные связи можно оценить путем включения в правую часть уравнения регрессии членов более высокого порядка и/или мультипликативных членов.
Веса или коэффициенты регрессии определяются с наибольшей надежностью в тех случаях, когда независимые переменные являются относительно некоррелированными. Наличие высоких интеркорреляций между нек-рыми из них называется «мультиколлинеарностью» и приводит к получению коэффициентов регрессии, величина к-рых может заметно и нерегулярно изменяться от выборки к выборке. М. р. широко применяется для решения следующих задач.
1. Получение наилучшего линейного уравнения прогноза.
2. Контроль за смешиванием переменных (факторов).
3. Оценка вклада определенной совокупности переменных.
4. Объяснение сложного на вид многомерного комплекса взаимосвязей.
5. Проведение дисперсионного и ковариационного анализов посредством кодирования уровней независимых переменных.
См. также Множественная корреляция, Методы многомерного анализа
Б. Фрухтер
Множественная семейная терапия (multiple family therapy)
М. с. т. представляет собой подход к решению проблем, разработанный покойным Питером Лакёром. Метод осн. на его опыте работы со стационарными больными шизофренией и представляет собой комбинацию параметров групповой терапии и совместной семейной терапии. Согласно его гипотезе, сеансы одновременной терапии неск. семей дают членам семьи благоприятные возможности для идентификации с другими, что может вести к решению практ. проблем.
В М. с. т. движущей терапевтической силой является не перенос, а идентификация; это означает, что один индивидуум стремится походить на другого или соперничать с ним. Потребность в идентификации и принятии наиболее важна в семьях с больными шизофренией, поскольку наличие такого больного чревато соц. изоляцией семьи. Вследствие этого между членами семьи часто возникают напряженные отношения, вынуждающие их искать поддержки у окружающих. М. с. т. имеет целью лечебное воздействие семей друг на друга, в то время как главным источником лечебного эффекта в индивидуальной терапии является психотерапевт.
Хотя М. с. т. обязана своим происхождением работой с семьями шизофренных больных, ее применение сейчас знач. расширилось и не ограничивается уже исключительно этим контингентом. В ее основе есть 2 предпосылки: а) в семьях можно обнаружить как силу, так и слабость, и б) люди могут учиться друг у друга благодаря идентификации и непрямому научению.
Структура
Семья может оказывать как целебное, так и патогенное воздействие. В ходе своего развития человек многому обучается в семье. Теория М. с. т. исходит из того, что, хотя индивидуум или семья могут обнаруживать несостоятельность в какой-то области, они могут проявлять силу в другой. Метод Лакёра и его коллег заключается в проведении 6—10 сеансов терапии длительностью 90 мин., в к-рых участвуют члены пяти-шести семей, свободно обсуждающие свои проблемы. Психотерапевт играет роль фасилитатора, направляющего дискуссию и приглашающего отдельных участников к комментариям или отреагированию.
Процесс терапии
М. с. т., как и большинство терапий, проводится в неск. этапов. Однако, в отличие от этого большинства, она более ограничена по времени и тематике. В ней выделяются 3 этапа: наблюдение, вмешательство и консолидация. На первом этапе участников побуждают к общему разговору, в ходе к-рого выявляются темы для обсуждения.
М. с. т. ориентирована не на личную динамику, а на решение проблем. На втором этапе акцент делается на взаимодействии, исходя из того, что изменения должны быть взаимными, а не достигаться лишь каким-то одним лицом. Это — трудный этап, поскольку люди часто считают, что решать их проблемы должны другие. Психотерапевт должен обратить внимание на взаимно деструктивное поведение. Эта стадия демонстрирует терапевтические возможности М. с. т., когда отдельные участники помогают психотерапевту в выявлении контрпродуктивных паттернов взаимодействия. Часто используется разыгрывание ролей.
Третий этап представляет собой завершение и консолидацию: оценивание достигнутого прогресса и заключение о достаточности проделанных изменений. Что еще важнее — это время для того, чтобы понять, что изменения осуществимы лишь при условии, что члены семьи мотивированы на продолжение работы над своими отношениями.
Резюме
М. с. т. оказалась в особенности эффективной в работе с городским афро-американским населением и с выписанными из стационара больными. Она дает простор для раскрытия творческого потенциала терапевта и приносит результат в относительно быстрые сроки. Этот подход несложен в обучении и не зависит исключительно от интуиции терапевта.
См. также Поведенческая терапия, Группы достижения изменений
В. Фоули
Модели нейронных сетей (neural network models)
Модели, включающие сети нейроноподобных элементов, приобрели известность в психологии и родственных дисциплинах, когнитивной науке и нейробихевиоральной науке. Такие модели появились тж под предметными заголовками коннекционистских моделей и распределенной параллельной обработки. В области познавательных процессов сети использовались для объяснения таких различных феноменов, как распознавание слов, категоризация, восприятие зрительного паттерна, координированное моторное действие, и неврологические расстройства. В этом отношении, М. н. с. представляют собой резкий отход от прежних теорий, к-рые предполагали манипуляции символической информ. по типу грамматических. Неграмматические и несимволические свойства нейронных сетей тж обусловили их пригодность для объяснения отличных от человеческого видов научения и его нейронных основ.
Нейронные сети предназначены для порождения системы вычислений, к-рая является кооперативной и самоорганизующейся. Т. о. нейронная сеть не содержит в себе к.-л. эксплицитной исполнительной или контролирующей подсистемы. Предполагается, что поведение, к-рое внешне следует правилу, гипотезе или стратегии, возникает из взаимодействий между элементами, ни один из к-рых не содержит правила, гипотезы или стратегии. Несмотря на то что сетевые модели опираются на представление о нейроне, осн. масса этих моделей лишь незначительно ограничивает себя рамками общеизвестной архитектуры и функционирования реальных НС. В очищенном от своих дополнительных значений виде, нейронные сети являют собой единственный тип количественной модели, подпадающей под традиционные критерии проверки любой модели в психологии. Потребовалось широкое использование компьютерного моделирования, чтобы эти модели достигли полного и точного определения через их собственные внутренние операции и механизмы порождения выходных сигналов, позволяющего осуществлять четкие поведенческие прогнозы.
Основные характеристики
Элементы типичной нейронной сети можно описать при помощи двух уравнений, а именно правила активации (или возбуждения) и правила обучения. Правило активации объединяет (суммирует) входы в элемент и формирует уровень выходного сигнала. Вычисления сети связаны с передачей выходных активирующих сигналов заданного уровня от одного элемента на входы др. элементов. Правило обучения изменяет силу активных входов посредством переменных, наз. весами связи. Входной уровень для принимающего элемента обычно определяется произведением воспринимаемого уровня активации и текущего веса связи в принимающем элементе.
Линейный пороговый элемент
Начало совр. правилам активации было положено в работе Мак-Каллока и Питтса, касающейся способности нейронов действовать как логические вентили. На рис. 1 изображен линейный пороговый элемент. В его левой части представлены входные переменные, описываемые как входные уровни активации (Xi) и взвешенные связи (Vi). Каждая переменная может принимать любое вещественное значение. Однако уровни активации обычно задаются двоичными значениями (Xi = 0,1), а веса — значениями в пределах от -1 до +1. Суммарный входной уровень в любой момент времени определяется суммой весов активных входов (Σ [Vi Xi]). Подобно входным уровням активации, выходной сигнал элемента тж представлен двоичными значениями (Y = 0,1). Активация выхода определяется на основе сравнения суммарного входного уровня с пороговой величиной (Θ) по следующей формуле:
Y = 1, если Σ (Vi Xi) > Θ, в противном случае Y = 0.
Рис. 1. Линейный пороговый элемент, в котором Хi — входные уровни активации, Vi — веса связей, Θ — пороговая величина, a Y — выходной уровень активации
Манипулируя весами связи или пороговыми величинами, можно синтезировать общие логические функции. Напр. логический элемент И может быть сконструирован следующим образом. Предположим, что некий элемент имеет два входа (X1, Х2), каждый с весом связи 0,50 (V1 = V2 = 0,50), и что пороговая величина этого элемента Θ = 0,75. Согласно правилу активации Мак-Каллока — Питтса, для того чтобы суммарный входной уровень превысил данную величину порога и тем самым инициировал выход (Y), должны быть активными оба входа (X1 = Х2 = 1). Тот же самый элемент может быть преобразован в логический элемент ИЛИ снижением порога до величины менее 0,50 или повышением веса входов до величины более 0,75. Наконец, для полноты логической системы, можно сконструировать оператор НЕ путем инвертирования правила активации, так что когда суммарный входной уровень превышает величину порога, элемент, который бы в противном случае инициировался (Y = 1), будет выключаться (Y = 0). Это инвертированное правило активации может быть записано как:
Y = 1, если не Σ (Vi Xi) > Θ, тогда Y = 0.
Синаптическая фасилитация
Истоки правил обучения для сетей кроются в идее, сформулированной впервые в общих чертах Хеббом. Коротко говоря, он применил старый закон смежности к уровню нейронной активности и утверждал, что синаптическая передача будет получать выигрыш в эффективности всякий раз, когда пресинаптическая активность оказывается смежной по времени с постсинаптической активностью. На рис. 2 приведен пример хеббовского элемента. Этот хеббовский элемент имеет две входные связи. Один вход (Xi), наз. здесь «сигнальным» входом («cue» input), не обладает изначально весом связи и, следовательно, не способен активизировать элемент. Др. вход (Х0), обычно наз. «обучающим» входом («teacher» input),имеет фиксированный большой вес (V0 = 1), позволяющий активизировать элемент и вызвать «ответный» выход («response» output). При совмещении во времени обоих входов, сигнальный вход будет обеспечивать пресинаптическую активность (Xi), а обучающий вход будет вызывать постсинаптическую активность (Y). В мат. терминах, изменение веса связи (ΔVi) выражается в виде произведения двух уровней активности. Это правило обучения может быть записано как ΔVi = сХiY, где с — коэффициент пропорциональности (0 < с < 1).
Рис. 2. Хеббовский адаптивный элемент, в котором Xi — уровень сигнального входа, Vi — адаптивный вес связи, Х0 — уровень обучающего входа, a Y — уровень выходной реакции
Если по хеббовскому правилу научение находится в строгой зависимости от смежности уровней активации, согласно др. правилам научение зависит от ошибки в способности веса сигнального входа соответствовать обучающему входу. Одно из наиболее часто используемых правил этого рода известно под разными наименованиями: правило допустимой ошибки (дельта), правило Ресколы — Вагнера (the Rescorla — Wagner rule), правило Видроу — Хоффа (the Widrow — Hoff rule)и правило наименьших средних квадратов (least-mean squares rule). При наличии множества одновременных сигнальных входов это правило может быть записано как ΔVi = с (V0X0 — Σ [Vi Xi]) Xi. Анализ этого правила показывает, что когда суммарный вход (Σ [Vi Xi]) существенно отличается от активации, вызываемой обучающим входом (V0 X0), это приводит к резкому изменению веса связи каждого подходящего входа (ΔVi). И наоборот, когда это различие мало, изменение также будет малым.
Правило исправления ошибок (error-correction rule)оказывается более сложным, чем хеббовское правило смежности, однако имеет 3 осн. преимущества при моделировании ассоциативного обучения.
1. Самоограничивающиеся приращения. Тогда как правило смежности порождает веса связи, к-рые растут линейно, правило исправления ошибок является самоограничивающимся. Эта его особенность производит отрицательное ускорение, к-рое можно наблюдать в большинстве кривых научения.
2. Обратимость. Правило смежности продуцирует только положительные приращения в научении, тогда как правило исправления ошибок порождает не только положительные, но и отрицательные приращения (или затухание). В частности, в правиле смежности, отсутствие обучающего входа (Х0)исключает любые приращения, но при этом не влечет эффекта затухания. В свою очередь, в правиле исправления ошибок, отсутствие обучающего входа означает, что вычитаемый член уравнения принимает отрицательные значения (-Σ [Vi Xi]), тем самым производя понижение веса связи (Vi). Т. о., правило исправления ошибок может отслеживать изменения прогнозируемого значения «сигнального» входа для определенного «обучающего» входа.
3. Избирательность. Когда имеется множество сигналов, хеббовское правило смежности применяется независимо к каждому входу. В отличие от него, правило исправления ошибок предполагает, что изменение ассоциативной силы для каждого входа зависит от результирующей ошибки по всем активным входам. Напр., если определенный набор сигнальных входов уже приобрел высокие веса, то тогда разность членов (V0X0 — Σ [Vi Xi]) будет приближаться к нулю и тем самым препятствовать приобретению веса дополнительными, одновременно действующими сигналами. Т. о., избыточные сигналы будут эффективно подавляться. Кроме того, если ни одни из сигнальных входов не обладает предварительным преимуществом, общий вес связи будет распространяться на все одновременно действующие сигнальные входы. В результате, элемент может «настраиваться» так, что он будет активизироваться только определенной конфигурацией входов, а не к.-л. одним из этих входов.
Основные архитектуры
Несмотря на то что материалом для строительных блоков нейронных сетей являются отдельные элементы, мн. из эмерджентных свойств сети определяются архитектурой их взаимосвязей. Существуют 2 осн. архитектуры, встречающиеся в большинстве моделей, а именно, сети, содержащие множество слоев элементов, и сети, в к-рых выходы возвращаются в качестве входов в сеть.
Многослойные сети
Пример простой многослойной сети приведен на рис. 3. Эта сеть имеет два входа (A, В), каждый из к-рых проецируется на два элемента (X, R). Элемент X,находящийся между событиями на входе и выходным элементом наз. скрытым элементом. Эта небольшая сеть содержит пять модифицируемых связей, а именно A-Х, A-R, В-Х, B-R и X-R.
Рис. 3. Конфигурация многослойной сети, подчиняющейся правилу исключающего ИЛИ
Многослойные сети сыграли решающую роль в разрешении вопросов репрезентации стимула и формирования понятий, вызывавших трудности у традиционных психол. теорий и однослойных сетевых моделей. В частности, многослойные сети обеспечивают базис для обучения произвольному отображению (arbitrary mapping)входных паттернов стимулов в выходные паттерны реакций. Ключевая проблема оказалась связанной с нелинейными отображениями. При таком отображении, желаемая реакция на определенное сочетание входов не является аддитивной функцией реакций на отдельные входы. Примером простейшего нелинейного отображения является правило исключающего ИЛИ. Правило исключающего ИЛИ требует реакции на каждый из двух входов, предъявляемых по отдельности, но не на их совместное появление. Напр., мн. люди обнаруживают следование правилу исключающего ИЛИ в своих вкусовых предпочтениях. Человек может с удовольствием есть лакрицу, но отказываться есть картофель с лакричной приправой. Если бы отдельные отображения стимул — реакция являлись строго аддитивными, картофель с лакричной приправой съедался бы с большим удовольствием.
Вообще говоря, можно преобразовать нелинейную задачу в линейную, постулируя особый вход для совместного появления осн. стимульных входов. Однако, когда число осн. входов увеличивается, эта тактика приводит к бурному росту числа особых входов. Более общее решение заключается во введении механизма обучения, к-рый формирует специализированные кодировки совместных входов по мере возникновения такой необходимости. Многослойные сети обладают этой способностью. Коротко говоря, установление подходящих весов связей от стимульных входов к скрытым элементам создает блоки, специализированные для конкретной комбинации входов. Связи между скрытыми элементами и выходными элементами обеспечивают отображение этих специализированных блоков в соотв. выходные реакции.
Небольшая сеть, показанная на рис. 3, имеет конфигурацию, позволяющую проиллюстрировать поведение согласно правилу исключающего ИЛИ. В этой конфигурации вход A сам по себе не может активизировать элемент X,т. к. вес связи А — X не превышает величины порога X,однако вход A может активизировать элемент R,т. к. его порог оказывается достаточно низким для того чтобы связь A — R оказалась эффективной. Точно так же, вход В может активизировать лишь узел R. Т. о., входы A и В могут каждый по отдельности активизировать выход этой сети. Однако, согласно правилу исключающего ИЛИ, взятые вместе входы А и В будут подавлять выход. Это происходит потому, что суммарный вес связей входов А и В будет активизировать элемент X, а этот элемент X имеет большую отрицательную связь с элементом R. Следовательно, совместное появление входов А и В аннулирует их индивидуальные положительные связи с элементом R.
Автоассоциативные сети
Пример небольшой автоассоциативной сети показан на рис. 4.
Рис. 4. Автоассоциативная сеть, в которой все выходные уровни могут связываться со входными уровнями
Каждый из пяти элементов (А, В, С, D, Е)получает один внешний вход (a, b, с, d, e). Эти внешние входы обладают фиксированными связями, каждая из к-рых способна активизировать выход из соотв. элементов. Кроме того, каждый элемент получает пять возвратных входов, по одному на каждый выход из элементов, включ. его собственный. Напр., как показано на рис. 4, элемент С имеет пять связей, обозначенных как Aс, Bc, Сс, Dc и Еc. Эти связи являются модифицируемыми и функционируют в соответствии с теми же самыми правилами обучения, что и единственный элемент или многослойная сеть. Т. о., всякий раз, когда выход и вход являются активными, на их пересечении может возникать эффективная связь.
Помимо др. вещей, автоассоциативные сети могут реализовывать 3 функции, к-рые представляют особый интерес для психологии.
1. Завершение паттерна. Если множество взаимосвязей было хорошо определено в автоассоциативной сети, тогда уже часть исходных входов может восстановить полное множество выходов. Напр., предположим, что для сети, изображенной на рис. 4, неоднократно предъявлялись входы а и е. Отсюда следует, что установились бы четыре взаимосвязи, а именно Аа, Ае, Еа и Ее, к-рые локализованы в четырех углах матрицы пересечений. Впоследствии вход а сам по себе активизировал бы оба выхода, А и Е, через связи Аа и Ае. Точно так же, вход е активизировал бы оба выхода через связи Еа и Ее.
2. Помехоустойчивость.
3. Суперпозиционная память. Автоассоциативные сети могут хранить огромное количество наборов входов. Это свойство позволяет им извлекать как прототипические паттерны, так и специфические образцы. Напр., Мак-Клелланд и Румельхарт продемонстрировали, что сеть, состоящая из 24 элементов и 552 потенциальных взаимосвязей, могла бы хранить и надежно извлекать 3 различных прототипических паттерна, каждый из к-рых осн. на 50 различных образцах. Они показали, что паттерн для по меньшей мере одного конкретного образца тж может быть извлечен, если этой сети представлено подмножество входов, корреспондирующих с именным признаком (пате tag)этого образца. Сходным образом, Кохонен показал, что сеть, состоящая из 3024 элементов, могла бы хранить и извлекать цифровые фотографии 100 различных лиц.