Нейронные сети в медицинских технологиях
Нейронные сети используются для следующих задач:
1. Прогнозирование (распознавание изображений, образов, задачи классификации)
2. Задачи оптимизации
3. Автоматическое управление
Многослойный персептрон
Нейроны 1-го слоя выполняют нормировку полученных сигналов. 1-й слой состоит из m нейронов (количество нейронов равно размерности пространства признаков)
Выходной слой для решения задач классификации должен содержать столько нейронов, сколько у нас классов. Каждый нейрон выходного слоя привязан к определенному классу.
Считается, что объект принадлежит классу Ks, если выходной сигнал yks больше остальных.
Обучение проходит по обучающей выборке.
0. Начальная активация (нулевое приближение весов. Их выбирают случайным образом в диапазоне (-1, +1).
1 этап (эпоха). На вход персептрона последовательно подаются объекты
1) подается первый объект. От последнего слоя к первому поступает поправка весов. Следующий объект уже работает с поправкой
…
n)
(n – объем обучающей выборки)
2 этап. Если обучение не произошло успешно, то повторяется первый этап
Проверка:
- контрольная выборка
- скользящий экзамен
Возможны 2 ошибки:
1. Недообучение: сеть с заданной точностью не распознает объекты из обучающей выборки
· В промежуточный слой добавляют нейроны
· Добавляют промежуточный слой
2. Переобучение: видим то, чего нет
Сети радиальных базисных функций
Каждый р.б.нейрон задаётся гаусовой функцией распределения:
μ – центр радиального базисного нейрона; σ – радиус радиального базисного нейрона
Архитектура сети:
Входной слой состоит из m нейронов (m – размерность пространства признаков). Выходной слой состоит из k нейронов (k – количество классов). Промежуточный слой один, состоит из радиальных базисных нейронов, количество которых не известно.
Обучение состоит в определении μ и σ для каждого базисного нейрона.
Определение μ:
1. Центры выбираются случайно
2. Алгоритм k-среднего. Предполагается, что все объекты можно разбить на k кластеров. Для каждого кластера выбираются центры. Для всех объектов обучающей выборки вычисляется расстояние до всех центров. Каждый объект относится к тому кластеру, расстояние до центра которого наименьшее. Затем повторяется то же самое, но с другими центрами.
Условие остановки: алгоритм завершает работу, когда центры классов на каком-то шаге перестают меняться.
Определение σ: метод ближайших соседей.
Вероятностные сети
Используются р.б. нейроны, объединённые в группы (на каждый класс группа).
Каждый выходной нейрон получает сигналы только от р.б. нейронов своего класса.
P1 = Y1/(Y1+Y2) - вероятность того, что объект принадлежит первому классу
P2 = Y2/(Y1+Y2) - вероятность того, что объект принадлежит второму классу
Объект принадлежит тому классу, для которого Р больше.
обучение:
xis -> yis
получаем P(x1s),...,P(xnss) -> fs(x) - оценка на основе плотности в m-мерном пространстве