Речь - это одномерное изображение. Смотри определение.
Компьютеризированные нейронные сети могут "научиться" моделировать поведение мозга, включая распознавание объектов, персонажей, голосов и звуков тем же способом, каким это делает мозг.
Сегодня к проблематике ИИ относятся задачи, связанные со зрительным и слуховым восприятием, пониманием изображений, пониманием естественного языка (текста или речи), умением рассуждать, выявлением закономерностей, планированием действий и др.
В интеллектуальных информационных системах происходит преобразование речевых сигналов с микрофона в последовательность цифровых кодов, с обязательным сохранением смысловых компонентов речи.
1. Сформулируйте задачу обучения с учителем?
1. Заданы два конечных множества точек – соответственно первого и второго образов.
2. Строим поверхность, разделяющую эти множества, чтобы точки первого класса лежали по одну, сторону поверхности, а точки второго - по другую.
3. Для классификации нового объекта достаточно теперь установить, по какую сторону от построенной поверхности находится соответствующая точка фазового пространства.
4. Неизвестные нам образы заменяются двумя полупространствами, лежащими по разные стороны от найденной разделяющей поверхности. ( ПРЕДПОЛОЖЕНИЕ)
ХОРОШО только переставить местами 4 и 3.
+++++++
Например:
Некий исследователь в области образования может захотеть исследовать, какие переменные относят выпускника средней школы к одной из трех категорий: поступающий в колледж, поступающий в профессиональную школу, отказывающийся от дальнейшего образования.
Медик может регистрировать различные переменные, относящиеся к состоянию больного, чтобы выяснить, какие переменные лучше показывают, что пациент, вероятно, выздоровел полностью, частично или совсем не выздоровел.
Имеется единственная уникальная работа по использованию методов машинного обучения для классификации изумрудов. В соответствии с принятыми в сфере машинного обучения методами вначале нейронная сеть обучалась на 2/3 образцов, затем качество ее обучения проверялось на остальных образцах.
2. Какие входные данные для задачи ДА?
Данные, с помощью которых строится решающее правило, называются признаками систем и подсистем множеств.
· Признаковое описание — наиболее распространённый случай. Каждый объект описывается набором своих характеристик, называемых признаками. Признаки могут быть числовыми или нечисловыми.
· Матрица расстояний между объектами. Каждый объект описывается расстояниями до всех остальных объектов обучающей выборки. С этим типом входных данных работают немногие методы, в частности, метод ближайших соседей, метод парзеновского окна, метод потенциальных функций.
· Временной ряд или сигнал представляет собой последовательность измерений во времени. Каждое измерение может представляться числом, вектором, а в общем случае — признаковым описанием исследуемого объекта в данный момент времени.
· Изображение или видеоряд.
· Встречаются и более сложные случаи, когда входные данные представляются в виде графов, текстов, результатов запросов к базе данных, и т. д. Как правило, они приводятся к первому или второму случаю путём предварительной обработки данных и извлечения признаков.
Классификацию сигналов и изображений называют также распознаванием образов.
Входные --- Обучающая выборка проверочная и контрольная выборки
3. Определение решающего правила.
Решающее правило, т.е. правило отнесения произвольного объекта с известными значениями измеряемых параметров к тому или иному классу.
Алгоритм отнесения объектов к разным классам называется решающим правилом.
В принципе ДА. но лучше взять определение из лекций.
++---
4. Как называются данные с помощью которых строится решающее правило?
Массив входных данных разбитый на обучающею, проверочную, и контрольную выборку.
· Обучающая выборка --- Блок обучения и учитель знают к какому образу относятся объекты.
· Проверочная выборка – блок проверки и учитель знает к какому образу относятся объекты
· Контрольная (рабочая) выборка – подается только на блок распознавания, только учитель может знать или не знать к какому образу относятся объекты.
+++++++
5. Для чего нужна проверочная выборка?
Проверочная выборка – блок проверки и учитель знает к какому образу относятся объекты
При обучении с учителем набор исходных данных делят на две части — собственно обучающую выборку и тестовые данные; принцип разделения может быть произвольным. Обучающие данные подаются сети для обучения, а проверочные используются для расчета ошибки сети (проверочные данные никогда для обучения сети не применяются).
++++++
6. Для чего нужна обучающая выборка?
· Обучающая выборка --- Блок обучения и учитель знают к какому образу относятся объекты.
· Выборка, по элементам которой производится поиск решающего правила, называется обучающей. Выборка делится на две части: по одной из которых строят решающее правило (обучающая), а по второй проверяют качество работы этого правила (Контрольная). -- ПРОВЕРОЧНАЯ
· Обучающее множество сопровождается меткой, указывающей класс, к которому относится наблюдение
для построения решающего правила
Новые данные классифицируются на основании обучающего множества
7. Для чего нужна контрольная выборка?
Контрольная ( рабочая) выборка – подается только на блок распознавания, только учитель может знать или не знать к какому образу относятся объекты.
Механизм контрольной проверки заключается в том, что некоторая часть обучающих наблюдений резервируется, т.е. подгонка коэффициентов модели и поиск минимума ошибки сети по ним не осуществляется.
Эти измерения, как и в алгоритмах, используются только для независимого контроля результата и называются контрольной выборкой. Если разбиение на обучающее и контрольное множества было выполнено однородно, то, по мере того как сеть обучается, ошибка обучения и ошибка на контрольном множестве будут одновременно уменьшаться.
Если же контрольная ошибка перестала убывать или даже стала расти, это указывает на то, что сеть стала чересчур точно аппроксимировать данные и наступает фаза переобучения. В этом случае следует уменьшить число А-элементов или слоев сети.
++++++
8. В какую выборку задачи ДА надо поместить неизвестный объект ?
Контрольная (рабочая) выборка – подается только на блок распознавания, только
учитель может знать или не знать к какому образу относятся объекты.
Т.Е. неизвестный объект необходимо поместить в контрольную выборку.
++++++
Определение неформализованной задачи
1)Характерные признаки неформализованных задач
1.Входные данные :Неполные
Ошибочные
Неоднозначные и\или противоречивые
Переопределенные
2.Алгоритм:Неизвестна модель решения задачи
Алгоритм неизвестен или переборного типа
3.Выход: оценить выход не можем
Многомерный результат
Данные противоречивы
Направления ИИС
1-Распознавание образов
2-Нейронный сети
3-Анализ изображений
4-Нечеткая логика
5-Языки (ИИ)Prolog
6-Экспертные системы
2)Образ-множество объектов
Объект- n-мерный вектор(обладающий признакам)
Признак- координаты объекта
3)Обучающая выборка-Знает ПК и учитель к какому
образу Относятся объекты
Вероятность обучающей выборки 100 , математически доказано.
4)Проверочная выборка- ПК Знает блок «проверка» и учителем к какому образу отклоняется объект
Вероятность проверочной выборки-
5)контрольная выборка- Знает только учитель, к какому образу относятся объекты
Обучающая выборка Образ 1 |
Проверочная выборка Образ 1 |
Обучающая выборка Образ 2 |
Проверочная выборка Образ 2 |
Контрольная выборка Образ 1 |
Образ 2 |
Вероятность контрольной выборки-
6)ШИЗ: 0-65 неудовлетворительно
65-75 удовлетворительно
75-95(вкл)Хорошо
95-100 Отлично
Задача обучения без учителя
7)задача обучения с учителем. Известны A1ÌA B1ÌB
Задача классификации
|
|
F(x)={f(x)<0 xÎB1
2-распознавание x’-неизвестный объект
|
X'ÎA-неизвестно
X’ÎB-неизвестно
3-решение
F(x)>0 =-> xÎA
|
r(обучения)= (1- )*100%
Решающее правило, правило с помощью которого можно было бы достаточно надежно классифицировать объекты (векторы) из классов .
8) Теорема Новикова.
Для любой обучающей выборки(A’ÈB’,AÇB= 0’) за конечное время можно построить линейную функцию с вероятностью обучения 100%.
9-Задача обучения без учителя.
- Постановка вход –массив объектов выход - таксоны
- Таксон – образ в таксономии ( сгущение).
R0 –радиус сгущения (задается на входе).
R0>[xi - xj] – таксон.
10- Анализ изображений.
|
|
11- Изображение— массив мегабайт точек ( пикселей),
яркость=f(x,y), Связь между пикселями существенна, объекты ( графы) занимают не большую часть изображения, информация объектах переопределена ( объекты занимаю <50% изображения).
12- Алгоритмы предварительной обработки
На настоящее время существуют общепризнанные два класса алгоритмов:
1. класс выделения границ, анализ формы контуров;
2. класс анализа внутренних свойств объекта, текстура.
13-Сегментация изображения
Сегментация изображений
26-Звук S(t)
Изображение f(x,y)
звук в компьютере (одномерный массив чисел)
изображение в компьютере (двумерный массив чисел)
20- постановка задачи анализа изображений. Вход и выход задачи.
Вход-изображение, выход-название объектов
21. Нейронная сеть -(сложная функция(функция от функций);) - суперпозиция функций f1(f1(f1(нейр.,нейр.))),аргументами которой являются нейроны
· НС=(G,нейрон),
где G-ориентированный взвешенный граф, который имеет несколько стоков и истоков, вес нейрон.
Нейрон= f( wixi+bi),
где wi-вес,xi-вход, bi-сигнал.
ИНС может рассматриваться как направленный граф со взвешенными связями, в котором искусственные нейроны являются узлами.
По архитектуре связей ИНС могут быть сгруппированы в два класса: сети прямого распространения, в которых графы не имеют петель, и рекуррентные сети, или сети с обратными связями.
n 22. Звук-изображение,функция от одной координаты
Определение неформализованной задачи
1)Характерные признаки неформализованных задач
1.Входные данные :Неполные
Ошибочные
Неоднозначные и\или противоречивые
Переопределенные
2.Алгоритм:Неизвестна модель решения задачи
Алгоритм неизвестен или переборного типа
3.Выход: оценить выход не можем
Многомерный результат
Данные противоречивы
Направления ИИС
1-Распознавание образов
2-Нейронный сети
3-Анализ изображений
4-Нечеткая логика
5-Языки (ИИ)Prolog
6-Экспертные системы
2)Образ-множество объектов
Объект- n-мерный вектор(обладающий признакам)
Признак- координаты объекта
3)Обучающая выборка-Знает ПК и учитель к какому
образу Относятся объекты
Вероятность обучающей выборки 100 , математически доказано.
4)Проверочная выборка- ПК Знает блок «проверка» и учителем к какому образу отклоняется объект
Вероятность проверочной выборки-
5)контрольная выборка- Знает только учитель, к какому образу относятся объекты
Обучающая выборка Образ 1 |
Проверочная выборка Образ 1 |
Обучающая выборка Образ 2 |
Проверочная выборка Образ 2 |
Контрольная выборка Образ 1 |
Образ 2 |
Вероятность контрольной выборки-
6)ШИЗ: 0-65 неудовлетворительно
65-75 удовлетворительно
75-95(вкл)Хорошо
95-100 Отлично
7)задача обучения с учителем. Известны A1ÌA B1ÌB
1-построить f(x)-решающее правило
F(x)={f(x)³0 xÎA1
F(x)={f(x)<0 xÎB1
2-распознавание x’-неизвестный объект
F(x)-решающее правило
X'ÎA-неизвестно
X’ÎB-неизвестно
3-решение
F(x)>0 =-> xÎA
F(x)<0 =>xÎИ
r(обучения)= (1- )*100%
8) Теорема Новикова.
Для любой обучающей выборки(A’ÈB’,AÇB= 0’) за корнечное время можно построить линейную функцию с вероятностью обучения 100%.
9-Задача обучения без учителя.
- Таксон – образ в таксономии.
R0 –радиус сгущения (задается на входе).
R0>[xi - xj] – таксон.
10- Анализ изображений.
|
|
11- Изображение— массив мегабайт точек ( пикселей), яркость=f(x,y), Связь между пикселями существенна, объекты ( графы) занимают не большую часть изображения.
12- Алгоритмы предварительной обработки
На настоящее время существуют общепризнанные два класса алгоритмов:
3. класс выделения границ, анализ формы контуров;
4. класс анализа внутренних свойств объекта, текстура.
13-Сегментация изображения
Сегментация изображений
26-Звук S(t)
Изображение f(x,y)
звук в компьютере (одномерный массив чисел)
изображение в компьютере (двумерный массив чисел)
20- постановка задачи анализа изображений. Вход и выход задачи.
Вход-изображение, выход-название объектов
21. Нейронная сеть -(сложная функция(функция от функций);) - суперпозиция функций f1(f1(f1(нейр.,нейр.))),аргументами которой являются нейроны
· НС=(G,нейрон),
где G-ориентированный граф,который имеет несколько стоков и истоков.
· Нейрон= f( wixi+bi),
где wi-вес,xi-вход, bi-сигнал.
n 22. Звук-изображение,функция от одной координаты
Следствие Теоремы Колмогорова - любую задачу можно решить с помощью нейронной сети
Решающее правило - такая поверхность, что образы разных классов находятся по разные стороны этой поверхности.
Постановка дискриминантного анализа
4. Какие методы построения функции принадлежности вы знаете
Функцией принадлежности называется функция, позволяющая для произвольного элемента универсального множества вычислить степень его принадлежности нечеткому множеству.
Два метода построения функций принадлежности:
- Первый метод основан на статистической обработке мнений группы экспертов. Каждый эксперт заполняет анкету, в которой указывает свое мнение о наличии у элементов свойств нечеткого множества . По результатам анкетирования степени принадлежности рассчитываются так:
Где K – количество экспертов
bkji - мнение k-го эксперта о наличии у элемента свойст ui свойств нечеткого множества
- Второй метод базируется на парных сравнениях, выполняемый одним экспертом.
Для каждой пары элементов универсального множества эксперт оценивает преимущество одного элемента над другим по отношению к свойству нечеткого множества. Такие парные сравнения удобно представлять матрицей:
Где - уровень преимущества элемента над определяемый по девятибалльной шкале Саати
Ответы на вопросы для аттестации
Выполнили: Тагильцев Евгений, Князева Татьяна
1. Геометрическое представление нейронной сети
Два Полу пространства полученных с помощью разделяющей прямой или плоскостью
2. В чем заключается отличие свойств логических операций над нечеткими множествами и логическими операциями над обычными множествами
Свойства нечетких множеств