Библиографический список к главе 3
1. Bishop C. M. Neural Networks for Pattern Recognition. — Oxford University Press, 1995. — 496 p.
2. Комарцова Л. Г., Максимов А. В. Нейрокомпьютеры. — М: Изд-во МГТУ им. Н. Э. Баумана, 2004. — 400 с.
3. Ежов А. А., Шумский С. А. Нейрокомпьютинг и его применения в экономике и бизнесе. — М.: МИФИ, 1998. — 222 с.
4. Swingler K. Applying Neural Networks. A Practical Guide. —Academic Press, 1996. — 303 p.
5. Снитюк В. Є. Прогнозування. Моделі. Методи. Алгоритми. — Київ: Маклаут, 2008. — 364 с.
6. Паклин Н. Б., Орешков В. И. Бизнес‑аналитика: от данных к знаниям. — СПб.: Питер, 2013. — 704 с.
7. Анализ данных и процессов / А. А. Барсегян, М. С. Куприянов, И. И. Холод, М. Д. Тесс, С. И. Елизаров. — СПб.: БХВ-Петербург, 2009. — 512 с.
8. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999. — 270 с.
9. Загоруйко Н. Г., Кутненко О. А. Цензурирование обучающей выборки // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. — 2013. — № 1 (22). — С. 66–73.
10. Воронцов К. В. Математические методы обучения по прецедентам. [Электронный ресурс].
URL: http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf (дата обращения: 10.04.2015).
11. Литтл Р. Дж. А., Рубин Д. Б. Статистический анализ данных с пропусками. — М.: Финансы и статистика, 1991. — 336 с.
12. Злоба Е., Яцкив И. Статистические методы восстановления пропущенных данных // Computer Modelling & New Technologies. —2002, vol. 6. — № 1. — P. 51–61.
13. Handbook of Missing Data Methodology / Molenberghs G., Fitzmaurice G., Kenward M. G., Tsiatis A., Verbeke G. — Chapman and Hall/CRC, 2014. — 600 p.
14. Allison P. D. Missing Data. — SAGE Publications, 2001. — 104 p.
15. Craig E. K. Applied Missing Data Analysis. — Guilford Press, 2010 — 377 p.
16. Graham J. W. Missing Data: Analysis and Design. — Springer, 2012. — 360 p.
17. Imputation (statistics). [Электронный ресурс].
URL: http://en.wikipedia.org/wiki/Imputation_(statistics) (дата обращения: 10.04.2015).
18. Carpenter J., Kenward M. Multiple Imputation and its Application. — Wiley, 2013. — 364 p.
19. Кластерный метод восстановления пропусков в данных для обучения ИНС / В. В. Аюев, 3. Е. Аунг, Чжо Мин Тейн, М. Б. Логинова // Нейрокомпьютеры: разработка, применение. — 2009. — № 7. — С. 23–34.
20. Горбаченко В. И. Вычислительная линейная алгебра с примерами на MATLAB. —СПб.: БХВ‑Петербург, 2011. — 320 с.
21. Большаков А. А., Каримов Р. Н. Методы обработки многомерных данных и временных рядов. — М.: Горячая линия‑Телеком, 2007. — 522 с.
22. Миркес Е. М. Нейроинформатика. — Красноярск: ИПЦ КГТУ, 2002. — 347 с.
23. Предварительная обработка данных (часть 2). [Электронный ресурс]. URL: http://iissvit.narod.ru/rass/vip26.htm(дата обращения: 10.04.2015).
24. Прикладная статистика. Классификация и снижение размерности / С. А. Айвазян, В. М. Бухштабер, И. С. Енюков, Л. Д. Мешалкин. — М.: Финансы и статистика, 1989. — 607 с.
25. Фукунага К. Введение в статистическую теорию распознавания образов. — М.: Наука. Главная редакция физико‑математической литературы, 1979. — 368 с.
26. Куликов Е. И. Прикладной статистический анализ. — М.: Горячая линия–Телеком, 2008. — 464 с.
27. Вуколов Э. А. Основы статистического анализа. Практикум по статистическим методам и исследованию операций с использованием пакетов STASISTICA и EXCEL. — М.: ФОРУМ: ИНФРА–М, 2004. — 2004. — 464 с.
28. Галушкин А. И. Нейронные сети: основы теории. — М.: Горячая линия–Телеком, 2010. — 496 с.
29. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Множественная регрессия. — М.: Вильямс, 2007. — 912 с.
30. Воронцов К. В. Лекции по методам оценивания и выбора моделей. [Электронный ресурс].
URL: http://www.machinelearning.ru/wiki/images/2/2d/Voron-ML-Modeling.pdf
(дата обращения: 10.04.2015).
31. Liu H., Motoda H. Computational Methods of Feature Selection. — Chapman and Hall/CRC, 2007. — 440 p.
32. Осовский С. Нейронные сети для обработки информации. — М.: Финансы и статистика, 2002. — 344 с.
33. Хайкин С. Нейронные сети: полный курс. — М.: Вильямс, 2006. — 1104 с.
34. Good P. I. Resampling Methods: A Practical Guide to Data Analysis. — Birkhäuser, 2006. — 228 p.
35. Шитиков В. К., Розенберг Г. С. Рандомизация и бутстреп: статистический анализ в биологии и экологии с использованием R. — Тольятти: "Кассандра", 2013. — 305 с. [Электронный ресурс].
URL: http://www.ievbras.ru/ecostat/Kiril/Article/A32/Starb.pdf
(дата обращения: 10.04.2015).
36. Эфрон Б. Нетрадиционные методы многомерного статистического анализа. — М.: Финансы и статистика, 1988. — 263 с.
37. Орлов А. И. Эконометрика. — М.: "Экзамен", 2004. — 576 с.
38. Медведев В. С., Потемкин В. Г. Нейронные сети. MATLAB 6. — М.: ДИАЛОГ‑МИФИ, 2002. — 496 с.
39. Перекрёстная энтропия. [Электронный ресурс].
URL: http://ru.wikipedia.org/wiki/Перекрёстная_энтропия (дата обращения: 10.04.2015).
40. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.
41. Masters T. Practical Neural Network Recipies in C++. — Morgan Kaufmann, 1993. — 493 p.
42. Widrow B., Lehr M. A. 30 years of adaptive neural networks: perceptron, Madaline, and backpropagation // Proceedings of the IEEE. — 1990, Volume 78. — No. 9. — P. 1415–1442.
43. Гладков Л. А., Курейчик В. В., Курейчик В. М. Генетические алгоритмы. — М.: ФИЗМАТЛИТ, 2010. — 368 с.
44. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. — М: Горячая линия-Телеком, 2004. — С. 452.
45. Рутковский Л. Методы и технологии искусственного интеллекта. — М: Горячая линия-Телеком, 2010. — С. 520.
46. Цой Ю. Р., Спицын В. Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Электронный журнал "Нейроинформатика". — 2006, том 1. — № 1. — С. 34–61. [Электронный ресурс]. URL: http://www.niisi.ru/iont/ni/Journal/N1/TsoySp.pdf
(дата обращения: 10.04.2015).
47. Цой Ю. Р. Введение в нейроэволюционный подход: основные концепции и приложения // Научная сессия МИФИ - 2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 43–76.
48. Руденко О. Г., Бодянський Є. В. Штучні нейронні мережі. — Харків: ТОВ "Компанія СМІТ", 2006. — 404 с.
49. Тихонов А. Н., Арсенин В. Я. Методы решения некорректных задач. — М.: Наука, 1986. — 288 с.
50. Кудрявцев Л. Д. Краткий курс математического анализа. Т. 2. Дифференциальное и интегральное исчисления функций многих переменных. Гармонический анализ. — М.: ФИЗМАТЛИТ, 2003. — 425 с.
51. Бертсекас Д. Условная оптимизация и методы множителей Лагранжа. — М.: Радио и связь, 1987. — 400 с.
52. Канторович Л. В., Акилов Г. П. Функциональный анализ. — СПб.: Невский Диалект, БХВ‑Петербург, 2004. — 816 с.
53. Нейронные сети. STATISTICA Neural Networks: Методология и технологии современного анализа данных / Под редакцией В. П. Боровикова. — М.: Горячая линия‑Телеком, 2008. — 392 с.
54. Bishop C. M. Training with noise is equivalent to Tikhonov regularization // Neural Computation. — 1995, vol. 7. — Issue 1. — P. 108–116.
55. Beale M. H., Hagan M. T., Demuth H. B. MATLAB R2013b. Neural Network Toolbox Getting Started Guid. — The MathWorks, Inc. — 130 p.
56. ГОСТ Р 50779.10-2000 (ИСО 3534-1-93). Статистические методы. Вероятность и основы статистики. Термины и определения. — М.: Госстандарт России, 2005. — 42 с.
57. Терехов С. А. Гениальные комитеты умных машин // Научная сессия МИФИ-2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 11–42.
58. Воронцов К. В. Лекции по алгоритмическим композициям.
[Электронный ресурс].
URL: http://www.ccas.ru/voron/download/Composition.pdf (дата обращения: 10.04.2015).
59. Гончаров М. Ансамбли моделей. [Электронный ресурс].
URL: http://www.businessdataanalytics.ru/download/ModelEnsembles.pdf
(дата обращения: 10.04.2015).
60. Breiman L. Bagging predictors // Machine Learning. — 1996, Vol. 24. — No. 2. —P. 123–140.
61. Freund Y., Schapire R. E. A short introduction to boosting // Journal of Japanese Society for Artificial Intelligence. — 1999, Vol. 14. — No 5. — P. 771–780.
62. Schapire R. The boosting approach to machine learning: An overview // Nonlinear Estimation and Classification. — Springer, 2003. — 149–171.
[1] Кохонен Т. Самоорганизующиеся карты. — М.: БИНОМ. Лаборатория знаний, 2008. — С. 11.
[2] В [32] компоненты вектора имеют противоположные знаки, это объясняется тем, что вычисляются коллинеарные собственные векторы.
[3] Вапник Владимир Наумович (1936) — крупный специалист в области машинного обучения. С 1990 г. работает в США. С 2003 г. является профессором колледжа Royal Holloway Лондонского университета и профессором Колумбийского университета в Нью-Йорке.
Червоне́нкис Алексей Яковлевич (1938–2014) — российский ученый, ведущий сотрудник Института проблем управления им. В. А. Трапезникова РАН, профессор колледжа Royal Holloway Лондонского университета.