Вход

Разработка методов поиска решения на базе нейросетевых технологий для экспертных систем,основанных на прецедентах.

Рекомендуемая категория для самостоятельной подготовки:
Курсовая работа*
Код 324939
Дата создания 08 июля 2013
Страниц 40
Мы сможем обработать ваш заказ (!) 25 апреля в 12:00 [мск]
Файлы будут доступны для скачивания только после обработки заказа.
1 310руб.
КУПИТЬ

Содержание

ПЕРЕЧЕНЬ СОКРАЩЕНИЙ, СИМВОЛОВ И СПЕЦИАЛЬНЫХ ТЕРМИНОВ
Введение
Глава1 Исследование методов поиска решения на базе ИНС для экспертных систем, основанных на прецедентах.
1.1 Рассуждения на основе прецедентов
1.2 Экспертная система
1.3 Анализ существующих средств разработки экспертных систем
1.4 Обзор методов поиска решения на базе ИНС для экспертных систем, основанных на прецедентах
Глава2 Анализ существующих разработок и выбор типа ИНС и метода обучения ИНС для реализации поиска решения на основе прецедентов.
2.1 Анализ существующих разработок
2.2 Выбор метода обучения ИНС для реализации поиска решения на основе прецедентов
2.3 Разработка алгоритмы обучения ИНС для реализации поиска решения на основе прецедентов
Разработка алгоритмы обучения ИНС для реализации поиска решения на основе прецедентов с использованием различных метрик и с учетом коэффициентов важности параметров объекта
Глава 3 Программная реализация базовых модулей поиска решения на базе ИНС для экспертных систем, основанных на прецедентах.
3.2. Результаты Отладки, тестирование и реализация демонстрационного примера
Заключение
Список использованной литературы
Электроные ресурсы


Введение

Разработка методов поиска решения на базе нейросетевых технологий для экспертных систем,основанных на прецедентах.

Фрагмент работы для ознакомления

Шум 40%
Среднее
Heart
1
5
9
33
89
84.37
83.57
84.53
84.43
84.42
84.42
83.37
83.68
83.75
83.75
83.75
83.28
82.37
82.84
82.88
82.88
82.45
82.18
82.59
82.36
82.36
82.16
81.11
81.90
82.14
82.14
82.97
82.77
83.10
83.11
83.11
Australian
1
5
9
33
299
80.59
80.72
81.44
81.72
82.15
82.15
80.92
81.40
81.21
82.62
82.62
81.06
82.46
82.36
82.83
82.83
82.22
82.18
82.76
83.10
83.10
82.35
81.64
83.28
83.25
83.25
81.45
81.82
82.26
82.79
82.79
Monks-1
1
5
9
33
79.65
82.37
84.42
83.44
81.23
89.49
85.25
87.78
82.13
86.69
89.87
91.70
91.06
86.29
89.57
90.71
90.05
85.07
82.37
87.97
88.96
85.98
86.30
88.32
86.69
Monks-3
1
5
9
33
95.29
93.95
94.44
94.83
95.14
93.09
93.02
94.80
94.79
94.75
94.18
95.24
95.37
92.04
92.80
94.15
94.67
93.67
94.44
94.71
94.77
93.50
93.78
94.75
94.95
Tic-Tac-Toe
1
5
9
33
77
90.50
90.55
90.63
90.90
90.83
91.18
89.07
90.19
90.40
90.59
90.55
87.99
89.47
89.79
90.46
90.52
86.88
88.63
89.39
88.68
89.02
86.19
87.37
88.56
88.84
88.88
88.14
89.26
89.81
89.88
90.03
Использовалась модель шума "отсутствие значения признака". Для внесения искажений был выбран наиболее информативный признак таблицы, который размещается в корне дерева решений. Очевидно, изменения значений именно такого признака способны наиболее существенно повлиять на результаты работы алгоритмов обобщения и классификации.
Были рассмотрены ситуации наличия шума в 5%, 10%, 20%, 30% и 40% по выбранному признаку и проанализировано влияние «количества ближайших соседей» на точность классификации для каждого из указанных уровней шума. Чтобы снизить случайность внесения шума в выборку, проводилось по три серии экспериментов для каждого уровня шума. В каждой такой серии шум заново вносился в исходную обучающую выборку, затем с использованием каждого из выбранных значений параметра «количество ближайших соседей» производилось восстановление неизвестных значений по методу ближайшего соседа и строилось дерево решений, на основе которого затем проводилась классификация тестовых примеров. Каждая серия экспериментов проводилась в соответствии с методами 10-кратной перекрестной проверки или бутстрепа. Для каждого уровня шума и количества ближайших соседей в качестве оценки точности классификации взято среднее значение по трем сериям экспериментов.
Как видно из проведенных экспериментов для алгоритма IDTUV (см. табл.2), для разных наборов данных характерны самые различные зависимости точности классификации от количества «ближайших соседей». Так для наборов данных «Австралийский кредит», «третья задача монахов» и «игра в крестики-нолики» предпочтительным является большое значение этого параметра; для наборов данных «диагностика сердечных заболеваний» и «первая задача монахов» не выявлено практически никакой зависимости точности классификации от исследуемого параметра.
Таблица 3. Результаты экспериментов по исследованию влияния количества ближайших соседей на точность классификации для алгоритма GIRS
Наборы данных
Количество ближайших соседей
Точность классификации, %
Без шума
Шум 5%
Шум 10%
Шум 20%
Шум 30%
Шум 40%
Среднее
Heart
1
5
9
33
89
86.37
86.28
85.58
85.75
86.28
86.06
86.16
85.40
86.15
86.36
86.36
86.26
85.74
85.93
86.23
85.60
84.39
84.39
83.78
84.51
83.84
83.72
84.79
84.16
83.15
83.43
85.36
85.18
85.15
85.31
85.06
Australian
1
5
9
33
299
88.30
88.64
88.53
88.20
88.40
88.40
88.12
87.67
87.66
87.62
87.62
88.18
88.44
88.33
88.29
88.29
88.09
88.31
87.88
87.89
87.89
87.69

Список литературы

Список использованной литературы

[1] Вагин В.Н. и др. Достоверный и правдоподобный вывод в интеллектуальных системах. – М.: ФизМатЛит, 2004. ? 704 с.
[2] Quinlan J.R. Induction of Decision Trees// Machine Learning, Vol.1, 2006, 81-106
[3] Quinlan J.R. Improved Use of Continuous Attributes in C 4.5//Journal of Artifical Intelligence Reseach, Vol. 4, 2006, 77-90
[4] J. Bazan, A Comparison of Dynamic and Non-dynamic Rough Set Methods for Extracting Laws from Decision Tables//Rough Sets in Knowledge Discovery 1.: Methodology and Application/ Ed. by L.Polkowski, A.Skowron. Heidelberg: Phisica-Verlag, 2008, 321-365.
[5] H. S. Nguyen, S. H. Nguyen. Discretization Methods in Data Mining// Rough Sets in Knowledge Discovery 1: Methodology and Application/ Ed. by L.Polkowski, A.Skowron. Heidelberg: Phisica-Verlag, 2008, 451-482.
[6] V.N. Vagin, A.V. Kulikov , M.V. Fomina. The Development of the Generalization Algorithm Based on the Rough Set Theory./ Intern. Journal "Information Theories & Applications", Vol.13, Nu. 3, 2006, 255-262.
[7] Kulikov A., Fomina M. The Development of Concept Generalization Algorithm Using Rough Set Approach / Knowledge-Based Software Engineering: Proceedings of the Sixth Joint Conference on Knowledge-Based Software Engineering (JCKBSE 2004) // V.Stefanuk and K. Kajiri (eds). – IOS Press, 2004. – P.261–268.
[8] V. Mookerjee, M. Mannino, R. Gilson, Improving the Performance Stability of Inductive Expert Systems under Input Noise.// Information Systems Research. 2005, Vol.6, Nu.4, 328-356.
[9] Бериша А.М., Вагин В.Н., Куликов А.В., Фомина М.В. Методы обнаружения знаний в «зашумленных» базах данных // Известия РАН. Теория и системы управления. – 2005. – №6. – С.143–158.
[10] Merz C.J., Murphy P.M. UCI Repository of Machine Learning Datasets. – Information and Computer Science University of California, Irvine, CA, 1998.
Электроные ресурсы

1.Lubarsky A. Сложные графики и диаграммы в Deplhi Часть третья - HttpHandler/System.Drawing. http://www.ibm.com/developerworks/ru/edu/os-eclipse-android/section7.html




Очень похожие работы
Пожалуйста, внимательно изучайте содержание и фрагменты работы. Деньги за приобретённые готовые работы по причине несоответствия данной работы вашим требованиям или её уникальности не возвращаются.
* Категория работы носит оценочный характер в соответствии с качественными и количественными параметрами предоставляемого материала. Данный материал ни целиком, ни любая из его частей не является готовым научным трудом, выпускной квалификационной работой, научным докладом или иной работой, предусмотренной государственной системой научной аттестации или необходимой для прохождения промежуточной или итоговой аттестации. Данный материал представляет собой субъективный результат обработки, структурирования и форматирования собранной его автором информации и предназначен, прежде всего, для использования в качестве источника для самостоятельной подготовки работы указанной тематики.
bmt: 0.00449
© Рефератбанк, 2002 - 2024