Вход

Выбор методы оптимизации для определения оптимального средства защиты информации.

Рекомендуемая категория для самостоятельной подготовки:
Курсовая работа*
Код 342880
Дата создания 07 июля 2013
Страниц 34
Мы сможем обработать ваш заказ (!) 29 марта в 12:00 [мск]
Файлы будут доступны для скачивания только после обработки заказа.
1 310руб.
КУПИТЬ

Содержание

Содержание:
Введение
1. Общая характеристика проблемы синтеза систем защиты информации
2. Методы исследования функций классического анализа
3. Метод множителей Лагранжа
4. Методы вариационного исчисления
5. Динамическое программирование
6. Принцип максимума
7. Линейное программирование
8. Методы нелинейного программирования
9. Геометрическое программирование
10. Анализ методов решения задачи выборки рационального варианта СЗИ
Заключение
Список использованной литературы

Введение

Выбор методы оптимизации для определения оптимального средства защиты информации.

Фрагмент работы для ознакомления

2; 5
2; 5
2; 5
1
1
2
2
2
2
Линейное программирование
-
-
-
2; 6
2; 6
1; 6
-
-
-
-
-
-
Методы нелинейного программирования
2
1
2
.1
2
1
4
4
4
4
4
4
Геометрическое программирование
2; 8
2; 8
-
-
2; 8
2; 8
-
-
-
-
-
-
Примечания:
1. Эффективное применение метода.
2. Используется.
3. Возможно применение.
4. Используется как вспомогательный метод.
5. Многостадийные процессы (размерность указывается для отдельной стадии).
6. Задачи с линейными критериями оптимальности и линейными ограничениями.
7. Используются множители Лагранжа.
8. Задачи с критериями и ограничениями в форме позиномов.
2. Методы исследования функций классического анализа
Такие методы предусматривают собой методы дифференциального исчисления. Экстремум целевой функции f(х) находят из необходимого условия его существования, состоящего в том, что производная в точке экстремума равна нулю. Тогда оптимальное решение x* можно найти из системы уравнений:
.
Для того, чтобы определить, является ли x* точкой максимума или минимума, используют достаточные условия существования экстремума согласно которым: если производная в точке экстремума меняет знак с плюса на минус, то f(x*) есть максимум целевой функции; если производная в точке экстремума меняет знак с минуса на плюс, то f(x*) есть минимум целевой функции.
Если представленные уравнения нелинейные, то решить их систему аналитическим путем удается крайне редко. В этих случаях используют ЭВМ и соответствующие численные методы или методы нелинейного программирования. В последнем случае задачу решения системы сводят к задаче минимизации функции:
.
Рассматриваемые методы исследования функций классического анализа можно использовать для решения относительно несложных задач оптимизации без ограничений. Однако большинство инженерных задач связано с оптимизацией при наличии некоторого количества ограничений на управляемые переменные. Такие ограничения существенно уменьшают размеры области, в которой проводится поиск оптимума.
Методы исследования функций классического анализа представляют собой наиболее известные методы решения несложных оптимальных задач. Обычной областью использования данных методов являются задачи с известным аналитическим выражением критерия оптимальности, что позволяет найти не очень сложное, также аналитическое выражение для производных. Полученные приравниванием нулю производных уравнения, определяющие экстремальные решения оптимальной задачи, крайне редко удается решить аналитическим путем, поэтому, как, правило, применяют вычислительные машины. При этом надо решить систему конечных уравнений, чаще всего нелинейных, для чего приходится использовать численные методы, аналогичные методам нелинейного программирования.
Дополнительные трудности при решении оптимальной задачи методами исследования функций классического анализа возникают вследствие того, что система уравнений, получаемая в результате их применения, обеспечивает лишь необходимые условия оптимальности. Поэтому все решения данной системы (а их может быть и несколько) должны быть проверены на достаточность. В результате такой проверки сначала отбрасывают решения, которые не определяют экстремальные значения критерия оптимальности, а затем среди остающихся экстремальных решений выбирают решение, удовлетворяющее условиям оптимальной задачи, т. е. наибольшему или наименьшему значению критерия оптимальности в зависимости от постановки задачи.
Методы исследования при наличии ограничений на область изменения независимых переменных можно использовать только для отыскания экстремальных значений внутри указанной области. В особенности это относится к задачам с большим числом независимых переменных (практически больше двух), в которых анализ значений критерия оптимальности на границе допустимой области изменения переменных становится весьма сложным.
3. Метод множителей Лагранжа
Метод множителей Лагранжа применяют для решения задач такого же класса сложности, как и при использовании обычных методов исследования функций, но при наличии ограничений типа равенств на независимые переменные. К требованию возможности получения аналитических выражений для производных от критерия оптимальности при этом добавляется аналогичное требование относительно аналитического вида уравнений ограничений.
В основном при использовании метода множителей Лагранжа приходится решать те же задачи, что и без ограничений. Некоторое усложнение в данном случае возникает лишь от введения дополнительных неопределенных множителей, вследствие чего порядок системы уравнений, решаемой для нахождения экстремумов критерия оптимальности, соответственно повышается на число ограничений. В остальном, процедура поиска решений и проверки их на оптимальность отвечает процедуре решения задач без ограничений.
Особенно эффективно применение множителей Лагранжа в методе динамического программирования, где с их помощью иногда удается снизить размерность решаемой задачи.
Рассмотрим общую задачу оптимизации, содержащую несколько ограничений в виде равенств:   минимизировать f(x) при ограничениях gi (x)=0, j=1,...,к.
Эта задача в принципе может быть решена как задача безусловной оптимизации, полученная путем исключения из целевой функции k независимых переменных с помощью заданных равенств. Наличие ограничений в виде равенств фактически позволяет уменьшить размерность исходной задачи с n до n-k.
4. Методы вариационного исчисления
Важнейшими понятиями вариационного исчисления являются следующие:
вариация (первая вариация),
вариационная производная (первая вариационная производная),
кроме первой вариации и первой вариационной производной, рассматриваются и вариации и вариационные производные второго и высших порядков.
Никак не связана с вариационным вычислением совпадающая по названию вариация функции в анализе.
Термин варьирование (варьировать) — применяется в вариационном исчислении для обозначения нахождения вариации или вариационной производной (это аналог термина дифференцирование для случая бесконечномерного аргумента, являющегося предметом вариационного исчисления).
Вариационная задача означает, как правило, нахождение функции (в рамках вариационного исчисления — уравнения на функцию), удовлетворяющей условию стационарности некоторого заданного функционала, то есть такой функции, (бесконечно малые) возмущения которой не вызывают изменения функционала по крайней мере в первом порядке малости. Также вариационной задачей называют тесно связанную с этим задачу нахождения функции (уравнения на функцию), на которой данный функционал достигает локального экстремума (во многом эта задача сводится к первой, иногда практически полностью). Обычно при таком употреблении терминов подразумевается, что задача решается методами вариационного исчисления.
Содержанием вариационного исчисления является обобщение понятия дифференциала и производной функции конечномерного векторного аргумента на случай функционала — функции, областью определения которой служит некое множество или пространство функций, а значения лежат в множестве вещественных чисел.
Функционал Φ[f] ставит в соответствие каждой конкретной функции f из его области определения — определённое число.
Аналогом дифференциала (первого дифференциала) является в вариационном исчислении вариация (первая вариация): δΦ = Φ[f + δf] − Φ[f] (δf выбирается бесконечно малой, и при вычислении разности отбрасываются бесконечно малые высших порядков). При этом δf — играющее роль дифференциала или малого приращения независимой переменной — называется вариацией f.
Как видим, δΦ сама в свою очередь является функционалом, так как она, вообще говоря, различна для разных f (также и для разных δf).
Таким образом, это — в применении к функционалам — прямой аналог дифференциала функции конечномерного (в том числе одномерного) аргумента: dy = y(x + dx) − y(x) — точно так же понимаемого как линейная часть приращения функции y при бесконечно малом приращении аргумента x (или линейный член при разложении y по степеням dx вблизи точки x).
При оптимальном же проектировании систем защиты информации управляющая функция зависит только от пространственных переменных и не изменяется в течение всего времени своего существования. При оптимальном проектировании систем защиты часто требуется решать задачи с граничными условиями.
Методы вариационного исчисления обычно используют для решения задач, в которых критерии оптимальности представляются в виде функционалов и решениями которых служат неизвестные функции. Такие задачи возникают обычно при статической оптимизации процессов с распределенными параметрами или в задачах динамической оптимизации5.
5. Динамическое программирование
В задаче построения оптимального средства защиты информации необходимо учитывать изменение моделируемого процесса во времени и влияние времени на критерий оптимальности. Для решения такой задачи используется метод  динамического  планирования (динамическое   программирование ). Этот метод более сложен по сравнению с методами расчета статических оптимизационных задач, изложенных выше. Также не простым делом является процесс построения для реальной задачи математической модели  динамического   программирования .
Пусть рассматривается задача, распадающаяся на m шагов или этапов. Показатель эффективности задачи в целом обозначим через W, а показатели эффективности на отдельных шагах - через φi, i=1..m. Если W обладает свойством аддитивности, т.е. , то можно найти оптимальное решение задачи методом  динамического   программирования .
Таким образом,  динамическое   программирование — это  метод оптимизации  многошаговых или многоэтапных процессов, критерий эффективности которых обладает свойством аддитивности. В задачах динамического   программирования  критерий эффективности называется выигрышем. Данные процессы управляемые, и от правильного выбора управления зависит величина выигрыша.
Переменная хi, от которой зависят выигрыши на i-м шаге и, следовательно, выигрыш в целом, называется шаговым управлением, i=1..m.
Управлением процесса в целом (x) называется последовательность шаговых управлений x=(x1, x2,…, xi,…, xm).
Оптимальное управление x — это значение управления x, при котором значение W(x*) является максимальным (или минимальным, если требуется уменьшить проигрыш). W*=W(x*)=max{W(x)}, x € X, где х — область допустимых управлений.
Оптимальное управление x* определяется последовательностью оптимальных шаговых управлений x*=(x2*, x2*,…, xi*,…, xm*).
 В основе метода  динамического   программирования  лежит принцип оптимальности Беллмана, формулирующийся следующим образом: управление на каждом шаге надо выбрать так, чтобы оптимальной была сумма выигрышей на всех оставшихся до конца процесса шагах, включая выигрыш на данном шаге.
Объясняется это правило так: при решении задачи  динамического   программирования  на каждом шаге выбирается управление, которое должно привести к оптимальному выигрышу. Если считать все шаги независимыми друг от друга, то оптимальным шаговым управлением будет то управление, которое приносит максимальный выигрыш именно на данном шаге. В многошаговых процессах все шаги зависят друг от друга, и, следовательно, управление на каждом конкретном шаге надо выбирать с учетом его будущих воздействий на этот процесс.
Другой момент, который следует учитывать при выборе управления на данном шаге, — это возможные варианты окончания предыдущего шага. Эти варианты определяют состояние процесса. При выборе шагового управления необходимо учитывать:
возможные исходы предыдущего шага;
влияние управления на все оставшиеся до конца процесса шаги.
В задачах  динамического   программирования  первый пункт учитывают, делая на каждом шаге условные предположения о возможных вариантах окончания предыдущего шага и приводя для каждого из вариантов условную  оптимизацию . Выполнение второго пункта обеспечивается тем, что в задачах  динамического   программирования  условная  оптимизация  проводится от конца процесса к началу. Сперва оптимизируется последний m-й шаг, на котором не надо учитывать возможные воздействия выбранного управления xm на все последующие шаги, так как эти шаги просто отсутствуют. Делая предположения об условиях окончания (m-1)-го шага, делая предположения об исходах окончания (m-2)-го шага и определяя условное оптимальное управление на (m-1)-м шаге, приносящее оптимальный выигрыш на двух последних шагах—(m-1)-м и m-м. Так же действуют на всех остальных шагах до первого. На первом шаге, как правило, не надо делать условных предположений, так как состояние системы перед первым шагом обычно известно.
Для этого состояния выбирают оптимальное шаговое управление, обеспечивающее оптимальный выигрыш на первом и всех последующих шагах. Это управление является безусловным оптимальным управлением на первом шаге и, зная его, определяются оптимальное значение выигрыша и безусловные оптимальные управления на всех шагах.
Дополнительно введем следующие условные обозначения:
S — состояние процесса;
Si — множество возможных состояний процесса перед i-м шагом;
Wi — выигрыш с i-го шага до конца процесса, i=1..m.
Можно определить следующие основные этапы составления математической модели задачи  динамического программирования.
1. Разбиение задачи на шаги (этапы). Шаг не должен быть слишком мелким, чтобы не проводить лишних расчетов и не должен быть слишком большим, усложняющим процесс шаговой оптимизации.
2. Выбор переменных, характеризующих состояние s моделируемого процесса перед каждым шагом, и выявление налагаемых на них ограничений. В качестве таких переменных следует брать факторы, представляющие интерес для исследователя, например годовую прибыль при планировании деятельности предприятия.
3. Определение множества шаговых управлений xi, i=1..m и налагаемых на них ограничений, т.е. области допустимых управлений х.
4. Определение выигрыша  φ(s, xi), который принесет на i-м шаге управление xi, если система перед этим находилась в состоянии s.
5. Определение состояния s’, в которое переходит система из состояния s под влиянием управления xi: s’=fi(s, xi,), где fi—функция перехода на i-м шаге из состояния s в состояние s’.
6. Составление уравнения, определяющего условный оптимальный выигрыш на последнем шаге, для состояния s моделируемого процесса Wm(S)=max{φm(s, xm)}.
7. Составление основного функционального уравнения динамического программирования, определяющего условный оптимальный выигрыш для данного состояния s с i-го шага и до конца процесса через уже известный оптимальный выигрыш с (i+1)-го шага и до конца:   Wi(S)=max{φi(s, xi)+Wi=1(fi(s, xi))}. (6)
В уравнении в уже известную функцию Wi+1(s), характеризующую условный оптимальный выигрыш с (i+1)-го шага до конца процесса, вместо состояния s подставлено новое состояние s’=fi(s, xi), в которое система переходит на i-м шаге под влиянием управления xi.
Заметим, что в динамических моделей, в отличие от линейных моделей, отдельно вводятся переменные управления xi, и переменные, характеризующие изменение состояния s под влиянием управления. Таким образом, структура динамических моделей более сложная, что естественно, так как в этих моделях учитывается фактор времени.
 После того как вы полнены пункты 1—7 и математическая модель составлена, приступают к ее расчету. Укажем основные этапы решения задачи  динамического  программирования .
1. Определение множества возможных состояний Sm для последнего шага.
2. Проведение условной оптимизации для каждого состояния s, принадлежащей Sm на последнем m-м шаге по формуле и определение условного оптимального управления x(s), s принадлежит Sm.
3. Определение множества возможных состояний Si для i-го шага, i=2, 3,…m-1.
4. Проведение условной оптимизации для i-го шага, i=2, 3,…m-1 для каждого состояния s, принадлежащей Si,, по формуле и определение условного оптимального управления xi(s), s принадлежит Si, i=2, 3,…m-1.
5. Определение начального состояния системы s1, оптимального выигрыша W1(S1) и оптимального управления x1(S1) по формуле при i=1. Это есть оптимальный выигрыш для всей задачи W*=W1(x1*).
6. Проведение безусловной оптимизации управления. Для проведения безусловной оптимизации необходимо найденное на первом шаге оптимальное управление x1*=x1(s1) подставить в формулу и определить следующее состояние системы s2=f2(s1, x1). Для измененного состояния найти оптимальное управление x2*=x2(s2), подставить в формулу и т.д. Для i-го состояния si найти si+1=fi+1(si,xi*) и x*i+1(si+1) и т.д.
Оптимальная подструктура в динамическом программировании означает, что оптимальное решение подзадач меньшего размера может быть использовано для решения исходной задачи. Подзадачи решаются делением их на подзадачи ещё меньшего размера и т.д., пока не приходят к тривиальному случаю задачи, решаемой за константное время.
Перекрывающиеся подзадачи в динамическом программировании означают подзадачи, которые используются для решения некоторого количества задач (не одной) большего размера (то есть необходимо несколько раз проделывать одно и то же). Получается, что простой рекурсивный подход будет расходовать время на вычисление решение для задач, которые он уже решал. Чтобы избежать такого хода событий, необходимо сохранять решения подзадач, которые уже решались, и обращаться к нему при необходимости. Этот подход называется кэширование.
Динамическое программирование пользуется следующими свойствами задачи:
перекрывающиеся подзадачи;
оптимальная подструктура;
возможность запоминания решения часто встречающихся подзадач.
Динамическое программирование обычно придерживается двух подходов к решению задач:
нисходящее динамическое программирование: задача разбивается на подзадачи меньшего размера, они решаются и затем комбинируются для решения исходной задачи. Используется запоминание для решений часто встречающихся подзадач.
восходящее динамическое программирование: все подзадачи, которые впоследствии понадобятся для решения исходной задачи просчитываются заранее и затем используются для построения решения исходной задачи. Этот способ лучше нисходящего программирования в смысле размера необходимого стека и количества вызова функций, но иногда бывает нелегко заранее выяснить, решение каких подзадач нам потребуется в дальнейшем.
Таким образом, динамическое программирование служит эффективным методом решения задач оптимизации дискретных многостадийных процессов, для которых критерий оптимальности задается как аддитивная функция критериев оптимальности отдельных стадий. Без особых затруднений указанный метод можно распространить и на случай, когда критерий оптимальности задан в другой форме, однако при этом обычно увеличивается размерность отдельных стадий.
По существу метод динамического программирования представляет собой алгоритм определения оптимальной стратегии управления на всех стадиях процесса. При этом закон управления на каждой стадии находят путем решения частных задач оптимизации последовательно для всех стадий процесса с помощью методов исследования функций классического анализа или методов нелинейного программирования. Результаты решения обычно не могут быть выражены в аналитической форме, а получаются в виде таблиц.
Ограничения на переменные задачи не оказывают влияния на общий алгоритм решения, а учитываются при решении частных задач оптимизации на каждой стадии процесса. При наличии ограничений типа равенств иногда даже удается снизить размерность этих частных задач за счет использования множителей Лагранжа. Применение метода динамического программирования для оптимизации процессов с распределенными параметрами или в задачах динамической оптимизации приводит к решению дифференциальных уравнений в частных производных. Вместо решения таких уравнений зачастую значительно проще представить непрерывный процесс как дискретный с достаточно большим числом стадий. Подобный прием оправдан особенно в тех случаях, когда имеются ограничения на переменные задачи и прямое решение дифференциальных уравнений осложняется необходимостью учета указанных ограничений6.

Список литературы

"Список использованной литературы:
1.Аверченков, В.И. Аудит информационной безопасности: учеб. пособие для вузов / В.И. Аверченков. - Брянск: БГТУ, 2005.
2.Аверченков, В.И. Организационная защита информации: учеб. пособие для вузов / В.И. Аверченков, М.Ю. Рытов. - Брянск: БГТУ, 2005.
3.Аверченков В.И., Рытов М.Ю., Гайнулин Т.Р. Оптимизация выбора состава средств инженерно-технической защиты информации на основе модели клементса–хоффмана. Вестник брянского государственного технического университета, 2008 №1 (17)
4.Бельков В.Н., Ланшаков В.Л. Автоматизированное проектирование технических систем: Учебное пособие. Издательство «Академия Естествознания», 2009. [Электронный учебник]. Режим доступа: http://www.monographies.ru/57
5.Веригин А. Н., Лисицин Н.В. Организационные системы: Методыисследования. – Спб.: Санкт-Петербург, 2007. -701с.
6.Габасов Р., Кириллова Ф. Основы динамического программирования. — Мн.: Изд-во БГУ, 1975. — 262 с.
7.Домарев, В.В. Энциклопедия безопасности информационных технологий. Методология создания системы защиты информации/ В.В. Домарев. – Киев: ТИД «ДС», 2001. – 668 с.
8.Кормен Т., Лейзерсон Ч., Ривест Р., Штайн К. Динамическое программирование // Алгоритмы: построение и анализ/ Под ред. И.В. Красикова. — 2-е изд. — М.: Вильямс, 2005. — 1296 с.
9.Табаков А.Б. Разработка моделей оптимизации средств защиты информации для оценки страхования информационных рисков // Политический сетевой электронный научный журнал Кубанского государственного аграрного университета [Электронный ресурс]. Режим доступа: http://www.ej.kubagro.ru/2005/04/02/
10. Торокин, А.А. Основы инженерно-технической защиты информации/ А.А. Торокин. - М.: Ось-89, 1995.
11.Трифонов А.Г. Постановка задачи оптимизации и численные методы ее решения [Электронный учебник]. Режим доступа: http://matlab.exponenta.ru/optimiz/book_2/1.php
12.Хоффман, Л.Д. Современные методы защиты информации / Л.Д. Хоффман; под ред. В.А. Герасименко. – М.: Сов. радио, 1980. – 264 с.
13. Динамическое программирование [Электронный ресурс]. Режим доступа: http://www.math.mrsu.ru/text/method.htm
14.Методы и средства защиты информации [Электронный ресурс]. Режим доступа: http://www.melnikoff.com/yuriy/posobie.htm
15.Методика выбора оптимальных проектных параметров с помощью неопределенных множителей Лагранжа [Электронный ресурс]. Режим доступа: http://www.masters.donntu.edu.ua/2004/kita/grinyuk/library/lagrang.htm
16.Модели динамического программирования [Электронный ресурс]. Режим доступа: http://matmetod-popova.narod.ru/theme211.htm




Очень похожие работы
Пожалуйста, внимательно изучайте содержание и фрагменты работы. Деньги за приобретённые готовые работы по причине несоответствия данной работы вашим требованиям или её уникальности не возвращаются.
* Категория работы носит оценочный характер в соответствии с качественными и количественными параметрами предоставляемого материала. Данный материал ни целиком, ни любая из его частей не является готовым научным трудом, выпускной квалификационной работой, научным докладом или иной работой, предусмотренной государственной системой научной аттестации или необходимой для прохождения промежуточной или итоговой аттестации. Данный материал представляет собой субъективный результат обработки, структурирования и форматирования собранной его автором информации и предназначен, прежде всего, для использования в качестве источника для самостоятельной подготовки работы указанной тематики.
bmt: 0.11134
© Рефератбанк, 2002 - 2024