Вход

ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ РЕШЕНИЙ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ C ПРИМЕНЕНИЕМ ТЕХНОЛОГИИ MPI

Рекомендуемая категория для самостоятельной подготовки:
Дипломная работа*
Код 259734
Дата создания 01 августа 2015
Страниц 83
Мы сможем обработать ваш заказ (!) 29 марта в 12:00 [мск]
Файлы будут доступны для скачивания только после обработки заказа.
2 660руб.
КУПИТЬ

Описание

В работе выполнен обзор основных существующих методов решений обыкновенных дифференциальных уравнений с использованием квадратур, разработаны параллельные алгоритмы решений обыкновенных дифференциальных уравнений на основе многошагового метода Адамса, произведена оценка работоспособности разработанных алгоритмов на основе вычислительных экспериментов. В дипломную работу входит пояснительная записка, презентация и исходный код программы на MPI.
Работа защищена с оценкой "отлично". ...

Содержание

Содержание
ВВЕДЕНИЕ 3
ГЛАВА. 1 МЕТОДЫ РЕШЕНИЙ ОБЫКНОВЕННЫХ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ (ОДУ) С ИСПОЛЬЗОВАНИЕМ КВАДРАТУР 6
1.1 МЕТОД ЭЙЛЕРА ЧИСЛЕННОГО РЕШЕНИЯ ОДУ 9
1.1.1.НЕСКОЛЬКО ПРОСТЫХ МОДИФИКАЦИЙ МЕТОДА ЭЙЛЕРА 13
1.1.2.ИСПРАВЛЕННЫЙ МЕТОД ЭЙЛЕРА 16
1.2 МЕТОД РУНГЕ-КУТТЫ ЧИСЛЕННОГО РЕШЕНИЯ ОДУ 17
1.2.1.МЕТОДЫ ВТОРОГО ПОРЯДКА 17
1.2.2 МЕТОДЫ РУНГЕ-КУТТЫ ПРОИЗВОЛЬНОГО И ЧЕТВЕРТОГО ПОРЯДКОВ 19
1.3 МНОГОШАГОВЫЕ МЕТОДЫ АДАМСА 22
1.4 ПОСТАНОВКА ЗАДАЧИ 23
ГЛАВА. 2 РАЗРАБОТКА ПАРАЛЛЕЛЬНЫХ АЛГОРИТМОВ РЕШЕНИЯ ОБЫКНОВЕННЫХ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ С ИСПОЛЬЗОВАНИЕМ КВАДРАТУР 25
2.1 ПАРАЛЛЕЛЬНЫЕ АЛГОРИТМЫ ЧИСЛЕННОГО РЕШЕНИЯ ЗАДАЧИ КОШИ ДЛЯ СИСТЕМ ОБЫКНОВЕННЫХ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ 26
2.1.1 Распараллеливание решения задачи Коши для СОДУ на основе явных и неявных одношаговых разностных схем 27
2.1.2. Разработка и исследование эффективности параллельных алгоритмов решения задачи Коши для СОДУ на базе одношаговых схем типа Рунге-Кутты 30
2.1.3 Разработка и исследование эффективности параллельных алгоритмов решения задачи Коши для СОДУ на базе ПНМРК 37
2.1.4.Особенности решения задачи Коши для линейных СОДУ на параллельных ВС 39
2.1.5 Параллельные блочные методы решения задачи Коши для СОДУ 42
2.1.6.Методы с контролем погрешности на шаге интегрирования 43
2.1.7 Оценка эффективности параллельных блочных алгоритмов решения задачи Коши для СОДУ 44
2.2 ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ МЕТОДА РУНГЕ–КУТТЫ ЧЕТВЕРТОГО ПОРЯДКА 45
2.3 ПАРАЛЛЕЛЬНЫЙ АЛГОРИТМ МНОГОШАГОВОГО МЕТОДА АДАМСА 47
2.4 МОДЕЛЬ И АНАЛИЗ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ 50
ГЛАВА. 3 ПРОГРАММНАЯ РЕАЛИЗАЦИЯ РАЗРАБОТАННЫХ АЛГОРИТМОВ НА ВЫСОКОПРОИЗВОДИТЕЛЬНОЙ ВЫЧИСЛИТЕЛЬНОЙ СИСТЕМЕ 67
3.1 ТЕХНОЛОГИЯ ПАРАЛЛЕЛЬНОГО ПРОГРАММИРОВАНИЯ MPI 67
3.2 ПРОГРАММНАЯ РЕАЛИЗАЦИЯ АЛГОРИТМА РЕЩЕНИЯ СИСТЕМЫ ОБЫКНОВЕННЫХ ДИФФЕРЕНЦАЛЬНЫХ УРАВНЕНИЙ С ИСПОЛЬЗОВАНИЕМ КВАДРАТУР 72
ЗАКЛЮЧЕНИЕ 79
Список использованной литературы 81

Введение

Основная цель работы состоит в разработке и программной реализации параллельных алгоритмов вычисления квадратур при решении обыкновенных дифференциальных уравнений на основе технологии MPI.
Поставленная цель достигается решением следующих задач:
1. Обзор основных существующих методов решений обыкновенных дифференциальных уравнений с использованием квадратур;
2. Разработка параллельных алгоритмов решений обыкновенных дифференциальных уравнений на основе многошагового метода Адамса;
3. Программная реализация разработанных алгоритмов на MPI;
4. Оценивание работоспособности разработанных алгоритмов на основе вычислительных экспериментов.

Фрагмент работы для ознакомления

Для определения локальной погрешности как правило менее точного результата и управления величиной шага интегрирования используется величина dn+1. Общий вид вложенных методов на основе явных одношаговых s-стадийных методов Рунге-Кутты:29019522606000 (2.5) Анализ эффективности полученных параллельных алгоритмов производился на основе следующих показателей:– времени решения при помощи последовательного алгоритма, T1;– времени решения при помощи параллельного алгоритма без учета - Tp,comp и с учетом обменных операций  так называемые потенциальный и реальный параллелизм;– коммуникационной сложности алгоритма в зависимости от выбранной топологии соединения процессоров и модели передачи данных;– максимальной степени параллелизма, Dop;– коэффициентов потенциального и реального ускорения, и эффективности, E=S/p  параллельного алгоритма, а также масштабируемости на основе функции изоэффективности, fE.Динамические характеристики параллельных алгоритмов ЯМРК существенно зависят от многих факторов: размера задачи (m) и времени обращения к правой части исходной СОДУ (Tf), типа параллельного компьютера, размерноcти процессорных полей (p), времени выполнения арифметических операций (top), временных коммуникационных констант (латентность, ts и время передачи одного слова, tw), топологии межпроцессорного соединения. Определим, что при подсчете динамических характеристик алгоритмов:  – любая арифметическая операция с плавающей точкой выполняется за одно и то же время независимо от вида операции, это предположение справедливо для большинства современных компьютеров RISC архитектуры.Под масштабируемостью будем понимать – возможность алгоритма обеспечить постоянное значение эффективности вычислений при увеличении числа процессоров (возможно за счет увеличения размерности задачи). Оценкой масштабируемости является функция изоэффективности [4], определяющая зависимость числа используемых процессоров для обеспечения постоянного уровня эффективности параллельных вычислений:где W - показатель вычислительной сложности задачи (количество операций), K - коэффициент, зависящий только от значения показателя эффективности. Накладные расходы на параллелизм  Построение функции изоэффективности – это попытка соединить в едином аналитическом выражении все перечисленные характеристики и оценить степень их влияния на качество параллельного алгоритма. Более того, это инструмент сравнения различных параллельных алгоритмов решения одной и той же задачи и определения условий, где использование одного алгоритма становится предпочтительнее, чем других.Анализ теоретического выполнения параллельных методов решения нелинейной задачи Коши на базе ЯМРК и проведенный численный эксперимент позволяют сделать выводы:– наиболее эффективными параллельными методами с точки зрения эффективности и ускорения являются вложенные методы;– преимущества методов на базе локальной экстраполяции проявляются при получении высокоточных решений (10-15-10-20) и для СОДУ со сложными правыми частями.Лучшие характеристики параллелизма, близкие к потенциальным, практически линейное ускорение и единичная эффективность для ЯМРК, достигаются при сочетании нескольких факторов: сложной правой части, причем Tf>>top, выполнении условия p£Dop, использовании топологии гиперкуб с синхронным или даже асинхронным выполнением обменов. Определение реальных характеристик параллелизма осуществлялось с помощью пакета Mathematica(Wolfram Research Inc.), численный эксперимент проводился на базе тестов для СОДУ с использованием библиотеки MPI.2.1.3 Разработка и исследование эффективности параллельных алгоритмов решения задачи Коши для СОДУ на базе ПНМРКИсследование численных алгоритмов решения задачи Коши, основанных на конечно-разностных схемах, показало, что параллельные свойства таких алгоритмов во многом определяются видом лежащей в их основе численной схемы. Большим потенциальным параллелизмом обладают явные методы, однако присущие этим схемам недостатки, одним из которых является их условная устойчивость, ограничивает область применения таких алгоритмов. В этой связи значительный интерес представляют неявные схемы, которые несмотря на большую вычислительную сложность, не имеют альтернативы среди одношаговых методов при решении жестких задач.Численное решение (2.1) полностью неявным s-стадийным методом типа Рунге-Кутта (ПНМРК) можно получить последовательно по шагам с помощью следующей схемы [2-3]:37528537401500 (2.6)где приближенное решение (2.1) на шаге n, s-размерные вектора c=(c1,c2,…,cs), b=(b1,b2,…,bs), и уникальный вариант метода и выбираются из соображений точности, h – выбранный шаг интегрирования. К достоинствам полностью неявных, одношаговых методов общего вида (на основе квадратурных формул Радо и Лобатто) следует отнести хорошие характеристики устойчивости и точности, достаточные для решения жестких задач. Так, например, s–стадийный метод имеет порядок практически в 2 раза больше, чем число стадий и обладает A-устойчивостью. Недостатком этих методов является высокая вычислительная сложность, обусловленная итерационным процессом определения шаговых коэффициентов, которая не позволяет эффективно применять эти методы на последовательных машинах.При решении систем ОДУ с использованием полностью неявных методов Рунге-Кутты все m×s неизвестных должны определяться одновременно, что существенно усложняет задачу (всего шаговых коэффициентов s и размерность каждого вектора  равна m):Для решения системы (2.6) используем следующий метод функциональной итерации: (2.7) Скорость сходимости итерационного процесса может быть определена следующим образом: r*=min(r,N+1), где r - порядок используемого ПНМРК. Как и для всех уже рассмотренных методов , распараллеливание ПНМРК базируется на выполнении одного шага интегрирования. Все множество процессоров разбивается на s групп по числу шаговых векторов,  затем передает их всем процессорам группы. Вычисление решения в следующей точке требует реализации операции множественная пересылка данных "all-to-all".Межгрупповой обмен может быть осуществлен двумя способами:1) каждый первый процессор в группе передает вектор  первый элемент каждой другой группы + параллельный групповой обмен в каждой группе;2) межгрупповая передача по типу “все-всем”. Для неявных схем определение локальной погрешности с целью управления шагом интегрирования производилось на основе локальной экстраполяции Ричардсона и методов вложенных форм. Разработка и анализ эффективности полученных параллельных алгоритмов ПНМРК аналогичны как и для явных методов. Трудоемкость ВМРК и ПНМРК существенно зависит от  правой части ОДУ (СОДУ). Для сложных правых частей ВМРК имеют меньшее время выполнения, чем неявные. Этот эффект увеличивается в том случае, если время арифметических операций больше времени обмена. В общем случае вложенные.Явные МРК имеют меньшую вычислительную сложность, чем неявные МРК и этот эффект увеличивается с увеличением порядка метода. Для вложенных методов трудоемкость коммуникационных операций зависит от числа этапов метода: s, для НМРК, и от числа итераций, причем с ростом порядка метода число этапов растет быстрее, чем число итераций.Проведенные теоретические исследования и вычислительный эксперимент дают возможность говорить о том, что несмотря на большие накладные расходы, алгоритмы решения нелинейной задачи Коши для систем обыкновенных дифференциального уравнений на основе полностью неявных методов Рунге-Кутты при тщательном подборе всех параметров могут быть достаточно эффективно отображены на параллельные структуры с топологиями гиперкуб и тор при асинхронной передаче данных.2.1.4.Особенности решения задачи Коши для линейных СОДУ на параллельных ВСЭкспоненциальный метод относится к специальным методам численного решения задачи Коши для систем линейных обыкновенных дифференциальных уравнений (СЛОДУ), основан на точном представлении решения в аналитической форме и вычислении матричной экспоненты. Предлагаемый метод особенно эффективен для решения систем с большой константой Липшица, в частности, для жестких систем уравнений [5]. Этот способ решения требует меньшего объема вычислений, чем стандартные методы и позволяет построить более простые и эффективные параллельные алгоритмы решения задачи Коши.Общий вид задачи Коши для однородных СЛОДУ с постоянными коэффициентами: (2.8)– вектор неизвестных;  - вектор начальных условий; A – матрица коэффициентов линейной системы. Приближенное решение (2.8) можно построить, аппроксимировав матричную экспоненту отрезком ряда Тейлора при малом h          (2.9)    а затем, используя некоторый алгоритм умножения матриц, вычислить численное решение, причем, (2.9) определяет численный метод решения СЛОДУ с постоянными коэффициентами порядка r.Решение задачи Коши для неоднородной системы:имеет вид               Основной особенностью метода является возможность введения подготовительного этапа, который будет выполняться до начала интегрирования и вынести в него наиболее ресурсоемкие операции нахождения матричных форм, а именно матричное умножение, не зависящее от шага интегрирования. Матричная функция F(h) обладает следующим свойством: F(h)=F(h/2)F(h/2), что позволяет достаточно легко встраивать алгоритмы определения локальной погрешности на основе дублирования шага и локальной экстраполяции. Применение экспоненциального метода для вложенных форм делает практически ненужными вычисления по формуле высшего порядка:Для плотнозаполненных матриц имеется два принципиально различных класса последовательных алгоритмов умножения матриц: традиционные и рекурсивные методы быстрого умножения на базе алгоритмов Штрассена-Винограда [5]. В оригинале алгоритм Штрассена-Винограда – это алгоритм рекурсивного умножения блочных матриц половинного размера, где каждый блок квадратный, т.е. размерности матриц должны быть четными числами. Идея Штрассена может быть применена рекурсивно: если исходные матрицы A и B имели размеры n´n, то алгоритм быстрого умножения можно применять многократно (на самом нижнем уровне получим блоки 1´1). В классическом варианте, как известно, алгоритмы рекурсивного умножения матриц очень чувствительны к ошибкам округления, т.е. плохо обусловлены, что ограничило их область применения. В связи с этим предлагается использовать полиалгоритмы рекурсивного и блочного систолического умножения, что позволяет избежать указанных недостатков для умножения матриц практических размеров.Для построения и исследования эффективности параллельных алгоритмов решения СЛОДУ на основе экспоненциального метода использовалась та же технология, что и для ЯМРК и НМРК общего вида. Проведенные исследования позволяют сделать выводы- решение линейной задачи Коши на основе модифицированного экспоненциального метода с использованием локальной экстраполяции и вложенных форм имеет практически одинаковую вычислительную сложность, хотя локальная экстраполяция дает нам целую таблицу решений;- наиболее эффективной топологией для реализации методов является решетка и ее замкнутый эквивалент тор, поскольку на такой топологической схеме наиболее эффективно выполняются матричные операции.2.1.5 Параллельные блочные методы решения задачи Коши для СОДУРанее рассматривались вопросы построения параллельных алгоритмов решения задачи Коши посредством распараллеливания эффективных последовательных методов. С развитием параллельных ВС особое внимание уделяется теоретическим работам по построению новых параллельных алгоритмов решения поставленной задачи, однако практическое применение таких алгоритмов не всегда оправдано. Многие из них либо обладают численной неустойчивостью, либо имеют достаточно сложную структуру, приводящую к потере эффективности. К методам лишенным указанных недостатков, можно отнести параллельные блочные одношаговые и многошаговые k-точечные методы.Множество M точек равномерной сетки xm,m=1,2,…,M и xM=Hс шагом h разобьем на блоки, содержащие по k точек, kN³M. В каждом блоке введем номер точки i=0,1,…,k и обозначим через xn,i точку n-го блока с номером i. Точку xn,0 назовем началом блока n,а xn,k – концом блока. Очевидно, имеет место xn,k=xn+1,0. Условимся начальную точку в блок не включать. При численном решении задачи Коши одношаговым блочным методом для каждого следующего блока новые k значений приближенного решения вычисляются одновременно с использованием  значения только в последней точке предшествующего блока.Обозначим через yn,i приближенное значение решения задачи Коши (1) в точке xn,i обрабатываемого блока. Тогда для одношаговых блочных методов разностные уравнения имеют вид:     (2.10)В случае многошагового блочного метода начальный блок будет содержать точки сетки, в которых заданы начальные значения приближенного решения, необходимые для продолжения расчета. В общем случае уравнения многошаговых разностных методов для блока из k точек при использовании вычисленных значений приближенного решения в m предшествующих блоку узлах, с учетом введенных выше обозначений можно записать в виде: (2.11)Определить коэффициенты ai,j и bi,j формул (2.10) и (2.11) можно интегроинтерполяционным методом, построив интерполяционный многочлен Lm+k-1(x) с узлами интерполяции xn,j-m и соответствующими им значениями правой части уравнения (1)   получим уравнения для выбранных m и k.2.1.6.Методы с контролем  погрешности на шаге интегрированияДля оценки локальной погрешности при решении одношаговым многоточечным методом используем идею вложенных форм. Решаются две задачи на одной сетке c одним и тем же шагом h:первая – одношаговым k-точечным методом;вторая – одношаговым (k+1)-точечным методом.Второе решение необходимо для оценки локальной погрешности, поэтому основным является k-точечный метод. Используются значения приближенных решений в совпадающих k узлах основного блока. Лишняя k+1 точка является начальным приближением в расчетах решения в следующем блоке. Локальная погрешность приближенного решения одношаговым k-точечным методом в i-м узле блока определяется формулой:и для (k+1)-точечного метода локальная погрешность в том же узле определяется формулой:Вычитая из верхнего соотношения нижнее, получим представление главного члена погрешности k-точечного метода на шаге в видекоторый может быть использован для оценки локальной погрешности.Для оценки шаговой погрешности при решении многошаговым многоточечным методом используется аналогичный подход. Решаются две задачи на одной сетке c одним и тем же шагом h: первая – m-шаговым k-точечным методом; вторая – (m+1)-шаговым k-точечным методом. Второе решение используется для оценки локальной погрешности, поэтому основным является m-шаговый k-точечный метод. Оцениваются значения приближенных решений в совпадающих k узлах основного блока. Локальная погрешность приближенного решения m-шаговым k-точечным методом в i-м узле блока определяется формулой:а для (m+1)-шагового k-точечного метода локальная погрешность в том же узле определяется формулой:Представление главного члена погрешности одношагового k-точечного метода на шаге Таким образом, для главного члена погрешности получаем оценку:Проведенный численный эксперимент полностью подтверждает полученные теоретические результаты.2.1.7 Оценка эффективности параллельных блочных алгоритмов решения задачи Коши для СОДУПри численном решении задачи Коши для сравнительной характеристики методов можно рассматривать различные показатели. В случае произвольной правой части уравнения о трудоемкости метода естественно судить по числу обращений для вычисления значений правой части уравнения на каждый узел сетки. Для оценки эффективности одношаговых блочных методов найдем отношение времени выполнения алгоритма Рунге-Кутты на однопроцессорной ЭВМ ко времени выполнения одношагового блочного алгоритма соответствующего порядка на параллельной ВС. Определим время выполнения алгоритма Рунге-Кутты (k+1)-го порядка точности на одном процессоре. Время последовательного вычисления приближенных значений решения с точностью O(hk+1) во всех k узлах блока составит: Для параллельного выполнения вычислений по формулам (2.10) закрепим за каждым узлом блока процессор. При его реализации на k процессорах можно одновременно вычислять значения Fn,i,s, а затем также одновременно получить по формулам (2.10) значения yn,i,s для каждого фиксированного s. Объединим процессоры в кольцо, чтобы иметь возможность одновременной передачи данных соседним процессорам. Обозначим через tta время передачи числа соседнему процессору. Время параллельного вычисления приближенных значений решения с той же точностью для всех узлов блока составит:Если учитывать только время вычислений правой части уравнения, т.к. времена выполнения арифметических операций и обмена значительно меньше времени вычисления правой части, то ускорение k-точечного параллельного алгоритма можно считать приближенно равным 2.2 ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ МЕТОДА РУНГЕ–КУТТЫ ЧЕТВЕРТОГО ПОРЯДКАПоскольку в описанной выше вычислительной схеме наиболее трудоемкой является операция умножения матрицы на вектор при вычислении , i=1,2,3,4 , то основное внимание будет уделено распараллеливанию этой операции. Здесь будет применяться алгоритм скалярных произведений при умножении матрицы на вектор. Поэтому для инициализации будем использовать следующую схему декомпозиции данных по имеющимся процессорным элементам (ПЭ) с локальной памятью: на каждый µ-й ПЭ (µ=0,..., p-1 ) распределяется блок строк матрицы [20-22]: =A(1+µ n / p : (µ +1)n / p,1: n). Принимаем m= 0 . m – номер вычислительного уровня. Далее расчеты производятся по следующей схеме [24]: 1)на каждом ПЭ с идеальным параллелизмом вычисляются соответствующие компоненты вектора по формуле=h( + ) 2) для обеспечения второго расчетного шага необходимо провести сборку вектора целиком на каждом ПЭ. Затем независимо выполняется вычисление компонент вектора по формуле=h( (+/2)+ )3) проводится сборка вектора на каждом ПЭ, вычисляются компоненты вектора =h( (+/2)+ )4) проводится сборка вектора на каждом ПЭ, вычисляются компоненты вектора :=h( (+)+ )5) на заключительном шаге каждой итерации метода рассчитываются с идеальным параллелизмом компоненты вектора :=+(+2+2+) /6и производится сборка вектора на каждом ПЭ. Если необходимо продолжить вычислительный процесс, то полагается m=m+1 и осуществляется переход на п. 1.Заметим, что в данном алгоритме производится четыре операции умножения матрицы на вектор (порядка O(n2/p) арифметических операций), восемнадцать операций сложения векторов и умножения вектора на число (порядка O(n/p) арифметических операций) и четыре операции глобальной сборки векторов.Рассмотрим алгоритм, который имеет меньшее число межпроцессорных пересылок данных на одной итерации метода Рунге–Кутты. Для этого получим полный оператор для одного вычислительного шага, позволяющий определить значение вектора неизвестных на следующей итерации через . Для удобства про ведения выкладок положим =0 Тогда можно записать, что [23]:=hA ,=hA(+/2)= +(h/2) A=(E+(h/2)A) =h(E+(h/2)A)A ,=hA(+/2)= +(h/2) A=+(h/2)A(+(h/2)A) ==h(E+(h/2)A+(h/2)2A2)A ,=hA(+)= +(hA+(h2 /2)A2 +(h3 /4)A3) ==h(E+hA+(h2/2)A2 +(h3/4)A3)A ,и, собрав все, в итоге получим={E+hA(E+(h/2)A(E+(h/3)A(E+(h/4)A)))} (2.12)Рассчитав заранее матрицу оператора, заключенного в фигурные скобки в (2.

Список литературы

1. Антонов А.С. Параллельное программирование с использованием MPI. – М.: Изд-во МГУ, 2004. – 71 с.
2. Афанасьев К.Е., Домрачеев В.Г., Ретинская И.В., Скуратов А.К., Стуколов С.В. Многопроцессорные системы: построение,развитие, обучение. – М.: КУДИЦ-ОБРАЗ, 2005. – 224 с.
3. Барский, А.Б. Параллельные процессы в вычислительных системах. Планирование и организация / А.Б. Барский. – М.: Радио и связь, 1990. – 256 с.
4. Богачев К.Ю. Основы параллельного программирования. – М.: БИНОМ, 2003. – 342 с.
5. Букатов А.А., Дацюк В.Н., Жегуло А.И. Программирование многопроцессорных вычислительных систем. – Ростов н/Д: Изд-во ООО «ЦВВР», 2003. – 208 с.
6. Вержбицкий В.М. Основы численных методов: Учебник для вузов/В.М. Вержбицкий. - М.: Высш. шк., 2002. - 840с.: ил.
7. Воеводин, В.В. Параллельные вычисления / В.В. Воеводин, Вл.В. Воеводин. СПб.: БХВ-Петербург, 2002.
8. Воеводин В.В. Численные методы, параллельные вычисления и информационные технологии. – М.: БИНОМ, 2008. – 320 с.
9. Гергель, В.П. Теория и практика параллельных вычислений: учеб. пособие/ В.П. Гергель.- М.: Интернет-Университет Информационных технологий; БИНОМ. Лаборатория знаний, 2007. – 423 с.
10. Гергель В.П., Стронгин Р.Г. Основы параллельных вычислений для многопроцессорных вычислительных машин. – Нижний Новгород: Изд-во ННГУ им. Н.И. Лобачевского, 2000. – 176 с.
11. Головашкин, Д.Л. Методы параллельных вычислений: учеб. пособие / Д.Л. Головашкин, С.П. Головашкина. – Самара: Изд-во СГАУ, 2003. Ч. II. – 103 с.
12. Демидович Б.П., Марон И.А., Шувалова Э.З. Численные методы анализа. - М.: Наука, 1967.
13. Крылов В.И., Бобков В.В., Монастырный П.И. Вычислительные методы. - М.: Наука, 1977.
14. Коллатц Л. Численные методы решения дифференциальных уравнений. - М.: ИЛ, 1953.
15. Копченова Н.В., Марон И.А. Вычислительная математика в примерах и задачах. – М.: Наука, 1972. – 367 с.
16. Корнеев В.В. Параллельные вычислительные системы. – М.: Нолидж, 1999. – 320 с.
17. Малышкин В.Э., Корнев В.Д. Параллельное программирование мультикомпьютеров. – Новосибирск: Изд-во НГТУ, 2006. –296 с.
18. Немнюгин С.А., Стесик О.Л. Параллельное программирование для многопроцессорных вычислительных систем. – СПб.:БХВ-Петербург, 2002. – 200 с.
19. Немнюгин С.А. Средства программирования для многопроцессорных вычислительных систем. – СПб.:СПбГУ, 2007. – 88 с.
20. Самарский А.А., Николаев Е.С. Методы решения сеточных уравнений. – М.: Наука, 1978. – 592 с.
21. Самарский А.А. Введение в численные методы. – М.: Наука,1987. – 288 с.
22. Самарский А.А. Теория разностных схем. – М.: Наука,1989. – 614 с.
23. Старченко А.В. Высокопроизводительные вычисления на кластерах: Учебн. пособие/Под ред. А.В. Старченко. – Томск: Изд-во Том. ун-та, 2008. – 198 с.
24. Старченко А.В., Есаулов А.О. Параллельные вычисления на многопроцессорных вычислительных системах. – Томск: Изд-во Том. ун-та, 2002. – 56 с.
25. Фельдман Л.П. Параллельные интерполяционные алгоритмы численного решения задачи Коши для обыкновенных дифференциальных уравнений на SIMD компьютере. Наук. пр. ДонДТУ. Серія: Проблеми моделювання i автоматизації проектування динамічних систем, випуск 10: – Донецьк:, 2000, с.15-22.
26. Фельдман Л.П., Назарова И.А. Применение технологии локальной экстраполяции для высокоточного решения задачи Коши на SIMD-структурах // Научные труды Донецкого национального технического университета. Выпуск 70. Серия: "Информатика, кибернетика и вычислительная техника" (ИКВТ-2003) – Донецк:ДонНТУ, 2003, с.98–107.
27. Хайрер Э., Нёрсетт С., Ваннер Г. Решение обыкновенных дифференциальных уравнений. Нежесткие задачи: Пер. с англ. – М.: Мир, 1990, 512 с.
28. Хайрер Э., Ваннер Г. Решение обыкновенных дифференциальных уравнений. Жесткие и дифференциально-алгебраические задачи. – М.: Мир, 1999, 685с.
29. Хокни Р., Джессхоуп К. Параллельные ЭВМ. – М.: Радио и связь, 1986. – 392 с.
30. Численмыге Методы , еборинк Задал :чгебное пособие дле вузов\В.Ю .Гидаспов,И.Э.Иванов,Д.Л,Ревизиков И другие.;под ред. У.Г.Парунова.-М.:Дрофа ,2007.-144с.
31. Feldman L.P., Dmitrieva O.A., Gerber S. Abbildung der blockartigen Algorithmen auf Parallelrechnerarchitekture. In: Tavangarian,D., Grützner,R. (Hrsg.): Tagungs-band 15. ASIM-Symposium Simulationstechnik in Rostock, September 2002, SCS-Europe BVBA, Ghent/Belgium 2002, s.359-364.
32. Feldman L.P. Implementierung und Effizienzanalyse von parallelen blockartigen Simulationsalgorithmen für dynamische Systeme mit konzentrierten Parametern. In: Möller, D.P.F. (Hrsg.): Tagungsband 14. ASIM-Symposium Simulationstechnik in Hamburg, September, 2000, SCS-Europe BVBA, Ghent/Belgium 2000, s.241-246.
Очень похожие работы
Пожалуйста, внимательно изучайте содержание и фрагменты работы. Деньги за приобретённые готовые работы по причине несоответствия данной работы вашим требованиям или её уникальности не возвращаются.
* Категория работы носит оценочный характер в соответствии с качественными и количественными параметрами предоставляемого материала. Данный материал ни целиком, ни любая из его частей не является готовым научным трудом, выпускной квалификационной работой, научным докладом или иной работой, предусмотренной государственной системой научной аттестации или необходимой для прохождения промежуточной или итоговой аттестации. Данный материал представляет собой субъективный результат обработки, структурирования и форматирования собранной его автором информации и предназначен, прежде всего, для использования в качестве источника для самостоятельной подготовки работы указанной тематики.
bmt: 0.00503
© Рефератбанк, 2002 - 2024