№ | Слайд | Текст |
1 |
 |
Параллельные алгоритмы решения геофизических задач намногопроцессорных вычислителях Е.Н. Акимова, Д.В. Белоусов, А.Н. Уваров Институт математики и механики УрО РАН г. Екатеринбург |
2 |
 |
Аннотация1. Линейная обратная задача гравиметрии о нахождении плотности в слое. Для решения линейной обратной задачи гравиметрии предложены и численно реализованы на суперкомпьютере МВС?1000 и видеоускорителях NVIDIA GeForce Параллельные итерационные алгоритмы (МПИ и ММН). Решена обратная задача гравиметрии с реальными данными. 2. Задачи электроразведки (СЛАУ с блочно-трехдиагональными матрицами). Для решения СЛАУ предложены и численно реализованы на видеоускорителе NVIDIA GeForce, 4-х ядерном процессоре Intel Core I5-750 и суперкомпьютере МВС-1000 параллельный алгоритм матричной прогонки и параллельный метод сопряженных градиентов с предобуславливателем. Решена модельная задача о нахождении распределения потенциала на поверхности земли в проводящей среде. Проведено сравнение времени счета параллельных алгоритмов на вычислителях различного типа с анализом эффективности и ускорения. Работа выполнена в рамках Междисциплинарного проекта УрО РАН и Программы фундаментальных исследований Президиума РАН № 14 при поддержке УрО РАН. 2 |
3 |
 |
Постановка обратной задачи гравиметрииОдной из важнейших моделей строения земной коры является модель горизонтальной слоистой среды. Рассм. линейная обратная задача гравиметрии о нахождении переменной плотности в горизонтальном или криволинейном слое по грав. данным, измеренным на площади земной поверхности Используется априорная информация об отсутствии аномалий плотности вне слоя с криволинейными границами и такими, что и выпол. условие Предполагается, что распределение плотности внутри слоя не зависит от Рис. 1. 3 3 |
4 |
 |
Нахождение плотности в слоеЗадача сводится к решению линейного двумерного интегрального уравнения Фредгольма первого рода для нахождения искомой плотности [1] (1) где гравитационная постоянная, гравитационный эффект, порождаемый источниками в горизонтальном или криволинейном слое. Уравнение гравиметрии (1) относится к классу некорректно поставленных задач, решение которой обладает сильной чувствительностью к погрешности правой части, полученной в результате измерений и предварительной обработки геофизических данных. ______________________________ [1]. Martyshko P.S., Koksharov D.E. On the construction of the density sections using gravity data // Extended Abstracts of 66th EAGE Conference and Exhibition. Paris, 7-12 June 2004. P. 143. 4 |
5 |
 |
Методы решенияПосле дискретизации уравнения (1) на сетке где задана правая часть и аппроксимации интегрального оператора по квадратурным формулам задача (1) сводится к решению СЛАУ с плохо обусловленной либо симметричной матрицей (горизонтальный слой), либо несимметричной матрицей (криволинейный слой) В случае криволинейного слоя СЛАУ предварительно преобразуется к виду где параметры регуляризации. Для решения СЛАУ (2), (3) используются регулярные итерационные методы градиентного типа [2]. ______________________________ [2]. Васин В.В., Еремин И.И. Операторы и итерационные процессы Фейеровского типа. Теория и приложения. – Екатеринбург, 2005. 5 5 |
6 |
 |
Методы решения СЛАУУсловие останова. 1. Итеративно регуляризованный метод простой итерации (МПИ) где макс. собств. значение 2. Метод минимальных невязок (ММН) 6 |
7 |
 |
Параллельная реализация на МВС-1000Ранее для решения линейной обратной задачи гравиметрии о восстановлении переменной плотности в слое параллельные методы градиентного типа были численно реализованы на МВС-1000 с высокой эффективностью распараллеливания [3]. Многопроцессорный вычислительный комплекс МВС?1000 ? российский массивно- параллельный суперкомпьютер кластерного типа с распределенной памятью, установленный в ИММ УрО РАН. МВС?1000/64 (UM64): 14 2-х процессорных 2-х ядерных модулей AMD Opteron 64 bit (2.6 ГГц); интерфейс GbitEthernet; 112 Гб оперативной памяти. ______________________________ [3]. Акимова Е.Н., Гемайдинов Д.В. Параллельные алгоритмы решения задачи гравиметрии о восстановлении плотности в слое // Труды института математики и механики УрО РАН. – Екатеринбург: УрО РАН, 2007. Т. 13. № 3. С. 3-21. 7 |
8 |
 |
Параллельная реализация на МВС-1000Комплекс параллельных численных алгоритмов реализован с помощью библиотеки MPI на языке Фортран [4]. Распараллеливание итерационных методов основано на разбиении матриц и горизонтальными полосами на блоков, а вектора решения и вектора правой части СЛАУ на частей так, что где размерность системы уравнений, число процессоров, число строк матрицы в блоке. Рис. 2. Схема распределения данных по процессорам Host ?processor 1? processor 2? processor … m? processor ______________________________ [4]. Баранов А.В., Лацис А.О., Сажин C.В., Храмцов М.Ю. Руководство пользователя системы МВС-1000. URL: http://parallel.ru/mvs/user.html. 8 |
9 |
 |
Решение задачи гравиметрии с реальными даннымиНа МВС-1000/64 решена задача с реальными данными о восстановлении плотности в горизонтальном слое между глубинами для области Шаги сетки: Гравитационная постоянная Задача сводится к СЛАУ с плохо обусловленной симм. заполненной матрицей Для решения задачи использовался параллельный итеративно регуляризованный МПИ с параметром регуляризации Рис. 3. Исходное гравитационное поле для области 9 9 |
10 |
 |
Рис4. Линии уровня и распределение восстановленной плотности в слое 10 - 20 км для области Более темные участки соответствуют зонам разуплотнения, представляющим интерес для геофизической интерпретации. 10 10 |
11 |
 |
Ускорение и эфективность где время выполнения последовательногоалгоритма на одном процессоре, время выполнения параллельного алгоритма на МВС с числом процессоров совокупность чистого времени счета и накладных расходов. В табл. 1 приведены времена счета на МВС-1000/64 и коэффициенты ускорения и эффективности решения задачи гравиметрии для области с использованием параллельного МПИ для 200 ? 200 точек сетки (430 итер). Матрица СЛАУ формируется и хранится в памяти каждого процессора по частям. (Число проц.) (Время, мин.) (Ускорение) (Эффективность) 1 2 3 55.82 32.96 20.83 — 1.70 2.80 — 0.85 0.93 8 10 7.72 6.26 7.23 8.92 0.90 0.89 20 30 80 3.28 2.12 0.88 17.0 26.3 63.4 0.85 0.88 0.79 Таблица 1. Решение задачи гравиметрии о восстановлении плотности в слое 11 11 |
12 |
 |
Распараллеливание на видеоускорителях с помощью технологии CUDA http//www.nvidia.ru Для организации параллельных вычислений актуальным в настоящее время является использование видеоускорителей (GPU) компании NVIDIA (рис.4). Базовый блок - мультипроцессор, содержащий процессорные ядра. Работа нескольких ядер мультипроцессора основана на архитектуре типа SIMD. Для поддержки параллельных вычислений компания NVIDIA разработала технологию CUDA [5] - среду разработки программ на языке Cи, позволяющую создавать программное обеспечение для решения сложных вычислительных задач. Линейная задача гравиметрии решена на видеоускорителях GeForce GTX 285 (GPU-1) и GeForce GTX 260 (GPU-2) с помощью технологии CUDA . Рис. 5. Видеоускоритель GeForсe GTX 285 ______________________________ [5]. Берилло А. NVIDIA CUDA – неграфические вычисления на графических процессорах. URL: http://www.ixbt.com/video3/cuda-1.shtml 12 |
13 |
 |
Характеристики подсистемы GPU-2: Количество процессорных ядер Частотаядра (МГц) Частота процессора (МГц) Количество видеопамяти (Мб) Табл. 2. Техн. характеристики вычислительной платформы Характеристики подсистемы GPU-1: Количество процессорных ядер Частота ядра (МГц) Частота процессора (МГц) Количество видеопамяти (Мб) NVIDIA GeForce GTX 285 240 648 1476 1024 NVIDIA GeForce GTX 260 192 576 1242 896 Характеристики СPU: Частота процессора (ГГц) Оперативная память (Гб) Разрядность ОС (Бит) 4-ядер. Intel core I5-750 2.66 8 64 13 |
14 |
 |
Результаты численных экспериментов Сравнение времени счета на GPU-1,2и МВС-1000/64 В табл. 3 приводятся времена решения задачи гравиметрии на Intel Core I5-750 без использования и с использованием видеоускорителей GeForce на разных сетках: 110 x 110 (матр. СЛАУ 12100 x 12100) и 200 x 200 (матр. СЛАУ 40000 x 40000). Метод ? МПИ (280 итер.) Сетка 110 x 110 Матрица СЛАУ 12100 x 12100 Intel Core I5-750 (2.66 ГГц) GeForce GTX 285 (240 ядер) GeForce GTX 260 (192 ядра) МВС?1000/64 (1 проц., 2.6 ГГц) МВС?1000/64 (2 проц.) МВС?1000/64 (8 проц.) МВС?1000/64 (10 проц.) 84.0 (сек) 14.0 (сек) 19.5 (сек) 157.8 (сек) 91.8 (сек) 20.4 (сек) 16.8 (сек) Метод ? МПИ (430 итер.) Сетка 200 x 200 Матрица СЛАУ 40000 x 40000 Intel Core I5-750 (2.66 ГГц) GeForce GTX 285 (240 ядер) GeForce GTX 260 (192 ядра) МВС?1000/64 (1 проц., 2.6 ГГц) МВС?1000/64 (2 проц.) МВС?1000/64 (4 проц.) МВС?1000/64 (5 проц.) МВС?1000/64 (10 проц.) МВС?1000/64 (15 проц.) 31.46 (мин) 4.08 (мин) 5.28 (мин) 55.82 (мин) 32.96 (мин) 15.83 (мин) 12.40 (мин) 6.26 (мин) 4.16 (мин) 14 |
15 |
 |
Параллельные алгоритмы решения СЛАУ с блочно-трехдиагональнымиматрицами Задачи электроразведки 1. Задача вертикального электрического зондирования (ВЭЗ). На поверхности земли собирают электроразведочную установку из двух питающих (А,В) и двух приемных электродов (М,N) (рис. 6). К питающим электродам подключают источник тока, на приемных электродах измеряют напряженность электрического поля. По результатам измерений вычисляют кажущееся электр. сопротивление для неоднородной среды, где коэффициент, зависящий от расстояний между электродами, разность потенциалов на приемных электродах, сила тока в питающей линии. 15 Рис. 6. Схема измерений в методе ВЭЗ |
16 |
![_ [7]](/up/thumbs/260508/016.jpg) |
_ [7]____________________________. Тихонов А.Н., Самарский А.А. Уравнения математической физики. М.: Наука, 1966. [8]. Дашевский Ю.А., Суродина И.В., Эпов М.И. Квазитрехмерное мат. моделирование диаграмм неосесимм. зондов постоянного тока в анизотропных разрезах // Cиб. ЖИМ. 2002. Т. 5. №3 (11). С. 76-91. Слева, После использования конечно-разностной аппроксимации краевая задача (6)–(7) сводится к решению СЛАУ с блочно-трехдиагональной матрицей. 2. Задача бокового каротажного зондирования (БКЗ) – при измерении потенциала электрического поля использует однотипные зонды разной длины. В результате интерпретации данных каротажа получают значение удельного электрического сопротивления пласта, близкое к истинному, по величинам которого выявляют полезные ископаемые. После конечно-разностной аппроксимации задача БКЗ сводится к решению СЛАУ с блочно-трехдиагональной матрицей [8] матрица размерности с блоками Рис.7. 16 1. Задача ВЭЗ о нахождении потенциала на поверхности земли сводится к решению двумерного уравнения Лапласа в цилиндрической системе координат [7] (6) с граничными условиями непрерывности потенциала и непрерывности нормальной составляющей к границам плотности тока Условия на горизонтальных прямых (7) Сверху, Справа и снизу. Коэф. Электропров. |
17 |
 |
Методы решения СЛАУ с блочно-трехдиагональными матрицами 1Параллельный алгоритм матричной прогонки (9) где и искомые и заданные векторы размерности n, квадратные матрицы порядка n. Будем предполагать, что исходная область P – прямоугольник. Разобьем P на L подобластей вертикальными линиями так, что В качестве параметров выберем векторы связывающие неизвестные на сетке по вертикали. В подобластях, определяемых интервалами (K,K+M), рассмотрим задачи (10) (11) Рис. 8. (12) ______________________________ [9]. Акимова Е.Н. Распараллеливание алгоритма матричной прогонки // Математическое моделирование. М.: Наука, 1994. Т. 6. № 9. C. 61- 67. 17 |
18 |
 |
где и квадратные матрицы порядка n. Схема параллельного алгоритмаматричной прогонки: (10)-(11)-(12) ? (14) ? (13). Задача (14) решается классическим алгоритмом матричной прогонки. Задачи (10)-(11)-(12) и (13) решаются независимо на L процессорах. Утверждение 2. Если для исходной системы (9) выполняются достаточные условия устойчивости метода матричной прогонки по А.А. Самарскому [10] причем хотя бы одно из неравенств – строгое, то эти же условия достаточны и для устойчивости метода матричной прогонки при решении системы уравнений (14) относительно параметров [9]. ______________________________ [9]. Акимова Е.Н. Распараллеливание алгоритма матричной прогонки // Математическое моделирование. М.: Наука, 1994. Т. 6. № 9. C. 61- 67. [10]. Самарский А.А., Николаев Е.С. Методы решения сеточных уравнений. М.: Наука, 1978. Утверждение 1. Если решения задач (10), решения задач (11), решения задачи (12), решения исходной задачи (9) на тогда После подстановки (13) в (9) получим систему относительно параметров 18 |
19 |
![Для СЛАУ (15) МСГ с предобуславливателем имеет вид [12]](/up/thumbs/260508/019.jpg) |
Для СЛАУ (15) МСГ с предобуславливателем имеет вид [12]2. Параллельный метод сопряженных градиентов с предобуславливателем 19 МСГ – быстрый итерационный метод решения СЛАУ с симметричной положительно-определенной матрицей [11]. Введение предобуславливания применяется с целью сущест. ускорения сходимости итерационного процесса. Исходная СЛАУ заменяется на Условием выбора предобуславливателя является следующее: Условие останова. Распаралеливание МСГ с предобуславливателем показано на рис. 1 (слайд 8). ______________________________ [11]. Фаддеев В.К., Фаддеева В.Н. Вычислительные методы линейной алгебры. М.: Гос. издат. физ.-мат. литературы, 1963. [12]. Амосов А.А. Циркулянтно предобусловленный метод сопряженных градиентов и его применение для численного решения интегрального уравнения переноса излучения // Труды XI Всерос. школы-семинара «Современные проблемы математического моделирования». Ростов-на-Дону: Издат. Ростов. госун-та, 2005. Выпуск 4. С. 49-65. |
20 |
 |
Результаты численных экспериментов решения задачи о нахождениираспределения потенциала Рис. 9. 20 Параллельный алгоритм матричной прогонки (ПАМП) и параллельный метод сопряженных градиентов с предобуславливателем (ПМСГ) реализованы на следующих многопроцессорных системах: МВС?1000/64 с помощью технологии MPI, 4-х ядерном процессоре Intel Core I5-750 (CPU) на языке С++ в среде разработки «Visual Studiо» и видеоускорителе NVIDIA GeForce GTX 285 (GPU) с помощью технологии CUDA. Тех. характеристики вычислительных систем приводятся на слайдах 7 и 13. С помощью методов ПАМП и ПМСГ решена модельная задача о нахождении распределения потенциала в проводящей среде с известным решением (рис. 9). Исходные данные и модельное решение задачи предоставлены лабораторией скважинной геофизики ИНГГ СО РАН (г. Новосибирск). |
21 |
 |
После дискретизации задача сводится к СЛАУ с плохо обусловленнойсимметричной положительно-определенной блочно-трехдиагональной матрицей размерности c квадратными блоками порядка 248 (рис. 7, слайд 16). Приближенное решение задачи сравнивалось с модельным решением с помощью вычисления относительной погрешности В случае решения задачи ПМСГ находилось число обусловленности матрицы 21 Предварительно находилось число обусловленности матрицы |
22 |
 |
Intel Core I5-750 (одно ядро) Intel Core I5-750 (2 ядра) Intel CoreI5-750 (4 ядра) GeForce GTX 285 (240 ядер) МВС?1000/64 (1 проц.) МВС?1000/64 (2 проц.) МВС?1000/64 (4 проц.) Intel Core I5-750 (одно ядро) Intel Core I5-750 (2 ядра) Intel Core I5-750 (4 ядра) GeForce GTX 285 (240 ядер) МВС?1000/64 (1 проц.) МВС?1000/64 (2 проц.) МВС?1000/64 (4 проц.) Решение задачи методом ПМСГ t=10 час. Решение задачи методом ПАМП Вычислитель 57 (21-OpenMP) 46 (16-OpenMP) 42 (14-OpenMP) 16 120 65 34 ? 1.24 1.5 3.56 ? 1.85 3.53 ? 0.62 0.40 ? ? 0.92 0.88 Вычислитель 52 (21-OpenMP) 28 (18-OpenMP) 16 10 96 60 31 ? 1.86 3.25 5.2 ? 1.6 3.1 ? 0.93 0.81 ? ? 0.80 0.77 22 |
23 |
 |
Основные результаты работы1. Для решения линейной обратной задачи гравиметрии о восстановлении плотности в слое предложены и численно реализованы на МВС-1000 и видеоускорителях NVIDIA GeForce параллельные итерационные алгоритмы. Решена обратная задача гравиметрии с реальными данными. Проведено сравнение времени счета параллельных алгоритмов с анализом эффективности и ускорения. 2. Для решения СЛАУ с блочно-трехдиагональными матрицами предложены и численно реализованы на видеоускорителе NVIDIA GeForce, 4-х ядерном процессоре Intel Core I5-750 и МВС-1000 параллельный алгоритм матричной прогонки и параллельный метод сопряженных градиентов с предобуславливателем. Проведено сравнение времени счета параллельных алгоритмов при решении задачи о нахождении распределения потенциала на поверхности земли в проводящей среде. 23 |
24 |
 |
Спасибо за внимание 24 |
«Параллельные алгоритмы решения геофизических задач на многопроцессорных вычислителях» |
http://900igr.net/prezentacija/geometrija/parallelnye-algoritmy-reshenija-geofizicheskikh-zadach-na-mnogoprotsessornykh-vychisliteljakh-260508.html