ПАРАЛЛЕЛЬНЫЙ РАСЧЕТ СИСТЕМЫ N-ЧАСТИЦ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ MPI И CUDA - Студенческий научный форум

VI Международная студенческая научная конференция Студенческий научный форум - 2014

ПАРАЛЛЕЛЬНЫЙ РАСЧЕТ СИСТЕМЫ N-ЧАСТИЦ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ MPI И CUDA

Пилипчак П.Е. 1, Трунов А.С. 2
1Филиал Россйского государственного университета в г. Домодедово
2Россйский государственный гуманитарный университет
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

В настоящее время существует множество программных комплексов позволяющих решать задачи компьютерного моделирования с применением высокопроизводительных вычислений. Большинство таких комплексов решают задачи по моделированию систем относящихся либо к классу с дальнодействующими потенциалами, либо учитывающими только короткодействующие ковалентные взаимодействия[1-3].

Принципиальное отличие систем, являющихся предметом исследования данной работы, состоит в том, что это полимеризующиеся системы с многочастичным взаимодействием, объединяющим несколько видов взаимодействий: двухчастичные вклады (дальнодействующие ионные и близкодействующие отталкивательные) и многочастичные (двух и трех-частичные ковалентные взаимодействия)[6-8]. Моделирование полимеризующихся систем является нетривиальной задачей, требующей учета особенностей ионного и ионно-ковалентного взаимодействия частиц разных типов в расплаве. Это существенным образом усложняет постановку задачи распределения.

На основе концептуальной модели и тщательного анализа программного кода локального МД-приложения [6], автором разработана модель неоднородных дескрипторов, обеспечивающая возможность распределения и распараллеливания расчетов для коррелированных многочастичных систем, на основе «свертки» детализации физического описания объектов[5].

Предметом данной работы является разработка метода позволяющего применять вычислители на основе графических процессоров для расчетов системы N-частиц, что даст возможность распределить расчет дескрипторов между миллионами нитей и серьезно сократить время КМ. На рисунке 1 представлен алгоритм расчета дескрипторов с использованием центрального и графического процессора.

Передача подмножеств дескрипторов каждому вычислителю производится с использованием технологии MPI, а параллельный расчет реализуется на графических процессорах с применением технологии CUDA.

Наглавном вычислители формируются подмножества дескрипторов {Dls(i)}, {Dlv(i)} cмощностью k=N/p, где N – количество дескрипторов, p – количество вычислителей выполняющих расчет. Сформированные подмножества передаются вычислителям через интерфейс передачи сообщений MPI. Полученные подмножества дескрипторов распределяются центральным процессором между нитями, реализующими расчет на графическом процессоре, где индекс t – количество нитей в блоке, b - количество блоков. На каждой нити графического процессора, с использованием технологии CUDA, рассчитываютсязначения элементов одного двухчастичного агрегатора D∑2(i). На основе результатов расчета подмножест двухчастичных агрегаторов обновляются значения элементовдескрипторов {Dlv(i)}. Полученные подмножества дескрипторов {Dlv(i)} передаются на центральный процессор. После завершения расчетов всеми вычислителями рассчитанные подмножества одночастичных векторных дескрипторов объединяются на главном вычислителе для расчета агрегатора {D(Property)}.

Проведенные компьютерные эксперименты, результаты которых представлены в таблице 1 показывают существенное сокращения времени проведения КМ за счет совместного использования технологий CUDA и MPI.

Таблица 1

Результаты моделирования системы SiO2 (в часах)

 

Локальный вариант

MPI-8

MPI-16

CUDA

CUDA-2

1000

3,1

0,41

0,22

0,17

0,09

4200

11,5

1,75

0,9

0,63

0,37

12000

134

21,7

10,3

7,4

4,1

100000

1456

221

87,6

77,3

39,3

В моделирование сравнивалось время, затраченное на проведение эксперимента с числом частиц в системе 105 и числом шагов 5000.

Компьютерные эксперименты проводились на кластере, состоящем из 16 вычислителей Dual Core AMD Opteron с частотой 2.21 Ghz для приложения, реализованного с использованием технологии MPI. На графическом процессоре с использованием двух видеокарт NVidia GeForce GTS 450 для приложения реализующего расчет на CUDA.

Полученные результаты дают возможность говорить о целесообразности использования графических процессоров для экспериментов в области молекулярной динамики и позволяют ускорять время расчета в 36 раз по сравнению с локальным вариантом МД-приложения.

Литература

  1. Brown, W.M., Kohlmeyer, A., Plimpton, S.J., Tharrington, A.N. Implementing molecular dynamics on hybrid high performance computers - Particle-particle particle-mesh // Computer Physics Communications Volume 183, Issue 3, March 2012, Pages 449-459

  2. Harvey, M.J., De Fabritiis, G. An implementation of the smooth particle mesh Ewald method on GPU hardware // Journal of Chemical Theory and Computation Volume 5, Issue 9, September 2009, Pages 2371-2377

  3. Jha, P.K., Sknepnek, R., Guerrero-García, G.I., Olvera De La Cruz, M. A graphics processing unit implementation of coulomb interaction in molecular dynamics // Journal of Chemical Theory and Computation Volume 6, Issue 10, 12 October 2010, Pages 3058-3065

  4. Воронова Л.И., Григорьева М.А., Воронов В.И., Трунов А.С. Программный комплекс "MD-SLAG-MELT" для моделирования наноструктуры и свойств многокомпонентных расплавов. - Расплавы. 2013. № 4. С. 36-49.

  5. Трунов А.С., Воронова Л.И., Шалабай Т.С. Метод параллельного расчета коррелированной системы n-частиц на графическом процессоре. - Современные наукоемкие технологии. 2013. № 6. С. 117-119.

  6. Воронова Л.И., Трунов А.С., Воронов В.И. Разработка методов параллельного расчета коррелированной многочастичной системы на графическом процессоре. - Вестник Российского государственного гуманитарного университета. 2013. № 14. С. 236-247.

  7. Трунов А.С., Воронова Л.И., Воронов В.И. Разработка методов распределения для высокопроизводительных вычислений в многочастичных системах. - Международный журнал прикладных и фундаментальных исследований. 2013. № 10-2. С. 192-194.

Просмотров работы: 939