авторефераты диссертаций БЕСПЛАТНАЯ  БИБЛИОТЕКА

АВТОРЕФЕРАТЫ КАНДИДАТСКИХ, ДОКТОРСКИХ ДИССЕРТАЦИЙ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ

Параллельные алгоритмы повышенной точности для численного моделирования задач газовой динамики и аэроакустики

На правах рукописи

ГОРОБЕЦ Андрей Владимирович ПАРАЛЛЕЛЬНЫЕ АЛГОРИТМЫ ПОВЫШЕННОЙ ТОЧНОСТИ ДЛЯ ЧИСЛЕННОГО МОДЕЛИРОВАНИЯ ЗАДАЧ ГАЗОВОЙ ДИНАМИКИ И АЭРОАКУСТИКИ Специальность 05.13.18 - математическое моделирование, численные методы и комплексы программ

АВТОРЕФЕРАТ

диссертации на соискание ученой степени кандидата физико-математических наук

Москва – 2007

Работа выполнена в Институте математического моделирования РАН

Научный консультант: кандидат физико-математических наук, старший научный сотрудник Козубская Татьяна Константиновна, зав. сектором ИММ РАН

Официальные оппоненты: доктор физико-математических наук, доцент Василевский Юрий Викторович, ведущий научный сотрудник ИВМ РАН доктор физико-математических наук, профессор Гасилов Владимир Анатольевич, зав. отделом ИММ РАН

Ведущая организация: Институт Прикладной Математики им. М. В.

Келдыша РАН

Защита диссертации состоится « 25 » октября 2007 г. в на заседании диссертационного совета № К 002.058.01 при Институте математического моделирования РАН по адресу 125047, г. Москва, Миусская пл., 4а.

С диссертацией можно ознакомиться в библиотеке ИММ РАН

Автореферат разослан « » 2007 г.

Ученый секретарь диссертационного совета к.ф.-м.н.

Прончева Надежда Геннадьевна

ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ

Актуальность работы В настоящее время математическое моделирование активно входит в практику инженерных исследований и промышленного конструирования. Одной из наиболее актуальных и в то же время сложных областей применения математического моделирования является газовая динамика и аэроакустика.

Задачи, связанные с газовой динамикой, играют важную роль во многих научных и инженерных приложениях.

Большой вклад в расширение возможностей математического моделирования внесли бурно развивающиеся многопроцессорные вычислительные системы, быстрый рост производительности которых привел к новому этапу развития вычислительного эксперимента. Но также возникла проблема перехода на многопроцессорные системы. Этот переход связан с адаптацией существующих алгоритмов и последовательных комплексов программ, рассчитанных на однопроцессорный режим, к параллельным вычислениям, что является достаточно сложной задачей.

В настоящее время существует множество последовательных комплексов программ, основанных в частности на явных численных методах, прошедших отладку и верификацию, но устаревших и неприменимых к актуальным современным задачам из-за ограничений производительности одного процессора. При этом разработка подобных комплексов программ в свое время требовала больших трудозатрат, и было бы нерационально просто отказываться от их использования. Поэтому возникает проблема эффективного распараллеливания существующих последовательных кодов, разработанных без учета специфики параллельных вычислений. При этом под эффективностью распараллеливания понимается не только эффективность вычислений, но и минимизация трудозатрат на разработку параллельной версии. Задача становится особенно сложной применительно к неструктурированным сеткам и обширным пространственным шаблонам повышенного порядка точности.

Таким образом, разработка и применение технологии распараллеливания последовательных кодов, эффективной как с точки зрения производительности, так и с точки зрения трудозатрат, являются актуальными проблемами в настоящее время.

Другой важной и актуальной проблемой является необходимость обеспечения масштабируемости параллельных алгоритмов. Как известно, эффективность параллельных вычислений начинает резко снижаться, когда число процессоров становится больше некоторого ограничения, свойственного данному алгоритму или размеру задачи. Это происходит, в частности, из-за того, что время, затрачиваемое на обмен данными, с ростом числа процессоров начинает превосходить время, затрачиваемое непосредственно на вычисления.

Поэтому достичь высокой параллельной эффективности представляется особенно сложной задачей при большом числе процессоров.

При этом применение параллельных технологий для моделирования несжимаемого течения более проблематично по сравнению со сжимаемыми течениями. Это объясняется таким физическим свойством несжимаемой жидкости, как бесконечная скорость распространения возмущений. Уравнение Пуассона, к которому приводит уравнение неразрывности при моделировании несжимаемых течений, соответствует этому физическому свойству: оператор Пуассона имеет бесконечную скорость распространения информации в пространстве. То есть на каждом шаге по времени требуется обмен данными между всеми процессорами, что существенно сказывается на параллельной эффективности, особенно при большом числе процессоров. Поэтому эффективное решение уравнения Пуассона на многопроцессорных системах является ключевой проблемой при моделировании несжимаемых течений.

Также следует отметить, что современные параллельные вычислительные системы с распределенной памятью существенно различаются между собой по производительности, числу процессоров, латентности сети и другим параметрам. Метод, который эффективен на одной многопроцессорной системе, может оказаться практически неприменимым на другой. Системы варьируются от малобюджетных кластеров на основе офисного компьютерного оборудования до суперкомпьютеров с высокопроизводительной сетью и тысячами процессоров. Первые имеют очень высокое соотношение производительности и цены и благодаря своей низкой стоимости широко используются. Но вторые имеют намного большую вычислительную мощность, столь необходимую для прямого численного моделирования (DNS – Direct Numerical Simulation) и моделирования методом больших вихрей (LES – Large Eddy Simulation) на подробных сетках. Наиболее существенными различиями между параллельными системами с распределенной памятью являются, во-первых, число процессоров, а, во-вторых, производительность сети. Алгоритмы, которые работают эффективно на малобюджетном кластере, могут оказаться неэффективными на суперкомпьютере из-за проблем масштабирования на большое число процессоров. И, наоборот, эффективные на суперкомпьютерах алгоритмы могут иметь неудовлетворительную эффективность на малобюджетном кластере из-за низкой производительности сети, в частности, значительно большей латентности. Требование эффективности алгоритма для моделирования несжимаемых течений на различных типах параллельных систем еще более усложняет задачу. Кроме этого, алгоритм также должен иметь низкую вычислительную стоимость и широкую область применимости.



Большинство из существующих алгоритмов для несжимаемых течений не удовлетворяет этой совокупности требований.

Таким образом, разработка эффективного и масштабируемого алгоритма для решения уравнения Пуассона является важной и актуальной задачей в настоящее время.

Актуальность крупномасштабного прямого численного моделирования, которое также выполнено в рамках данной работы, обусловлена хотя бы тем, что позволяет создать базис для верификации многочисленных моделей турбулентности, активно разрабатываемых в настоящее время во всем мире.

Помимо этого, DNS такого масштаба позволяют получить новые данные о физике турбулентного течения и продвинуться в исследованиях этого сложного и до сих пор малоизученного явления.

Цели и задачи диссертационной работы 1. Разработка эффективной технологии распараллеливания последовательных комплексов программ для решения задач газовой и аэроакустики на основе явных алгоритмов повышенного порядка точности и неструктурированных сеток.

2. Применение технологии распараллеливания для разработки параллельного комплекса программ на основе последовательного кода.

3. Проведение при помощи разработанного параллельного программного комплекса расчетов актуальных задач газовой динамики и аэроакустики.

4. Разработка на основе ранее известного метода Фурье-Шура для уравнения Пуассона, который рассчитан на небольшое число процессоров, нового масштабируемого метода, который может эффективно применяться на суперкомпьютерах с большим числом процессоров.

5. Проведение при помощи нового метода для уравнения Пуассона крупномасштабного прямого численного моделирования. Достичь высокой эффективности на числе процессоров не менее 512 и обеспечить возможность использовать сетки с числом узлов не менее 108 при условии применения схемы 4-го порядка аппроксимации.

Научная новизна и практическая ценность работы В диссертации предложена оригинальная технология адаптации последовательных комплексов программ к многопроцессорным вычислительным системам. С использованием данной технологии распараллеливания был создан комплекс параллельных программ SuperNoisette 2D/3D для моделирования двухмерных и трехмерных задач газовой динамики и аэроакустики. Проведено численное моделирование ряда актуальных задач аэроакустики.





Предложен оригинальный масштабируемый параллельный метод Крылова-Фурье-Шура для решения уравнения Пуассона, которое играет ключевую роль при моделировании несжимаемых течений.

Продемонстрирована возможность адаптации метода для эффективного использования как на малобюджетных кластерах с небольшим числом процессоров и большой латентностью сети, так и на суперкомпьютерах с числом процессоров до тысячи и более.

На основе данного метода впервые проведено такое крупное прямое численное моделирование конвекционного турбулентного течения в закрытой каверне. Использовались 512 процессоров суперкомпьютера Маренострум Барселонского Суперкомпьютерного Центра и сетка, содержащая 1.11* узлов. Также следует отметить, что при этом применялась разностная схема 4 го порядка точности. Судя по открытой печати, для данного класса задач, выполненный расчет является (на момент завершения) самым большим в мире.

Достоверность результатов Разработанный параллельный комплекс программ надежно верифицирован путем сравнения на совпадение результатов параллельной и исходной последовательной версий. При этом исходная последовательная версия была ранее подробно верифицирована на серии широко известных тестовых задач.

Эффективность параллельных вычислений подтверждается серией тестов на параллельную производительность и эффективность, выполненных на различных многопроцессорных системах.

Масштабируемый параллельный метод Крылова–Фурье–Шура для уравнения Пуассона обеспечивает требуемую заданную точность решения, которая автоматически контролируется в расчетах путем явного вычисления невязки. При этом данный метод применяется в составе комплекса программ, который верифицирован ранее на основе широко известного метода MMS (Method of Manufactured Solutions), а также путем сравнения с результатами других авторов. Параллельная эффективность подтверждается серией тестов, выполненных на различных вычислительных системах при варьировании числа процессоров в широком диапазоне до 1024 включительно.

Личный вклад автора Разработан эффективный метод распараллеливания явного алгоритма повышенной точности, использующего обширный неструктурированный шаблон. Метод применен к комплексу последовательных программ Noisette-2D для решения двумерных задач газовой динамики и аэроакустики. В результате при активном участии автора создан универсальный комплекс параллельных программ SuperNoisette 2D/3D с единым алгоритмическим ядром, реализующим расчеты задач газовой динамики и аэроакустики с повышенной точностью, как на треугольных, так и тетраэдральных сетках.

При помощи параллельного комплекса SuperNoisette 2D/3D автором проведены двумерные и трехмерные расчеты по моделированию процессов поглощения акустической энергии резонатором в импедансной трубе. Также выполнена серия двумерных расчетов по моделированию течения в каналах с системами резонаторов. Продемонстрированы возможности использования вычислительного эксперимента для разработки новых конфигураций звукопоглощающих конструкций резонаторного типа, применяемых в авиастроении.

На основе ранее известного метода Фурье-Шура для решения уравнения Пуассона на малобюджетных параллельных системах с небольшим числом процессоров, разработан новый масштабируемый метод Крылова-Фурье-Шура.

Метод может использовать порядка тысячи процессоров суперкомпьютера и позволяет производить расчет на сетках размером порядка сотни миллионов узлов. Продемонстрирована высокая параллельная эффективность метода Крылова-Фурье-Шура при использовании до 1024 процессоров на суперкомпьютере Маренострум Барселонского суперкомпьютерного центра.

Показана возможность адаптации метода к различным параллельным системам и разному числу процессоров. С использованием метода Крылова-Фурье-Шура при активном участии автора проведено крупномасштабное прямое численное моделирование конвекционного турбулентного течения в каверне.

Основные положения диссертации, выносимые на защиту 1 Технология распараллеливания комплексов программ, основанных на явных высокоточных алгоритмах, использующих обширный пространственный шаблон и неструктурированные сетки.

2 Параллельный комплекс программ SuperNoisette 2D/3D для расчетов двухмерных и трехмерных задач газовой динамики и аэроакустики.

3 Результаты серии вычислительных экспериментов по звукопоглощающим конструкциям (ЗПК) 4 Масштабируемый метод Крылова–Фурье–Шура для решения уравнения Пуассона на различных параллельных системах от малобюджетных кластеров до суперкомпьютеров 5 Крупномасштабное прямое численное моделирование турбулентного течения при естественной конвекции в закрытой каверне Апробация работы Основные результаты диссертационной работы докладывались и обсуждались на многих российских и международных научно-технических конференциях и семинарах, в частности:

1. Europe-Russia Workshop. Mathematical Modeling, Computation and Eperimentation in Multiphysics Aerospace and Environmental Engineering Problems, November 8-10, 2006, Barcelona, Spain. Приглашенный доклад “Numerical Experiments on Acoustic Liners Using Unstructured Meshes”(co-authors I.Abalakin, T.Kozubskaya) 2. 12th AIAA/CEAS Aeroacoustics Conference (27th AIAA Aeroacoustics Conference), May 8-10, 2006, Cambridge, USA. Устный доклад “Simulation of Acoustic Fields in Resonator-Type Problems Using Unstructured Meshes” (co-authors I.V.Abalakin, T.K.Kozubskaya, A.K.Mironov) 3. International conference on Selected Problems of Modern Mathematics, April 4-8, 2005, Kaliningrad. Устный доклад “Numerical Simulation of Aeroacoustics Problems on Parallel Computer Systems” (co-authors A.Alexandrov, V.Bobkov, T.Kozubskaya) 4. Международная конференция студентов, аспирантов и молодых ученых ЛОМОНОСОВ 2005, Москва, Россия, 12-16 апреля 2005 г. Устный доклад «Технология распараллеливания высокоточных алгоритмов на неструктурированный треугольных сетках» (соавтор И.А.Боровская) 5. Parallel CFD 2007 Conference, May 21-25, 2007, Antalya, Turkey. Устный доклад “Technology of parallelization for 2D and 3D CFD/CAA codes based on high-accuracy explicit methods on unstructured meshes” (co-authors I.V.Abalakin, T.K.Kozubskaya) 6. Parallel CFD 2007 Conference, May 21-25, 2007, Antalya, Turkey. Устный доклад “DNS of natural convection flows on MareNostrum supercomputer” (co-authors F. X. Trias, M. Soria and A. Oliva) 7. Всероссийская научно-практическая конференция "Вычислительный эксперимент в аэроакустике", 27-30 сентября 2006 года, г. Светлогорск Калининградской области. Устный доклад «Вычислительные эксперименты по звукопоглощающим конструкциям» (соавторы И.В.Абалакин, Т.К.Козубская) 8. Научный семинар сектора вычислительной аэроакустики ИММ РАН, февраля 2006 г., Москва, Россия. Устный доклад «Масштабируемый параллельный алгоритм для решения уравнения Пуассона при моделировании несжимаемых течений» (соавторы F. X. Trias, M. Soria and A. Oliva) 9. Семинар в ИБРАЭ РАН, 16 октября 2006 г., Москва, Россия. Устный доклад «Методика расчета задач аэроакустики на неструктурированных сетках и примеры задач» (соавторы И.Абалакин, А.Александров, И.Боровская, Т.Козубская) 10. Научный семинар «Авиационная акустика», 1-5 октября 2007 г., пансионат «Звенигородский» РАН, Московская обл., Заявлен устный доклад «Вычислительный эксперимент в инженерной аэроакустике на примере моделирования звукопоглощающих конструкций» (соавторы Т.К.Козубская, И.В.Абалакин, И.А.Боровская, К.А.Даниэль) 11. Научный семинар в ИММ РАН 13 сентябре 2007 г. Москва, Россия.

Устный доклад по материалам диссертации.

12. Научный семинар в ИВМ РАН, 18 сентября 2007 г., Москва, Россия.

Устный доклад по материалам диссертации.

13. Научный семинар в ИПМ РАН, 27 сентября 2007 г., Москва, Россия.

Заявлен устный доклад по материалам диссертации.

Публикации. Основные результаты диссертации опубликованы в работах, список которых приведен в конце данного автореферата.

Структура и объем работы. Диссертация состоит из введения, четырех глав, заключения и списка литературы. Объем составляет 140 машинописных страниц, текст содержит 25 рисунков и 3 таблиц СОДЕРЖАНИЕ РАБОТЫ

Во введении обоснована актуальность рассматриваемых в работе проблем, сформулированы основные цели диссертации и дано ее краткое содержание по главам. Показаны примеры применения вычислительного эксперимента в газовой динамике и аэроакустике. Приведен краткий обзор существующих методов и подходов к моделированию несжимаемых течений. Дана краткая классификация современных многопроцессорных вычислительных систем, а также параллельных технологий.

Первая глава посвящена проблеме распараллеливания последовательного комплекса программ, основанного на явных высокоточных алгоритмах с использованием неструктурированных сеток. Технология распараллеливания продемонстрирована на примере комплекса программ Noisette. Комплекс обладает основными осложняющими факторами, такими как повышенный порядок аппроксимации и обширный неструктурированный пространственный шаблон разностной схемы.

Рассматриваются задачи вязкого и невязкого нестационарного газодинамического обтекания. Используются три базовые математические модели: 1) уравнения Навье–Стокса;

2) система уравнений Эйлера;

3) линеаризованные уравнения Эйлера. Система уравнений может быть записана в виде, общем для трех моделей:

Q F (Q) G (Q) H (Q) 1 F NS (Q) G NS (Q) H NS (Q) + + + = + +, (1) t x y z Re x y z где Q – вектор полных или линеаризованных консервативных переменных, F, G, H – векторы полных или линеаризованных конвективных потоков, FNS, G NS, H NS – векторы полных или линеаризованных диссипативных потоков, Re – число Рейнольдса.

Для численного решения задачи (1), независимо от используемой математической модели, применяется метод повышенной точности для расчета задач нелинейной аэроакустики на неструктурированных сетках. Метод разработан в рамках конечно-объемного подхода и второго порядка точности аппроксимации на произвольных треугольных или тетраэдральных сетках.

Вместе с тем он включает элементы конечно-разностной идеологии построения численных алгоритмов, т. к. на «декартовых» подобластях расчетной сетки базовая конечно-объемная аппроксимация второго порядка точности вырождается в конечно-разностную аппроксимацию высокого порядка (до 6-го включительно в зависимости от выбора параметров схемы). Вязкие члены в уравнениях Навье-Стокса аппроксимированы на основе конечно-элементного метода со вторым порядком точности.

Работу по распараллеливанию, независимо от конкретного комплекса программ и его назначения, предлагается разделить на следующие основные этапы:

1) создание инфраструктуры (т. е. дополнительных программных модулей и внешних программ), которая будет обеспечивать:

автоматическую подготовку сетки для параллельных расчетов;

построение схемы пересылки данных;

параллельный вывод информации и сборку результата;

2) модификация кода:

реализация в коде пакета дополнительных структур данных;

модификация расчетных циклов;

реализация функций обмена данными;

внесение других необходимых изменений;

3) верификация параллельного кода, а именно тестирование параллельной версии на совпадение результатов вычислений с результатами исходной последовательной версии.

Функциональность инфраструктуры может быть реализована в виде отдельных программ или программных модулей. Во-первых, это позволяет минимизировать количество изменений в исходном комплексе программ, во-вторых, инфраструктура может быть использована в других программных комплексах. Возможно применение внешних программ, в частности, для разбиения расчетной сетки может использоваться программное обеспечение Metis и так далее.

Предлагаются несколько основных идей для существенного увеличения параллельной производительности. Один из основных подходов – сокращение обмена данными за счет наложения вычислений.

Во-первых, это наложение вычислений по элементам сетки: ребро, треугольник или тетраэдр принадлежит подобласти, если хотя бы один его узел принадлежит подобласти. Таким образом, элемент может принадлежать более чем одной подобласти. Несмотря на некоторые дополнительные вычисления, достигается общее повышение производительности и сокращение трудозатрат, поскольку существенно уменьшается объем обмена данными и количество изменений в коде.

Во-вторых, это наложение вычислений по узлам: большинство вычислительных циклов по узлам включают в себя также узлы из соседних подобластей, которые затрагивает шаблон разностной схемы (гало узлы) при расчете по узлам подобласти. В этом случае соответствующий обмен данными по возможности заменяется вычислениями, которые намного быстрее пересылки. Для набора узлов, состоящего из всех узлов подобласти и узлов гало, принадлежащих соседним подобластям, вводится обозначение – расширенная подобласть.

Использование специальных массивов перенумерации позволяет существенно упростить распараллеливание. Вводятся три нумерации: 1 – глобальная, 2 – локальная и 3 – локальная расширенная. Первая соответствует всей расчетной области, вторая – подобласти, третья – расширенной подобласти. Массивы перенумерации, показанные на рис. 1, используются для перехода с одной нумерации на другую. Все массивы по узлам имеют локальную расширенную нумерацию, за счет этого большинство вычислительных циклов не требует внесения изменений.

Рис. 1: Дополнительные массивы перенумерации, показанные стрелками, используются для перехода с одной нумерации на другую.

Разработанная по предложенной технологии параллельная версия комплекса программ Noisette в тестах на типичном малобюджетном кластере (так называемый тип Beowulf cluster) со стандартной сетью Ethernet показала параллельную эффективность 85% даже при использовании сравнительно небольшой сетки 8*104 узлов на 30 процессорах. На кластере с высокопроизводительной сетью Myrinet эффективность в аналогичном тесте составила 99.5%.

Таким образом показано, что падение производительности происходит только из-за обмена данными (на системе с высокопроизводительной сетью ускорение близко к идеальному), и наложение вычислений не оказывает практически никакого негативного влияния. Этот факт подтверждает эффективность подхода, заключающегося в замене пересылки наложением вычислений. График ускорения показан на рис. 2.

Выполненная верификация включает в себя сравнение результатов последовательной и параллельной версии на полное совпадение. Параллельная версия была тщательно верифицирована на наборе известных тестовых задач.

AMD Opteron + Myrinet Intel Xeon + Ethernet 1Gbit Ideal Speed up 10 20 N CPU Рис 2: Ускорение на различных параллельных системах. Сетка с числом узлов N=8* Во второй главе приводятся основные вычислительные эксперименты по моделированию звукопоглощающих конструкций, выполненные с использованием параллельной версии Noisette.

Импедансная труба Первая группа 2D и 3D модельных задач воспроизводит условия физического эксперимента в импедансной трубе. Эти задачи посвящены изучению звукопоглощающих свойств резонатора и механизма потери акустической энергии. На рис. 3 (слева) показана схема расчетной области. Плоская акустическая волна подается слева на входе. Задача имеет следующие параметры: диаметр трубы D=2.35см, диаметр горла d=0.75см, толщина перфорированного экрана L=0.6см. Монохроматическая акустическая волна имеет мощность 147.1 дБ и частоту 273 Гц.

Было численно получено явление перехода акустической энергии в энергию турбулентности. Волна разбивается на вихревые структуры в районе горла резонатора. Рис. 3 (справа) показывает характерную картину течения (изоповерхности плотности).

Рис. 3: Импедансная труба: схема (слева) и изоповерхности плотности около горла резонатора (справа) Канал с резонаторами Вторая модельная задача в упрощенной 2D постановке соответствует физическому эксперименту с акустическими лайнерами в канале, покрытом звукопоглощающими панелями. Для изучения коллективного влияния акустические лайнеры моделировались в системе из 1, 5 и 11 резонаторов. На рис. 4 показана схема расчетной области в случае 5 резонаторов. Эксперимент имеет следующие условия: на вход слева подается дозвуковой поток М=0.4, а также монохроматическая акустическая волна 3431 Гц, 150дБ.

Рис 4: Схема эксперимента в канале с резонаторами Следующие явления были исследованы при проведении серии вычислительных экспериментов:

1) свист резонатора;

2) развитие турбулентного слоя смешения в горле резонатора;

3) влияние развитого пограничного слоя;

4) взаимодействие свиста с входящей акустической волной;

5) эффект поглощения звука для различного числа резонаторов.

Поглощение звука было оценено сравнением спектра и выходной акустической энергии между тремя постановками: канал без резонаторов, канал с 5-ю резонаторам, канал с 11 резонаторами. Результаты представлены в таблице 1.

Таблица 1. Сравнение звукопоглощения Число резонаторов Акустическая мощность, дБ Поглощение, дБ 0 148.8 5 147.1 1. 11 144.3 4. Третья глава посвящена эффективному решению уравнения Пуассона при моделировании несжимаемых течений на параллельных системах различных масштабов. Рассматривается несжимаемая жидкость с постоянными физическими свойствами. Приближение Буссинеска используется для зависимости плотности от температуры. Тепловым излучением пренебрегается.

В этом случае безразмерная система уравнений Навье-Стокса имеет вид:

u = u = u u + Pr 2u p + f (2) t T = u T + 2T t Где f = [0, 0, RaPrT ]T - вектор массовых сил. Уравнения (2) дискретизованы по пространству на смещенной сетке с использованием спектрально согласованных схем 4-го, сохраняющих симметрию. Такая дискретизация сохраняет свойства лежащего в основе дифференциального оператора. Эти глобальные свойства дискретного оператора гарантируют как стабильность, так и то, что глобальный баланс кинетической энергии в точности удовлетворяется даже для грубых сеток. Для дискретизации по времени используется полностью явная динамическая одношаговая схема 2-го порядка. Наконец, для связи между давлением и скоростью используется классический проекционный метод дробного шага.

Уравнения момента и энергии не представляют сложностей для распараллеливания, поскольку дискретизованы с помощью полностью явного метода. Однако, основная проблема это уравнение Пуассона, к которому приводит уравнение неразрывности. Более того, использование схем 4-го порядка с сохранением симметрии для конвективных и диффузионных членов уравнений требует, чтобы оператор Лапласа в уравнении Пуассона также был 4-го порядка (иначе сохранение симметрии не будет выполняться). Решение уравнения Пуассона в данном случае является наиболее сложной проблемой с точки зрения распараллеливания. Предыдущая версия алгоритма для решения уравнения Пуассона была основана на прямом методе Фурье-Шура. Метод сочетает БПФ (быстрое преобразование Фурье) и метод Шура: БПФ позволяет разложить исходную 3D систему уравнений на набор независимых 2D систем, решение для которых находится с помощью метода Шура. Метод Фурье-Шура имеет хорошую производительность на малобюджетных кластерах с небольшим числом процессоров (20-40). Требуется только один обмен данными для нахождения точного решения, однако метод имеет специфические ограничения, в частности, по объему памяти и объему размеру обмена данными, которые растут как с размером сетки, так и с числом процессоров.

Эти ограничения не позволяют применять метод на большом числе процессоров и для сеток большого размера, делая метод практически неприменимым на суперкомпьютерах. В работе описан новый метод, основанный на сочетании метода Фурье-Шура с итерационным методом крыловского типа. Набор систем, получаемых после БПФ, имеет одну важную особенность – матрицы систем имеют различные числа обусловленности: у некоторых систем оно значительно выше, чем у остальных. Решение для большей части систем набора может быть эффективно найдено с помощью итерационного метода. Основная идея предложенного метода Крылова-Фурье Шура состоит в том, чтобы использовать итерационный метод для систем с низким числом обусловленности, а метод Шура лишь для некоторых систем с высоким числом обусловленности. Метода Крылова-Фурье-Шура имеет такие важные преимущества как хорошая масштабируемость и гибкость. Метод может эффективно применяться как на малобюджетных кластерах, так и на суперкомпьютерах с числом процессоров до тысячи и более.

Ф-Ш DSD DSD+CG К-Ф-Ш, 0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 Рис 5: Параллельное ускорение для метода Фурье-Шура и метода Крылова Фурье-Шура В данной главе описан способ адаптации метода к различному числу процессоров и к сетям различной латентности. Продемонстрирована высокая параллельная эффективность как на малобюджетных кластерах, так и на суперкомпьютере Маренострум Барселонского суперкомпьютерного центра с использованием до 1024 процессоров и сетки 1.11*108. На рис. 5 в качестве примера показано сравнение метода Фурье-Шура и метода Крылова-Фурье Шура в тесте на ускорение на суперкомпьютере Маренострум, с использованием сравнительно небольшой сетки 2*106 узлов.

В четвертой главе приводятся описание крупномасштабного прямого численного моделирования, а именно, DNS турбулентного течения при естественной конвекции от воздействия выталкивающих сил. Расчет выполнен с использованием численного метода, в основе которого описанный в данной работе метод Крылова-Фурье-Шура. Рассматривается течение несжимаемой жидкости в закрытой каверне с разными температурами на двух противоположных вертикальных стенках. На двух других вертикальных стенках – периодические граничные условия, на горизонтальных стенках – адиабатические.

Основные параметры задачи следующие:

• Pr = 0.71 (air) • Ra = • Соотношение геометрических размеров каверны 4: • Сетка состоит из 1.11*108 узлов • Схема 4-го порядка аппроксимации • Расчет на выполнен на 512-ти процессорах Несмотря на простоту геометрии, турбулентность при естественной конвекции является особенно сложным явлением, которое до сих пор полностью не изучено. Результаты DNS позволят продвинуться в изучении физики турбулентных течений и предоставят незаменимую информацию для дальнейшего прогресса в области моделирования турбулентности. Судя по открытой печати, выполненное DNS является самым крупным в мире для данного класса задач, а именно, для турбулентного течения в области, ограниченной стенками по двум осям. На рис. 5 в качестве примера показаны мгновенные поля течения, а рис. 6 показывает статистику второго порядка.

Рис 6: DNS турбулентного течения при естественной конвекции в закрытой каверне: мгновенные поля скорости по Y, Z и температуры в сечении по центру каверны (слева) и изоповерхности температуры (справа) Рис. 7: DNS турбулентного течения при естественной конвекции в закрытой каверне: осредненные поля второго порядка В заключении приведены основные результаты диссертации, сформулированы основные выводы и обозначены перспективы для дальнейшей работы.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ 1. Разработан эффективный метод распараллеливания явного алгоритма повышенной точности, использующего расширенный неструктурированный шаблон 2. Создан комплекс параллельных программ SuperNoisette 2D/3D с единым алгоритмическим ядром, реализующим расчеты задач газовой динамики и аэроакустики с повышенной точностью, как на треугольных, так и тетраэдральных сетках.

3. На основе ранее известного метода Фурье–Шура для решения уравнения Пуассона, который эффективен на небольших кластерах с сетью высокой латентности, разработан метод Крылова–Фурье–Шура. Новый метод может эффективно применяться на суперкомпьютерах и позволяет использовать сетки размером порядка 108 узлов и разностные схемы повышенной точности на числе процессоров порядка тысячи.

4. Проведены расчеты ряда актуальных задач газовой динамики и аэроакустики. Продемонстрирована высокая эффективность разработанных методов.

ПУБЛИКАЦИИ ПО ТЕМЕ ДИССЕРТАЦИИ 1. I.V.Abalakin, A.V.Gorobets, T.K.Kozubskaya, A.K.Mironov, Simulation of Acoustic Fields in Resonator-Type Problems Using Unstructured Meshes, AIAA 2006-2519 Paper (2006).

2. А.В.Горобец, Т.К.Козубская, Технология распараллеливания явных высокоточных алгоритмов вычислительной газовой динамики и аэроакустики на неструктурированных сетках. – Математическое моделирование, т.19, № 2, (2007), стр. 68-86.

3. И.В.Абалакин, А.В.Горобец, Т.К.Козубская, Вычислительные эксперименты по звукопоглощающим конструкциям. – Математическое моделирование, т. 19, № 8, (2007), стр. 15-21.

4. А.В.Горобец, Масштабируемый алгоритм для моделирования несжимаемых течений на параллельных системах. – Математическое моделирование, т. 19, №,11, (2007) 5. A. Gorobets, F. X. Trias, M. Soria and A. Oliva, A scalable Krylov-Schur Fourier Decomposition for the efficient solution of high-order Poisson equation on parallel systems from small clusters to supercomputers. – Computers&fluids (to be published) 6. A.V. Gorobets, I.V. Abalakin, T.K. Kozubskaya, Technology of parallelization for 2D and 3D CFD/CAA codes based on high-accuracy explicit methods on unstructured meshes - In Parallel Computational Fluid Dynamics. Elsevier, 2007.

7. F. X. Trias, A.V. Gorobets, M. Soria and A. Oliva, DNS of natural convection flows on MareNostrum supercomputer - In Parallel Computational Fluid Dynamics. Elsevier, 2007.



 

Похожие работы:





 
2013 www.netess.ru - «Бесплатная библиотека авторефератов кандидатских и докторских диссертаций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.