Паралельные вычисления

  • 20 дек. 2012 г.
  • 4776 Слова
8.Как задать число процессов, запускаемых на выполнение в кластере?

Нужно указать «Number of processes»: число запускаемых процессов. По умолчанию процессы распределяются поровну между компьютерами сети, однако это поведение можно изменить при помощи конфигурационного файла
9.Что необходимо сделать с выполняемым файлом параллельной программы, полученным после компиляции и компоновки в средеMicrosoft Visual C++ или Microsoft Visual Studio, чтобы он мог быть запущен на выполнение во всех узлах кластера?
Нужно разместить исполняемый файл на каждом компьютере под одним именем, в папке с общим доступом.
10.В каком порядке запускаются процессы на узлах кластера? Как изменить этот порядок?
Порядок запуска определяется тем, в каком порядке хосты перечислены в списке хостов в правой частиокна guiMPIRun. Изменить этот порядок можно
в MPICH Configuration tool.
11.Есть ли какая-либо зависимость между номерами процессов и цветом вывода результата в окно Output? Сколько всего цветов используется? Можно ли назначить вывод одним цветом? Если да, то как это сделать?
Вывод от различных процессов выделяется различным цветом. Вывод одним цветом осуществляется наличием опции No coloroutput
12.Как зафиксировать имя пользователя MPI и пароль в текущем сеансе работы с MPI? В текущем сеансе работы с операционной системой? Для всех последующих сеансов работы с операционной системой?
Чтобы зафиксировать имя пользователя MPI и пароль в текущем сеансе нужно активировать опцию “Remember this user/password” при вводе логина и пароля
Для регистрации аккаунта и пароля в программе следуетиспользовать приложение “MPIRegister”
13.Как оставить результаты нескольких выводов в окне Output?
Для сохранения результатов нескольких выводов в окне Output требуется активировать опцию “Don’t clear output on Run”
14.Как направить результаты, выводящиеся в окно Output, в файл? Будут ли они при этом выводиться в окно вывода?
Для направления результатов в файл нужно указать путь к фалу вопции “Redirect output to file”
17.Назовите группы функций, на которые делятся все функции MPI в зависимости от числа процессов и объясните, чем различаются эти группы.
1. Локальная функция - выполняется внутри вызывающего процесса. Ее завершение не требует коммуникаций.
2. Нелокальная функция - для ее завершения требуется выполнение MPI процедуры другим процессом.
3. Глобальная функция -процедуру должны выполнять все процессы группы. Несоблюдение этого условия может приводить к зависанию задачи.
4. Блокирующая функция - возврат управления из процедуры гарантирует возможность повторного использования параметров, участвующих в вызове. Никаких изменений в состоянии процесса, вызвавшего блокирующий запрос, до выхода из процедуры не может происходить.
5. Неблокирующая функция - возвратиз процедуры происходит немедленно, без ожидания окончания операции и до того, как будет разрешено повторное использование параметров, участвующих в запросе. Завершение неблокирующих операций осуществляется специальными функциями.

18.Что необходимо для начала работы с функциями библиотеки MPI и для завершения работы с ней?

Для начала работы с функциями,необходима инициализация параллельнойчасти программы
int MPI_Init(int *argc, char ***argv)

Для завершения параллельной части приложения
int MPI_Finalize(void)

19.Объясните аббревиатуру MPI_COMM_WORLD. Что обозначает этот идентификатор?

Коммуникатор предоставляет отдельный контекст обмена процессов некото-
рой группы. Контекст обеспечивает возможность независимых обменов дан-
ными. Каждой группе процессов можетсоответствовать несколько коммуни-
каторов, но каждый коммуникатор в любой момент времени однозначно со-
ответствует только одной группе.

MPI_COMM_WORLD – коммуникатор, объединяющий все процессы прило-
жения;

20.Для чего нужны параметры argc и *argv[] в функции main? Объясните подробнее их назначение.

Argc- число элементов массива,содержащего аргументы командной строки
Argv-...