Implementere Open MPI Cluster med Cloudmesh launcher �

Implementere Open MPI Cluster med Cloudmesh launcher �

For a stotte Message Passing Interface (MPI) programmer med en klynge, gir Cloudmesh en ny kommandoprogrammer for a starte, konfigurere, administrere eller oppdatere beregne noder (VM) med Open MPI. launcher-kommandoen bruker standardinnstillinger for a konfigurere klynger med applikasjoner, slik at brukerne kan unnga problemer med a bygge klynger.

Innholdsfortegnelse.

Oppl ringsprogram: Implementere Open MPI Cluster med cm launcher �

Omtrentlig tid 10-15 minutter.

I denne oppl ringen skal vi distribuere en Open MPI-klynge ved hjelp av Cloudmesh launcher-kommandoen.

Start Cluster�

Start-startkommandoen starter en klase med et valgt program.

Kontroller status for Cluster�

Initialisering av en klynge krever litt tid for a installere pakker, konfigurere nettverk, etc. Mens det er initiert, kan du sjekke statusen for klyngedistribusjonen.

Du forventer at resultatet ligner:

CREATE_IN_PROGRESS: Klyngen er ikke tilgjengelig fordi oppretting av klyngen pagar. CREATE_COMPLETE: Klyngen er opprettet, og den er klar til bruk.

Logg inn pa Cluster�

Vi bruker cm vm login kommando til ssh til en av noder i klyngen. Utsted vm-listen forst for a se listen over virtuelle forekomster.

Du forventer at resultatet ligner:

Vi fant at openmpi1 er en node for a logge inn.

I dette eksemplet prover vi a ssh til openmpi1 med brukernavn for ec2-bruker.

Du forventer at resultatet ligner:

Bytt til rotbruker.

Du forventes a kjore openmpi-kommandoer som en roten superbruker.

Kjor en & # 8220; Hello World & # 8221; MPI program�

La & # 8217; s prove et enkelt eksempel for a prove et MPI-program. Her er hei.c:

Kompilere hello.c�

Siden vi kjorer Ubuntu 14.04 i dette eksemplet, folger vi med mpicc:

MPI hostfile�

Vi lager en hostfile for MPI-prosess som inneholder vertsnavnene (noder) i klyngen.

Hvis du har mer enn en enkelt CPU per node, bruk slots = N hvor N er et antall prosessorer. f.eks mpi1 slots = 2.

Kopier hei program til hver node�

hallo program bor finnes pa hver knutepunkt. Vi forplanter det bin re ved hjelp av scp:

Kjor MPI program�

Vi kjorer na hei-program pa de oppgitte nodene med mpirun-programmet:

-np-alternativet brukes til a fortelle hvor mange kopier av programmet som skal kjores. Vi har fem noder i dette eksemplet.

Forventet resultat ser slik ut:

Avslutt Cluster�

Nar du har fullfort oppgaven din pa klyngen, kan du avslutte klyngen med kommandoen cm launcher stop [name].

Du forventer at resultatet ligner:

I denne oppl ringen avslutter vi launcher-albert-openmpi-DB8JDK slik:


Vil du spille i det beste kasinoet? Vi fant det for deg. Spill her nå!