Решение 2-мерного уравнения Лапласа методом 1-мерной декомпозиции

constint N=100;

float P[N][N],

h=0.01, //шаг сетки

eps=0.01, //точность

max, //норма

**p, //текущая итерация

**pp, //предыдущая итерация

a[N],b[N]; //вспомогательные векторы

inti,j,

c, //кол-во строк матрицы на каждом процессоре

stop = 1; //условие заверщения цикла

intrank,size;

MPI_Init(&argc,&argv);

MPI_Status status;

MPI_Comm_rank(MPI_COMM_WORLD,&rank);

MPI_Comm_size(MPI_COMM_WORLD,&size);

if(rank<N%size)

{

c=N/size+1;

}else

{

c=N/size;

}

p=newfloat*[c];

pp=newfloat*[c];

for(i=0;i<c;i++)

{

p[i]=newfloat[N];

pp[i]=newfloat[N];

p[i][0]=1;

pp[i][0]=1;

for(int j=1;j<N;j++)

{

p[i][j]=0;

pp[i][j]=0;

}

}

if(rank==0)

{

do

{

if(size>1)

{

MPI_Send(&p[c-1][0],N,MPI_FLOAT,rank+1,

0,MPI_COMM_WORLD);

MPI_Recv(a,N,MPI_FLOAT,rank+1,size,

MPI_COMM_WORLD, &status);

}

max=0.0;

for(i=1;i<c-1;i++)

{

for(j=1;j<N-1;j++)

{

p[i][j]=(pp[i+1][j]+pp[i-1][j]+pp[i][j+1]+pp[i][j-1])/4;

if(max<fabs(p[i][j]-pp[i][j]))

{

max=fabs(p[i][j]-pp[i][j]);

}

}

}

if(size>1)

{

for(j=1;j<N-1;j++)

{

p[c-1][j]=(pp[c-2][j]+a[j]+pp[c-1][j+1]+pp[c-1][j-1])/4;

if(max<fabs(p[c-1][j]-pp[c-1][j]))

{

max=fabs(p[c-1][j]-pp[c-1][j]);

}

}

floatmaxx;

for(i=1;i<size;i++)

{

MPI_Recv(&maxx,1,MPI_FLOAT,i,2*size,MPI_COMM_WORLD,&status);

if(maxx>max)

{

max=maxx;

}

}

}

if(max<=eps)

{

stop=0;

}

if(size>1)

{

for(i=1;i<size;i++)

{

MPI_Send(&stop,1,MPI_INT,i,3*size,MPI_COMM_WORLD);

}

}

for(i=0;i<c;i++)

{

for(j=0;j<N;j++)

{

pp[i][j]=p[i][j];

}

}

}while(stop==1);

for(i=0;i<c;i++)

{

for(int j=0;j<N;j++)

{

P[i][j]=p[i][j];

}

}

if(size>1)

{

intjj=c-1;

for(i=1;i<size;i++)

{

MPI_Recv(&c,1,MPI_INT,i,4*size,MPI_COMM_WORLD,&status);

for(j=0;j<c;j++)

{

jj++;

MPI_Recv(&P[jj][0],100,MPI_FLOAT,i,5*size,MPI_COMM_WORLD,&status);

}

}

}

ofstream out("result.txt");

for(i=0;i<N;i++)

{

for(int j=0;j<N;j++)

{

out<<P[i][j]<<'\t'; //вывожу в результаты в фаил

}

out<<'\n';

}

}

if(rank==size-1&&size>1)

{

do

{

MPI_Recv(b,N,MPI_FLOAT,rank-1,0,MPI_COMM_WORLD,&status);

MPI_Send(&p[0][0],N,MPI_FLOAT,rank-1,size,MPI_COMM_WORLD);

max=0;

for(i=1;i<c-1;i++)

{

for(j=1;j<N-1;j++)

{

p[i][j]=(pp[i+1][j]+pp[i-1][j]+pp[i][j+1]+pp[i][j-1])/4;

if(max<fabs(pp[i][j]-p[i][j]))

{

max=fabs(pp[i][j]-p[i][j]);

}

}

}

for(j=1;j<N-1;j++)

{

p[0][j]=(pp[1][j]+b[j]+pp[0][j+1]+pp[0][j-1])/4;

if(max<fabs(pp[0][j]-p[0][j]))

{

max=fabs(pp[0][j]-p[0][j]);

}

}

MPI_Send(&max,1,MPI_FLOAT,0,2*size,MPI_COMM_WORLD);

for(i=0;i<c;i++)

{

for(j=0;j<N;j++)

{

pp[i][j]=p[i][j];

}

}

MPI_Recv(&stop,1,MPI_INT,0,3*size,MPI_COMM_WORLD,&status);

}while(stop==1);

MPI_Send(&c,1,MPI_INT,0,4*size,MPI_COMM_WORLD);

for(i=0;i<c;i++)

{

MPI_Send(&p[i][0],N,MPI_FLOAT,0,5*size,MPI_COMM_WORLD);

}

}

if(rank>0&&rank<size-1)

{

do

{

MPI_Recv(b,N,MPI_FLOAT,rank-1,0,MPI_COMM_WORLD,&status);

MPI_Send(&p[c-1][0],N,MPI_FLOAT,rank+1,0,MPI_COMM_WORLD);

MPI_Recv(a,N,MPI_FLOAT,rank+1,size,MPI_COMM_WORLD,&status);

MPI_Send(&p[0][0],N,MPI_FLOAT,rank-1,size,MPI_COMM_WORLD);

max=0;

int ii;

if(rank<N%size||100%size==0)

{

ii=rank*c;

}

if(rank>N%size&&100%size!=0)

{

ii=(N%size)*(c+1)+(rank-N%size)*c;

}

for(i=1;i<c-1;i++)

{

for(j=1;j<N-1;j++)

{

p[i][j]=(pp[i+1][j]+pp[i-1][j]+pp[i][j+1]+pp[i][j-1])/4;

if(max<fabs(pp[i][j]-p[i][j]))

{

max=fabs(pp[i][j]-p[i][j]);

}

}

}

for(j=1;j<N-1;j++)

{

p[0][j]=(pp[1][j]+b[j]+pp[0][j+1]+pp[0][j-1])/4;

if(max<fabs(pp[0][j]-p[0][j]))

{

max=fabs(pp[0][j]-p[0][j]);

}

p[c-1][j]=(pp[c-2][j]+a[j]+pp[c-1][j+1]+pp[c-1][j-1])/4;

if(max<fabs(pp[c-1][j]-p[c-1][j]))

{

max=fabs(pp[c-1][j]-p[c-1][j]);

}

}

MPI_Send(&max,1,MPI_FLOAT,0,2*size,MPI_COMM_WORLD);

for(i=0;i<c;i++)

{

for(j=0;j<N;j++)

{

pp[i][j]=p[i][j];

}

}

MPI_Recv(&stop,1,MPI_INT,0,3*size,MPI_COMM_WORLD,&status);

}while(stop==1);

MPI_Send(&c,1,MPI_INT,0,4*size,MPI_COMM_WORLD);

for(i=0;i<c;i++)

{

MPI_Send(&p[i][0],N,MPI_FLOAT,0,5*size,MPI_COMM_WORLD);

}

}

Сурак

1.В каких случаях эффективно использование параллельных методик программирования ?

В последнее время, чтобы получить возможность задействовать на практике ту дополнительную вычислительную мощность, стало необходимо задействовать параллельные вычисления. Сейчас по разным причинам производители процессоров предпочитают многоядерные архитектуры, и для получения всей выгоды от возросшей производительности ЦП программы должны переписываться в соответствующей манере. В итоге происходит неуклонное возрастание потребности в ресурсоемких расчетах, которые в ряде случаев можно выполнить только на базе высокопроизводительной техники с помощью методов параллельных вычислений. Параллельные вычисления применяются в:

1) системах поддержки проектирования (CAD – Computer Aided Design). В таких системах необходимость осуществлять моделирование в реальном масштабе времени предъявляет высокие требования к производительности программного обеспечения. 2) инженерных приложениях. К этому классу относятся разнообразные задачи из области прочностного моделирования, моделирование аварийных ситуаций и многие другие; 3) математическом моделировании физических процессов. В этот широкий класс входят задачи динамики жидкости и газа, электромагнитные и ядерные взаимодействия, процессы горения и т.п. Такие процессы, как правило, описываются системами уравнений в частных производных. 4) моделирование глобальных процессов в науках о Земле. В первую очередь, это – задачи прогноза изменения климата, предсказание природных катаклизмов. 5) вычислительной химии. Разнообразные задачи этой области направлены на изучение свойств вещества в различных состояниях. 6) бизнес-приложениях. К этой категории относятся задачи, связанные с анализом финансовых рынков и прогнозирования курсов валют. Также распространены оптимизационные задачи, по формированию наилучшего варианта использования финансовых или иных ресурсов, построения оптимальных транспортных и телекоммуникационных сетей, размещения предприятий в регионе и многие другие задачи.

2. Как можно вычислить время, которое тратится на расчет определенного участка кода в MPI?

DOUBLE PRECISION MPI_WTIME

Эта функция возвращает на вызвавшем процессе астрономическое время в секундах, прошедшее с некоторого момента в прошлом. Если некоторый участок программы окружить вызовами данной функции, то разность возвращаемых значений покажет время работы данного участка.

Пример:

int main (int argc, char **argv)

{

int rank, size,wtime;

double startwtime=0, endwtime; - началоиконецотсчёта

double s=0;

MPI_Init(&argc, &argv);

MPI_Comm_size(MPI_COMM_WORLD, &size);

MPI_Comm_rank(MPI_COMM_WORLD, &rank);

startwtime=MPI_Wtime(); //вызываемwtime дляначала

printf ("hello world %d, size %d\n", rank, size);

endwtime=MPI_Wtime(); // вызываем wtime для завершения

printf ("time %d\n",(endwtime-startwtime)*size); //вывод времени работы данного участка

MPI_Finalize();}

Наши рекомендации