The Algorithm Mergesort, Working with MPI

We work with the algorithm of merge sort. Merge sort or merge_sort is an comparison-based sorting algorithm. In most implementations it is stable, meaning that it preserves the input order of equal elements in the sorted output. It is an example of the divide and conquer algorithmic paradigm.

Conceptually, a merge sort works as follows:

1.If the list is of length 0 or 1, then it is already sorted. Otherwise:
2.Divide the unsorted list into two sublists of about half the size.
3.Sort each sublist recursively by re-applying merge sort.
4.Merge the two sublists back into one sorted list.

The program works with one array size of 1000000 elements, in disorder, all the numbers are obtain with randomized method. The master task distributes an array to the workers in chunks, zero pads for equal load balancing the workers sort and return to the master, which does a final merge.
Our experiment contained a series of test of a C computing the sort of the array in different modes, with 1,2,3,…n processors . We ran this code on Tarzan.
Tarzan has two different types of nodes:

Tarzan n6s – n5s : SMP Thin 4-way PowerPC 604e 332 Mhz
Tarzan n1s..n4s: Power2 SC Thin 160 Mhz

More references you can find here:

In our experiments we worked with tarzan n6 and n5, running the program with 1-8 processors.

To compile the code, you need to have a C compiler. Compiling command is:

Mpcc mergesort.c


#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <mpi.h>

#define N 100000
#define MASTER 0		/* taskid of first task */

void showVector(int *v, int n, int id);
int * merge(int *A, int asize, int *B, int bsize);
void swap(int *v, int i, int j);
void m_sort(int *A, int min, int max);

double startT, stopT;

double startTime;

/*function to print a vector*/
void showVector(int *v, int n, int id)
	int i;
	printf("%d: ",id);
		printf("%d ",v[i]);

/*function to merge vectors*/
int * merge(int *A, int asize, int *B, int bsize) {
	int ai, bi, ci, i;
	int *C;
	int csize = asize+bsize;

	ai = 0;
	bi = 0;
	ci = 0;

	/* printf("asize=%d bsize=%d\n", asize, bsize); */

	C = (int *)malloc(csize*sizeof(int));	/*the array can be statically allocated too*/
	while ((ai < asize) && (bi < bsize)) {
		if (A[ai] <= B[bi]) {
			C[ci] = A[ai];
			ci++; ai++;
		} else {
			C[ci] = B[bi];
			ci++; bi++;

	if (ai >= asize)						/*if A is shorter*/
		for (i = ci; i < csize; i++, bi++)
			C[i] = B[bi];
	else if (bi >= bsize)					/*if B is shorter*/
		for (i = ci; i < csize; i++, ai++)
			C[i] = A[ai];

	for (i = 0; i < asize; i++)				
		A[i] = C[i];
	for (i = 0; i < bsize; i++)
		B[i] = C[asize+i];

	/* showVector(C, csize, 0); */
	return C;

void swap(int *v, int i, int j)
	int t;
	t = v[i];
	v[i] = v[j];
	v[j] = t;

void m_sort(int *A, int min, int max)
	int *C;		/* dummy, just to fit the function */
	int mid = (min+max)/2;
	int lowerCount = mid - min + 1;
	int upperCount = max - mid;

	/* If the range consists of a single element, it's already sorted */
	if (max == min) {
	} else {
		/* Otherwise, sort the first half */
		m_sort(A, min, mid);
		/* Now sort the second half */
		m_sort(A, mid+1, max);
		/* Now merge the two halves */
		C = merge(A + min, lowerCount, A + mid + 1, upperCount);

main(int argc, char **argv)
	int * data;
	int * chunk;
	int * other;
	int m,n=N;
	int id,p;
	int s = 0;
	int i;
	int step;
	MPI_Status status;


	startT = MPI_Wtime();
/**************************** master task ************************************/
	if(id == MASTER)
		int r;
		s = n/p;
		r = n%p;
		data = (int *)malloc((n+s-r)*sizeof(int));
			data[i] = random();

		chunk = (int *)malloc(s*sizeof(int));
		m_sort(chunk, 0, s-1);
		/* showVector(chunk, s, id); */

/**************************** worker task ************************************/
		chunk = (int *)malloc(s*sizeof(int));
		m_sort(chunk, 0, s-1);
		/* showVector(chunk, s, id);*/

      /*data propagation in a tree fashion*/
	step = 1;
				other = (int *)malloc(m*sizeof(int));
				chunk = merge(chunk,s,other,m);
				s = s+m;
			int near = id-step;
		step = step*2;

	stopT = MPI_Wtime();
		FILE * fout;

		printf("%d; %d processors; %f secs\n", s, p, (stopT-startT));

		fout = fopen("result","w");

$ cat

poe ./a.out -hfile 1.txt -procs 1
poe ./a.out -hfile 2.txt -procs 2
poe ./a.out -hfile 3.txt -procs 3
poe ./a.out -hfile 4.txt -procs 4
poe ./a.out -hfile 5.txt -procs 5
poe ./a.out -hfile 6.txt -procs 6
poe ./a.out -hfile 7.txt -procs 7
poe ./a.out -hfile 8.txt -procs 8


The code & Gprof


You can download the whole package with source codes, Makefile, executable and this report
on this address:

http //

The program is written according to C99 standard and should be executable on any UNIX/Linux
distribution with SDL library. For compilation you will need dev libraries as well.

Required libraries (Linux):

libsdl1.2debian libsdl1.2dev
packages with SDL library
packages for image manipulation

packages for manipulation with TrueType fonts

You can download SDL from .
Program has a preprepared Makefile, that will do the compiling for you. To install the program,
simply type make and then make clean to clean the workspace. To run the basic sequential version of
the program execute seq. To run the parallelized one, execute par. The parallelized version requires
parameters that will be described later on.


Profiling is a technique that, with a use of a special analysis tool (profiler), creates an
performance overview of a program as a whole and of its subprograms. This process is especially
focused on the frequency and duration of function calls from their invocation to termination. The
possible outputs may be a sequence of recorded events (a trace) or a statistical summary of the events
observed (a profile). Profilers use a wide variety of techniques to collect data, including hardware
interrupts, code instrumentation, instruction set simulation, operating system hooks, and performance

In our work, we used qprof and kprof. Lets start with gprof.


Gprof, part of the package called qprof, is a set of profiling utilities for Linux. It includes a
simple command line profiling tool, with the following characteristics (taken from manual):

● It is intended to be easy to install and use. No kernel modules or changes are required for basic

● It supports profiling of dynamically linked code and includes information on time spent in
dynamic libraries.

● It supports profiling of multithreaded

● It generates profiles for all subprocesses started from a shell. Thus it easily can be used to
profile application with multiple processes.
It tries to generate symbolic output. This is usually successful for the main program, if that has
debug information, i.e. was compiled with g.
If not, you may need a debugger to fully interpret the
results. However the raw output will often give you a rough idea of where processor time is spent.

How to do the profiling?

1. compile the code with a new flag pg:
$>gcc -pg sec.c -o sec -lSDL

2. executed the program:

when the program finish to work, automatic is generated one file called gmon.out

3. execute the profiler:
$>gprof sec

Program will generate a report.

For our program, we got this results:

table 1

● Time [%]: the percentage of the total running time of the program used by this function.
cumulative a running sum of the number of seconds accounted seconds for by this function and
those listed above it.

● Self [s]: the number of seconds accounted for by this function alone. This is the major sort for
this listing.

● Cumulative [s]: the number of times this function was invoked, if this function is profiled, else

● Self [ms/call]: the average number of milliseconds spent in this function per call, if this function
is profiled, else blank.

● Total [ms/call]: the average number of milliseconds spent in this function and its descendents
per call, if this function is profiled, else blank.

● Name : the name of the function. This is the minor sort for this listing. The index shows the
location of the function in the gprof listing. If the index is in parenthesis it shows where it would
appear in the gprof listing if it were to be printed.

Profiling with Gprof & Kprof

In this lines we are going to demonstrate the process and outcomes of the performance analysis, sequential optimization and parallelization of a program for drawing fractals. In the beginning of this report, we use profiling to analyze the performance of the parts of the program, identify the parts that consume excessive amount of resources, identify and discuss parts suitable for optimization and parallelization and then create series of tests of the parallel-ability of the code.

For the performance analysis, we use the freely accessible tools gprof and its graphical interface kprof. For the time being, these are two mostly used tools for dynamical analysis of the program (profiling).
For our experimentation we chose program written earlier by Felipe, as we believe it has pretty high potential of optimization – and also its parallelization is possible to demonstrate the strength of the technique. Objective of the program we are going to use is simply to draw a fractal based on the given parameters. Program doesn’t interact with user through the GUI, so in all cases the most time is spent by computing the result image.

The sequential program drawing the Fractal

The sequential program drawing the Fractal

In the beginning program contains just a sequential algorithm to draw the gray-scale version of a fraction of the Mandelbrot fractal. That means that program basically contain few loops for counting a value pixel by pixel. Simplicity is its main advantage. However once we start to care about performance, we have to admit, that such a approach has proved itself to be highly inefficient on the modern computers with two or more processing units.

The parallel program

The parallel program

Later on we will come to the part, where the computation can be partially (or fully) parallelized – depending on the parameters. The sequential part will remain in gray tones, and the part parallelized with the use of a monitor and threads will be displayed in saturated colors.

In the next post we will work with GProf & Kprof for do one profiling for this Program.

Optimizacion de funciones mediante metodo de Rosenbrock

Plot of the Rosenbrock function of two variables.

In mathematical optimization, the Rosenbrock function is a non-convex function used as a test problem for optimization algorithms. It is also known as Rosenbrock’s valley or Rosenbrock’s banana function.

This function is often used to test performance of optimization algorithms. The global minimum is inside a long, narrow, parabolic shaped flat valley. To find the valley is trivial, however to converge to the global minimum is difficult.

It is defined by

f(x, y) = (1-x)^2 + 100(y-x^2)^2 .\quad

It has a global minimum at (x,y) = (1,1) where f(x,y) = 0. A different coefficient of the second term is sometimes given, but this does not affect the position of the global minimum.

A common multidimensional extension is

f(x) = \sum_{i=1}^{N-1} \left[  (1-x_i)^2+ 100 (x_{i+1} - x_i^2 )^2 \right] \quad \forall  x\in\mathbb{R}^N.[1]

For N \ge 4, the function has at least one local minimum in the neighborhood of (x_1, x_2, \dots, x_N) = (-1, 1, \dots, 1) in addition to the trivial global minimum at (x_1, \dots, x_N) = (1, \dots, 1). [2]








# Restart


# Función utilizada para vaciar la memoria principal, usada por el servidor Maple, de #esta

# manera cada vez que ejecutemos el programa, Maple limpiara la memoria principal.




# sea: los siguientes valores principales del método,

# X:

# Es equivalente a el punto X subcero para comenzar a ejecutar el método


# Iteraciones:

# es el numero máximo de iteraciones que dará el programa, esto llegara a su limite si y solo si el error #nunca es menor que 0.01


# Distancia

# Es el criterio utilizado para avanzar de x subcero, hacia x+d, de esta manera se recorre la función en el #caso de ser un éxito, es decir cuando x subcero es mayor que x+d.


# beta y alfa

# Estos son los valores de score que se le asigna a D, cuando se encuentra un éxito o un fracaso, de esta # manera se castiga la distancia y así examinaremos la función tanto hacia la derecha y la izquierda.

x := evalf(sin((1/3)*Pi));

iteraciones := 0;

distancia := 1;

beta := -1/2;

alfa := 2;

errol := 1;

# El siguiente ciclo, representa el algoritmo de Rosenbrock, ya que, iremos iterando durante 50 veces ó cuando el error medio # sea menor a 0.01, en cada rutina realizamos lo siguiente:


# ->Calculamos el error medio con los valores de x subcero & x+d; y lo guardamos en errol.

# ->Utilizamos dos variables auxiliares para tener los puntos x subcero y x+d.

# ->Realizamos la comparación para saber si x subcero es mayor o menor de x+d.

# ->Tomamos la decisión de examinar la función a la derecha o a la izquierda y asignamos el respectivo #score por alfa o beta.

# ->Repetimos el proceso.

while (errol > 0.1e-1 `and` iteraciones < 50) do

errol := (1/2) * abs( sin(x) – sin(x+distancia) );

xaux := sin(x);

xaux2 := sin(x + distancia);

if xaux > xaux2 then

x := x + distancia;

distancia = distancia * alfa;


distancia := distancia * beta;

x := x + distancia;

end if;

iteraciones := iteraciones + 1;

end do;

#Entregamos el valor mínimo, bajo un error de 0.01 y con los parámetros iniciales

#Graficamos la función para denotar si es correcto el mínimo.

printf(“El valor mínimo esta en x = %f”,x);

plot((t*t)*t, t = -3 .. 3, color = red);

Grafico de X*X*X optimizado mediante Rosenbrock

Grafico de X*X*X optimizado mediante Rosenbrock

Into The Wild


1.- Resumen del libro:

Al graduarse en la universidad, Christopher McCandless, un joven de 22 años al que todos auguran un brillante futuro, decide dejar atrás su cómoda vida en busca de aventuras. El periplo del joven trotamundos le convirtió en un símbolo para muchas personas. ¿Fue Christopher McCandless un heroico aventurero o un idealista ingenuo, un Thoreau rebelde de los noventa u otro americano perdido, un temerario o una trágica figura que vivió en el precario equilibrio existente entre el hombre y la naturaleza?
Cada paso de su viaje está reflejado en la adaptación que realiza Sean Penn del aclamado superventas de Jon Krakauer, “Hacia rutas salvajes”, que habla de la insaciable añoranza de la familia, el hogar y los amigos, y de la búsqueda de la verdad y la felicidad.

2.- Titulo Original:

English: Into the wild.

Español: Hacia rutas salvajes.

3.- Lector :

Felipe Andrés Besoaín Pino.

4.- Comentario del lector :

Personalmente puedo decir que es un libro lleno de emociones, tanto para el escritor como para el lector, genera instancias en las cuales podrás sentir lo que vivio otra persona, y te llevará a pensar como el ser humano busca muchas veces algo que simplemente lo tiene en su entorno.

¿Como vivimos? ¿Que queremos? ¿Que es lo válido y lo no válido? son algunas preguntas que se hacen muy habituales en la vida, si en algun momento haz pensado en dejar todo por construir un sueño, este libro vale la pena leerlo, ya que, existen muchas personas que han tomado esa difícil desición… algunas con un buen final y otras que no lo lograron, pero…….. nunca se quedaron con la duda de que ubiese pasado si lo ubieran hecho.

El amor, es una de las cosas sustanciales en estas páginas, tanto al projímo como a uno mismo, a nuestro entorno, a los parajes que nos hablan y nos congelan hasta lo mas profundo de nuestra alma, el ser humano ha tratado de entender el conepto de vida a lo largo de generaciones y generaciones… pero puede existir un momento .. donde podŕíamos comprendernos a nosotros mismos? soledad, desilución… triunfo, plenitud y tranquilidad son algunos coceptos que encontraras en este libro.

Por último, si analizas la vida, si te gustan los detalles, si no vives con grandes lujos porque entiendes que has cosas que son mas importantes que estos, si amas, si te amas. te invito a leer este libro.. una gran obra que se marca aún más, con pasajes de otros libros citas y pensamientos de mucha gente.

5.- Género :

Hecho de la vida real, recopilación de vivencias.


Montar una imagen NRG en Linux

Todo surge , ya que encontre los caitulos de Robotech!!! en español ( o sea el mismo que vi cuando era pequeño).

Lamentablemente venian en formato .NRG… en ese momento dije … pfff nero , programa para quemar discos y dvd en winintendo… y que ago en linux ¿?

Remontandonos al contexto especifico… ¿ que es un .NRG? , facil … es solo una imagen de un sistema de archivos , el cual se leer de una manera diferente es como un “todo”, ya que como bien sabemos los archivos , son archivos que tienen datos aquí y en winintendo y en el universo.


ahi podemos ver, mi .rar con la NRG de Robtech!!. pero buen vamos a la solución…

Como es una sistema de archivos perfectamente podria crear un punto de montaje… la pregunta es ¿como?..
la respuesta es :  “Nose”.


Si que investigando en el bien ponderado “man de linux” la secuencia es la siguente:

Creamos un directorio en /mnt (lugar donde realizo los puntos de montaje)

Debian-Felipe@> mkdir /mnt/isos
Debian-Felipe@>mount -o loop imagen.nrg /mnt/isos
Debian-Felipe@>cd /mnt/isos
Debian-Felipe:/mnt/isos/Videos-Robotech$ ls

01-El Se?uelo.avi  03-Cuenta Regresiva.avi  Robotech-Fin-(Spanish).avi
02-Conteo.avi      04-Una Larga Espera.avi  Robotech-Principio-(Spanish).avi

Debian-Felipe@>totem 01-El Se?uelo.avi &

Así de lindo y simple…

Programación a bajo nivel

El presente codigo, lo que hace en pocas palabras, escribira en el ejemplo en la salida estandar o un archivo a bajo nivel , la manera de ejecutarlo es .


Uso y parámetros:

La llamada al sistema write realiza la escritura de datos desde un archivo sus parámetros son:
o Descriptor del fichero que se va a escribir
o Buffer donde están los datos a escribir
o Número de bytes a escribir

•   Devuelve:
o Número de bytes que se consiguieron escribir
o < 0 en caso de error

#include <unistd.h>
#include <stdlib.h>
int main(){

if((write(1,”Ayudantia de sistemas operativos\n”,40))!=40){

write(2,”Error de escritura”,18);

return 0;


El presente codigo, lo que hace en pocas palabras, leera un archivo a bajo nivel , la manera de ejecutarlo es entregrando la salida mediante un pipe.

Uso y parámetros:
La llamada al sistema read realiza la lectura de datos desde un archivo sus parámetros son:
o Descriptor del fichero que se va a leer
o Buffer donde se almacenarán los datos
o Número de bytes a leer

•  Devuelve:
o Número de bytes que se consiguieron leer
o < 0 en caso de error
debian$>cat /proc/cpuinfo | read.out
#include <unistd.h>
#include <stdlib.h>

int main(){

char buffer[128];
int nread;


if(nread == -1){

write(2,”Error de lectura”,18);


write(2,”Error de escritura”,20);


return 0;


La compilación es normal , mediante Gcc