Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/brunocascio/docker-espanol

Un tutorial Docker en español. Basado en el libro Docker Cookbook de O'reilly
https://github.com/brunocascio/docker-espanol

docker espanol spanish tutorial

Last synced: about 2 months ago
JSON representation

Un tutorial Docker en español. Basado en el libro Docker Cookbook de O'reilly

Awesome Lists containing this project

README

        

# Docker

---

## Conceptos importantes:

- Docker (daemon)
- Docker-machine (client)
- Docker Images
- Docker Containers

## Introducción

La idea de Docker, es la de crear aplicaciones/servicios que sean independientes y portables. Esto es, no importa que sistema operativo utilices o con que hardware cuentas, si puedes instalar docker, entonces podras correr tus contenedores en él.
Entre las ventajas de usar docker, se encuentra la de olvidarte de instalar dependencias (ejemplo nodejs, java, python, ruby, etc) dentro de tu host o servidor y sin utilizar máquinas virtuales. A lo largo de este documento, iremos viendo el ecosistema de Docker y como todo se relaciona.

Docker posibilita ir de tu maquina local a producción, con tu aplicació lista. Ya no es necesario instalar en cada servidor dependencias o depender del sistema operativo. Solo basta con tener Docker instalado.

## Instalación

La instalación puede seguirse desde la [Documentación Oficial](https://docs.docker.com/engine/installation/).

## Empezando

### `images`

Muestra las imagenes locales disponibles.

```
$ docker images
```

Podemos eliminarlas con `docker rmi `, siempre y cuando no tenga contenedores asociados (corriendo o no).

### `events`

Podemos ver en tiempo real, los eventos que Docker lanza en nuestro servidor, solo basta con:

```
$ docker events
```

### `run`

Corremos un contenedor con la _imagen_ base `busybox`, que ejecuta el comando `echo hello world` dentro. Luego de esto, el contenedor se detendrá, porque de esta forma funciona como un "job".

```
$ docker run busybox echo hello world
```

### `ps`

Muestra los contenedores en ejecución (running).

```
$ docker ps
```

Si lo ejecutamos luego del comando anterior, no mostrará nada porque lo anterior era solo un `build, run, die`.

Para ver el historial de ejecución y los contenedores actualmente creados (corriendo o no), ejecutamos:

```
$ docker ps -a
```

Esto nos mostrará todos los contenedores que se encuentran creados hasta el momento. Podemos borrarlos si queremos ejecutando `docker rm `

### `run` avanzado

Podemos pasar muchas opciones al comando `run`, las cuales podemos ver con:

```
$ docker run --help
```

#### `run` interactivo

Probemos de ejecutar y usar una terminal en el contenedor:

```
$ docker run -t -i ubuntu:14.04 /bin/bash
```

- `-t`: Asigna una tty
- `-i`: Nos comunicamos con el contenedor de modo interactivo.

**NOTA:** Al salir del modo interactivo el contenedor se detendrá.

#### `run` Detached Mode

Problema: Ya sabemos cómo correr un contenedor de manera interactiva, pero el problema es que el mismo al terminar de ejecutar la tarea, finaliza. Si se quieren hacer contenedores que corran servicios (por ejemplo, un servidor web) el comando es el siguiente:

```
$ docker run -d -p 1234:1234 python:2.7 python -m SimpleHTTPServer 1234
```

Esto ejecuta un servidor Python (SimpleHTTPServer module), en el puerto `1234`. El argumento `-p 1234:1234` le indica a Docker que tiene que hacer un **port forwarding** del contenedor hacia el puerto `1234` de la máquina host.

Ahora podemos abrir un browser en la dirección `http://localhost:1234`.

**Algo más**

La opción `-d` hace que el contenedor corra en segundo plano. Esto nos permite ejecutar comandos sobre el mismo en cualquier momento mientras esté en ejecución. Por ejemplo:

`$ docker exec -ti /bin/bash`

Aquí simplemente se abre una `tty` en modo `interativo`. Podrían hacerse otras cosas como cambiar el _working directory_, setear _variables de entorno_, etc. La lista completa puede verse [acá](https://docs.docker.com/reference/run/)

## Ciclo de vida de un contenedor

Hasta ahora vimos cómo ejecutar un contenedor tanto en foreground como en background (detached). Ahora veremos cómo manejar el ciclo completo de vida de un contenedor.
Docker provee de comandos como `create` , `start`, `stop`, `kill` , y `rm`. En todos ellos podría pasarse el argumento `-h` para ver las opciones disponibles.
Ejemplo: `docker create -h`

Más arriba vimos cómo correr un contenedor en segundo plano (detached). Ahora veremos en el mismo ejemplo, pero con el comando `create`. La única diferencia que esta vez no especificaremos la opción `-d`. Una vez preparado, necesitaremos lanzar el contenedor con `docker start`.

Ejemplo:

```
$ docker create -P --expose=8001 python:2.7 python -m SimpleHTTPServer 8001
a842945e2414132011ae704b0c4a4184acc4016d199dfd4e7181c9b89092de13
$ docker ps -a
CONTAINER ID IMAGE COMMAND CREATED ... NAMES
a842945e2414 python:2.7 "python -m SimpleHTT 8 seconds ago ... fervent_hodgkin
$ docker start a842945e2414
a842945e2414
$ docker ps
CONTAINER ID IMAGE COMMAND ... NAMES
a842945e2414 python:2.7 "python -m SimpleHTT ... fervent_hodgkin
```

Siguiendo el ejemplo, para detener el contenedor se puede ejecutar cualquiera de los siguientes comandos:

```bash
docker kill a842945e2414 # (envía SIGKILL)
```

```bash
docker stop a842945e2414 # (envía SIGTERM).
```

Así mismo, pueden reiniciarse:

```bash
docker restart a842945e2414
```

o destruirse:

```bash
docker rm a842945e2414
```

## Crear una imagen Docker con un Dockerfile

**Problema:**

Ya entendemos cómo se descargan las imágenes del _Docker Registry_. ¿Qué pasa si ahora quisiéramos armar nuestras propias imagenes? (Para compartir, obvio 😜)

**Solución:**

Usando un [Dockerfile](https://docs.docker.com/engine/reference/builder/). Un `Dockerfile` es un archivo de texto, que describe los pasos (secuenciales) a seguir para preparar una imagen Docker. Esto incluye instalación de paquetes, creación de directorios, definición de variables de entorno, ETC.
Toda imagen que creemos, parte de una _base image_. Como en otro de los ejemplos, usaremos la imagen [busybox](https://busybox.net/about.html) la cual combina utilidades UNIX en un único y simple ejecutable.

**Comenzando:**

Crearemos nuestra propia imagen con la imagen base _busybox_ y setearemos sólo una variable de entorno para mostrar el funcionamiento.

El siguiente comando crea el directorio pepe y se posiciona dentro de él:

`$ mkdir pepe && cd $_`

Creamos el Dockerfile:

`$ touch Dockerfile`

Escribimos las siguientes líneas dentro del `Dockerfile`:

```Dockerfile
FROM busybox

ENV foo=bar
```

Hecho esto, haremos un `build` de la imagen con el nombre `my-busybox`:

`$ docker build -t my-busybox .` (Chequear el . al final)

Si todo salió bien al hacer `docker images`, deberíamos encontrar nuestra imagen. ¡WALÁ!

## Ejemplo Real: Wordpress Dockerizado.

_Es un setup básico, no lo usaría en producción :)_

Para esto usaremos MySql y HTTPD (apache o nginx).

**Problema:**

Como Docker ejecuta procesos en _foreground_, necesitamos encontrar la forma de ejecutar varios de estos simultáneamente. La directiva `CMD` que veremos más adelante, sólo ejecutará una instrucción. Es decir, si tenemos varios `CMD` dentro de un _Dockerfile_, ejecutará sólo el último.

**Solución:**

Usando [Supervisor](http://supervisord.org/index.html) para monitorear y ejecutar MySql y HTTPD. Supervisor se encarga de controlar varios procesos y se ejecuta como cualquier otro programa.

Veremos diferentes formas de hacer esto. En principio crearemos todo dentro de un único contenedor, pero luego explotaremos al máximo los principios y características de Docker para hacerlo, por ejemplo separar servicios en diferentes contenedores y _linkearlos_.

### Usando Supervisor y en un único contenedor

Creamos el Dockerfile, con este contenido:

```Dockerfile
# Imagen Base
FROM ubuntu:14.04

# Instalamos dependencias
# apache2: Servidor Web
# php5: Lenguaje de programacion PHP
# php5-mysql: Driver de MySql para PHP
# supervisor: Lanzadaror y Monitor de procesos
# wget: Utilidad para obtener archivos via HTTP
RUN apt-get update && apt-get -y install \
apache2 \
php5 \
php5-mysql \
supervisor \
wget

# mysql-server se instala con intervención del usuario,
# pero como no es modo interactivo lo que hacemos es setearle las variables
# con un valor.
# Para simplificar hemos usado como usuario y contraseña de mysql 'root'
RUN echo 'mysql-server mysql-server/root_password password root' | \
debconf-set-selections && \
echo 'mysql-server mysql-server/root_password_again password root' | \
debconf-set-selections

# Procedemos ahora sí, a instalar mysql-server
RUN apt-get install -qqy mysql-server

# Preparamos Wordpress
# Obtenemos la última versión
# Descomprimimos
# Copiamos el contenido dentro del root del servidor
# Removemos el viejo index.html (mensaje de bienvenida de apache)
RUN wget http://wordpress.org/latest.tar.gz && \
tar xzvf latest.tar.gz && \
cp -R ./wordpress/* /var/www/html && \
rm /var/www/html/index.html

# De esto se encargaría supervisor, pero como necesitamos crear la base de datos
# ejecutamos a mysql en background y creamos la base de datos llamada wordpress
RUN (/usr/bin/mysqld_safe &); sleep 5; mysqladmin -u root -proot create wordpress

# Reemplazamos el archivo wp-config.php (más abajo lo creamos) a la carpeta de wordpress
# Este archivo contiene la configuración de nuestro sitio
COPY wp-config.php /var/www/html/wp-config.php

# Copiamos el archivo de configuración de supervisor (más abajo lo creamos)
COPY supervisord.conf /etc/supervisor/conf.d/supervisord.conf

# Le decimos al contenedor que tiene que hacer accesible al puerto 80 (en el que corre HTTPD)
# para así nosotros poder acceder al mismo desde fuera
EXPOSE 80

# Lanzamos Supervisor como proceso Foreground de Docker
# Este se encargará de lanzar simultaneamente los demás :D
CMD ["/usr/bin/supervisord"]
```

Creamos el archivo `supervisord.conf` con este contenido:

```
[supervisord]
nodaemon=true

[program:mysqld]
command=/usr/bin/mysqld_safe
autostart=true
autorestart=true
user=root

[program:httpd]
command=/bin/bash -c "rm -rf /run/httpd/* && /usr/sbin/apachectl -D FOREGROUND"
```

Creamos el archivo `wp-config.php` con este contenido:

```php
` deberíamos visualizar la página de instalación de wordpress.

**Nota:**

Usar Supervisor para ejecutar varios servicios dentro del mismo contenedor, podría trabajar perfectamente, pero es mejor usar múltiples contenedores. Estos proveen del aislamiento (isolation) entre otras bondades de Docker, y nos ayuda además a crear una aplicación basada en [microservicios](http://bit.ly/building-microservices). Por último, también esto nos ayuda a escalar y a recuperarnos de posibles fallas.

## Corriendo Wordpress usando 2 contenedores linkeados.

**Problema:**

Hasta ahora ejecutamos una instancia de wordpress con su servidor y su base de datos, en un mismo contenedor. El problema es que no explotamos al máximo a Docker, y no mantenemos tampoco el concepto de _Separation of concerns_. Necesitamos desacoplar el contenedor lo más fino posible.

**Solución:**

Usar 2 contenedores. Uno para Wordpress y otro para MySql. Luego se interconectarán mediante la opción de docker `--link`.

**Manos a la obra:**

Para este ejemplo usaremos las imágenes docker oficiales de wordpress y mysql.

```
$ docker pull wordpress:latest
$ docker pull mysql:latest
```

**Ejecutamos un contenedor MySql**

```
$ docker run --name mysqlwp -e MYSQL_ROOT_PASSWORD=wordpressdocker \
-e MYSQL_DATABASE=wordpress \
-e MYSQL_USER=wordpress \
-e MYSQL_PASSWORD=wordpresspwd \
-v /db/mysql:/var/lib/mysql \
-d mysql
```

NOTA: Aquí hay nuevas opciones:

- `-e` es para setear variables de entorno. Esas variables están definidas dentro del Dockerfile de MySql, por lo que nosotros le damos valor, para que el contenedor a ejecutar, use esos datos.
- `-v` es para montar un volumen entre el host y el contenedor. En este caso en el host se populará el volumen `/db/mysql/` con la info de `/var/lib/mysql`.
- Los volúmenes tienen diferentes usos:
- Se crean cuando se inicializa el contenedor
- Compartir información entre diferentes contenedores
- Mantener la info luego de haber borrado el contenedor
- Cambios en los volúmenes son directamente aplicados (no hay que hacer nada adicional con el contenedor para actualizar)
- Los cambios de un volumen no se incluirán en la actualización de la imagen

**Ejecutamos y linkeamos a wordpress**

```
$ docker run --name wordpress --link mysqlwp:mysql -p 80:80 \
-e WORDPRESS_DB_NAME=wordpress \
-e WORDPRESS_DB_USER=wordpress \
-e WORDPRESS_DB_PASSWORD=wordpresspwd \
-d wordpress
```

NOTA: La imagen de wordpress, expone el puerto 80 y lo que hacemos es mapearlo con el 80 del nuestro Host. Como en la imagen de MySql, en wordpress tambien contamos con algunas variables de entorno, éstas para la configuración del mismo. Básicamente seteamos las credenciales de la base de datos anteriormente creada, para que wordpress use las mismas.

## Haciendo backups de la base de datos de un contenedor

**Problema:**

Tenemos un contenedor de mysql ejecutando, pero necesitamos hacer un backup de la base de datos que se ejecuta dentro del contenedor.

**Solucion:**

Usar el comando `docker exec` para ejecutar en el contenedor MySql el comando `mysqldump`

Chequeamos en nuestro host que existe la carpeta `/db/mysql`

`$ ls /db/mysql`

Ahora, para hacer un backup de la base de datos de ese contenedor ejecutamos:

`docker exec mysqlwp mysqldump --all-databases --password=wordpressdocker > wordpress.backup`

Ahora ejecutamos `$ ls` y veremos el archivo `wordpress.backup` :)

## Compartir información entre el Docker Host y los contenedores

**Problema:**

- Tenemos información local, que queremos que este disponible en un contenedor (por ejemplo, en desarrollo, el codigo de tu aplicación).
- Tenemos informacion del contenedor que necesitamos guardar en el host (por ejemplo una base de datos)

**Solución:**

Usando volúmenes (opción `-v` antes vista) para montar uno entre el host y el contenedor.

Por ejemplo, si queremos compartir nuestro directorio de trabajo, con un directorio particular del contenedor podríamos hacer:

```
docker run -ti -v "$PWD":/pepe ubuntu:14.04 /bin/bash
```

Lo que hicimos con ese comando, fue montar como volumen nuestro directorio actual con el directorio `/pepe` en el contenedor (OJO, `/` referencia al root del filesystem). Además, como vimos antes con las opciones `-ti` levantamos un tty y de modo interativo ejecutamos una instancia de bash.

**Algo más:**

Docker provee de un comando `docker inspect` que sirve para observar la información de un contenedor.

`docker inspect -f {{.Mounts}} `

Con el comando anterior, filtramos de toda la información, solo los puntos de montaje. Como salida obtendremos algo como:

`[{ /path/to/pwd /pepe true}]`

**Disclaimer**

Docker tiene un [apartado sobre volúmenes](https://docs.docker.com/storage/) que es muy importante conocer.

Cada tipo de volumen (bind, tmpfs, named) tienen usos distintos, y hacer uso del equivocado podria traernos problemas de performance o aun peor, perdida de datos si no usamos los comandos adecuadamente.

Si te encontras con problemas de performance en OSX, probablemente esto te sea util [docker sync](http://docker-sync.io/)

## Compartir información entre contenedores

**Problema:**

Ya sabemos cómo montar un volumen de nuestro Host en un contenedor. Pero ahora quisiéramos compartir ese volumen definido en el contenedor con otros contenedores.

**Solución:**

Usando _data containers_. Cuando queremos montar un volúmen en un contenedor lo que hacemos es con el argumento `-v` decirle el directorio _X_ del host que debe montarse en el el path _Y_ del contenedor.
El volúmen especificado se crea como de lectura-escritura dentro del contenedor y no como las capas de sólo lectura usadas para crear el contenedor, pudiéndose modificar también desde la máquina host.

```
$ docker run -ti --name=cont1 -v /pepe ubuntu:14.04 /bin/bash
root@cont1:/# touch /pepe/foobar
root@cont1:/# ls pepe/
foobar
root@cont1:/# exit
exit
bash-4.3$ docker inspect -f {{.Mounts}} cont1
[{dbba7caf8d07b862b61b39... /var/lib/docker/volumes/dbba7caf8d07b862b61b39... \
/_data /pepe local true}]
$ sudo ls /var/lib/docker/volumes/dbba7caf8d07b862b61b39...
foobar
```

Y ahora ejecutamos otro contenedor con el volumen anteriormente creado.

```
$ docker run --volumes-from=cont1 --name=cont2 ubuntu:14.04
$ docker inspect -f {{.Mounts}} cont2
[{4ee1d9e3d453e843819c6ff... /var/lib/docker/volumes/4ee1d9e3d453e843819c6ff... \
/_data /pepe local true]
```

## Copiando datos entre el host desde y para los contenedores

**Problema:**

Tenemos un contenedor que no tiene volúmenes configurados, y queremos copiar archivos desde y en el contenedor.

**Solución:**

Usando `docker cp` para pasar información desde y para un contenedor en ejecución.

Podemos ver más opciones con `docker cp --help` o sólo `docker cp`.

Por ejemplo, para pasar archivos desde el docker host hacia el contenedor:

```
$ docker run -d --name testcopy ubuntu:14.04 sleep 360
$ touch pepe.txt
$ docker cp pepe.txt testcopy:/root/file.txt
```

Y pasando del contenedor hacia el docker host:

```
$ docker cp testcopy:/root/file.txt pepe.txt
$ ls
pepe.txt
```

## Crear y compartir `Docker Images`

Después de crear varios contenedores, tal vez quisiéramos crear nuestras propias imágenes también. Cuando iniciamos un contenedor, al mismo lo iniciamos desde una imagen base. Una vez con el contenedor en ejecución nosotros podríamos hacer cambios, por ejemplo, instalarle ciertas librerías o dependencias (ejemplo, correr `apt install htop vim git` dentro de un contenedor que tiene de imagen base, `ubuntu`).
Luego de haber ejecutado este comando, el contenedor ha modificado su filesystem. Nosotros a futuro tal vez quisiéramos ejecutar contenedores iguales al anterior, por lo que Docker nos provee del comando `commit` para, a partir de un contenedor, crear una imagen.
Docker mantiene las diferencias entre la imagen base y la que se quiere crear, creando una nueva _layer_ usando [UnionFS](https://es.wikipedia.org/wiki/UnionFS). Similar a _git_.

Crearemos un contenedor de _ubuntu_, y al mismo le actualizaremos la lista de repositorios. Luego de ello, haremos un `docker commit`, para definir la nueva imagen para mantener una imagen mas actualizada.

```
$ docker run -t -i --name=contenedorPrueba ubuntu:14.04 /bin/bash
root@69079aaaaab1:/# apt update
```

Cuando salgamos de este contenedor, el mismo se detendrá, pero seguirá estando disponibles a menos que lo eliminemos explícitamente con `docker rm`. Ahora commitiemos el contenedor, para crear una nueva imagen.

```
$ docker commit contenedorPrueba ubuntu:update
13132d42da3cc40e8d8b4601a7e2f4dbf198e9d72e37e19ee1986c280ffcb97c
$ docker images
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
ubuntu update 13132d42da3c 5 days ago ... 213 MB
```

**NOTA:** Esto `ubuntu:update` especifica `:`.

Luego ya podremos lanzar contenedores basados en la nueva imagen `ubuntu:update`.

**ADICIONAL**

Podemos chequear las diferencias con `docker diff`.

```
$ docker diff contenedorPrueba
C /root
A /root/.bash_history
C /tmp
C /var
C /var/cache
C /var/cache/apt
D /var/cache/apt/pkgcache.bin
D /var/cache/apt/srcpkgcache.bin
C /var/lib
C /var/lib/apt
C /var/lib/apt/lists
...
```

## Guardando Images y Containers como archivos .tar para compartir

**Problema:** Tenemos creados imagenes o tenemos contenedores que queremos mantener y nos gustaría compartirlo con nuestros colaboradores.

**Solución:**

- Para las `images`: Usar los comandos `save` y `load` para crear el archivo comprimido de la imagen anteriormente creada.
- Para los `containers`: Usar los comandos `import` y `export`.

Comencemos con un `container` creado y exportándolo en un archivo `.tar` (tarball).

```
$ docker ps -a
CONTAINER ID IMAGE COMMAND CREATED ... NAMES
77d9619a7a71 ubuntu:14.04 "/bin/bash" 10 seconds ago ... high_shockley
$ docker export 77d9619a7a71 > update.tar
$ ls
update.tar
```

Se puede hacer `commit` de este contenedor como una nueva imagen local, pero tambien se podría usar el comando `import`:

```
$ docker import - update < update.tar
157bcbb5fdfce0e7c10ef67ebdba737a491214708a5f266a3c74aa6b0cfde078
$ docker images
REPOSITORY TAG IMAGE ID ... VIRTUAL SIZE
update latest 157bcbb5fdfc ... 188.1 MB
```

Si se quiere compartir esta imagen con uno de sus colaboradores, podría subirse el tarball a un webserver y decirle al colaborar que descarga tal, y use el comando `import` en su Docker Host.
Si se prefiere usar imagenes que ya se han comitiado, se puede usar los comandos `load` y `save` mencionados anteriormente.

Entonces, **¿Cuál es la diferencia?**

Los 2 métodos son similares; La diferencia está en que guardando una imagen mantenemos el historial de cambios, y exportándola como contenedor NO.

_A mi punto de vista, tal vez lo mejor sería sólo mantener los cambios cuando ya es algo en producción y deseamos hacer actualización de software. Por ejemplo del SO o de APACHE/NGINX, donde si ocurre una falla o incompatibilidad, podría volverse atrás. En cambio mientras estamos haciendo el desarrollo, mantener los cambios tal vez no sea tan importante._

## Escribiendo nuestro primer DockerFile

**Problema:**

Ejecutar contenedores en modo interactivo, hacer algunos cambios y para luego comitear estos en una nueva imagen, funciona bien. Pero en la mayoría de los casos, tal vez quieras automatizar este proceso de creación de nuestra propia imagen y compartir estos pasos con otros.

**Solución:**

Para automatizar el proceso de creación de imágenes Docker, prepararemos tales paso en un archivo de manifiesto, llamado **Dockerfile**.
Este archivo de texto está compuesto por una serie de instrucciones que describe cuál es la _imagen base_ de la que el nuevo contenedor se basará, cuáles pasos necesitan llevarse a cabo para instalar las _dependencias_ de la aplicación, cuáles _archivos_ necesitan estar presentes en la imagen, cuáles puertos serán _expuestos_ por el contenedor y cuáles _comando_ ejecutar cuando se ejecuta el contenedor, entre otras cosas.

Para ilustrar esto, crearemos un simple Dockerfile. La **imagen** resultante nos permitirá crear un contenedor que ejecuta el comando `/bin/echo`.

```Dockerfile
FROM ubuntu:14.04

ENTRYPOINT ["/bin/echo"]
```

La instrucción `FROM` dice de cuál **imagen base** partimos para crear la nuestra. En este caso `ubuntu:14.04`, que la primera vez será descargada del repositorio del _Docker Hub_.

La instrucción `ENTRYPOINT` dice cuál es el comando a ejecutar cuando el contenedor basado en esta imagen, sea ejecutado.

Para hacer `build` de esta imagen, ejecutamos `docker build .`

Hecho el build, ejecutamos un nuevo contenedor a partir de esta imagen:

`docker images`

```
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
99fac58824c2 5 minutes ago 187.9 MB

```

```
docker run 99fac58824c2 Hi Docker!
Hi Docker !
```

Lo que hemos hecho es ejecutar un contenedor a partir de la imagen previamente creada, pasándole como argumento `Hi Docker!`.
El contenedor al ejecutarse, corrió el comando definido por el `ENTRYPOINT`, seguido por el argumento anteriormente mencionado.
Una vez que el comando ha **finalizado** (la tarea finaliza), el contenedor es finalizado también.

Tambien podemos usar la instrucción `CMD` en un Dockerfile. Esta tiene la ventaja que se puede sobreescribir cuando este se ejecuta, pasándolo como argumento. Por ejemplo:

```Dockerfile
FROM ubuntu:14.04

CMD ["/bin/echo" , "Hi Docker !"]
```

Construimos la nueva imagen:

`docker build .`

Ejecutamos un contenedor a partir de esta:

```
docker run 99fac58824c2
Hi Docker!
```

Y ahora sobreescribiendo el comando:

```
docker run 99fac58824c2 /bin/date
Thu Mar 17 00:14:00 UTC 2016
```

Si el Dockerfile utiliza la instrucción `ENTRYPOINT` y necesitamos hacer override, se le puede pasar la opción `--entrypoint` al `docker run`.

Tenemos una imagen creada, pero como verán no tiene un `tag` y siempre nos referimos a ella por su `IMAGE ID`.
Para esto podemos hacer un rebuild usando la opción `-t`.

```
$ docker build -t ubuntu-echo:1.0.0 .
...
...
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
ubuntu-echo 1.0.0 99fac58824c2 About an hour ago 187.9 MB
...
```

Podemos colocarle el nombre que querramos, pero siempre es mejor seguir las convenciones :)

`:`

El comando `build` tiene una serie de opciones configurables y pueden verse con la opcion -h

```
$ docker build -h

Usage: docker build [OPTIONS] PATH | URL | -

Build an image from a Dockerfile

--build-arg=[] Set build-time variables
--cpu-shares=0 CPU shares (relative weight)
--cgroup-parent= Optional parent cgroup for the container
--cpu-period=0 Limit the CPU CFS (Completely Fair Scheduler) period
--cpu-quota=0 Limit the CPU CFS (Completely Fair Scheduler) quota
--cpuset-cpus= CPUs in which to allow execution (0-3, 0,1)
--cpuset-mems= MEMs in which to allow execution (0-3, 0,1)
--disable-content-trust=true Skip image verification
-f, --file= Name of the Dockerfile (Default is 'PATH/Dockerfile')
--force-rm=false Always remove intermediate containers
--help=false Print usage
-m, --memory= Memory limit
--memory-swap= Total memory (memory + swap), '-1' to disable swap
--no-cache=false Do not use cache when building the image
--pull=false Always attempt to pull a newer version of the image
-q, --quiet=false Suppress the verbose output generated by the containers
--rm=true Remove intermediate containers after a successful build
-t, --tag= Repository name (and optionally a tag) for the image
--ulimit=[] Ulimit options
```

## Empaquetando una aplicación Flask en un contenedor

**Problema**

Tenemos una aplicación web buildeada en **Flask** corriendo en nuestro Ubuntu 14.04 y queremos correrla en un contenedor.

**Solución**

Como un ejemplo, vamos a usar una simple aplicacion [Flask Hello World](http://flask.pocoo.org/)

Para instalar el modulo Flask simplemente corremos este comando

`$ pip install Flask`

```
#!/usr/bin/env python

from flask import Flask

app = Flask(__name__)

@app.route("/")
def hello():
return "Hello World!"

if __name__ == "__main__":
app.run(host='0.0.0.0', port=5000)
```

Para tener esta aplicación corriendo en un contenedor Docker, necesitamos escribir un `Dockerfile` que instale las dependencias de este framework (comando `RUN`), y poder correr nuesta app. También necesitamos exponer el puerto del contenedor (comando `EXPOSE`).
También necesitamos mover nuestra aplicación al Filesystem del contenedor (comando `ADD`).
El Dockerfile quedaría de la siguiente forma:

```Dockerfile
FROM ubuntu:14.04

# Actualizamos repositorios e instalamos dependencias.
RUN apt-get update
RUN apt-get install -y python python-pip
RUN apt clean all
RUN pip install flask

# Agregamos nuestra aplicación al Filesystem del contenedor.
ADD hello.py /tmp/hello.py

# Exponemos el puerto del contenedor
EXPOSE 5000

# Comando por default que se ejecuta cuando se corre el contenedor
CMD ["python","/tmp/hello.py"]
```

**Nota**: Este Dockerfile no está optimizado, intencionalmente. Para optimizarlo lo veremos más adelante, pero esto sólo es para entender lo básico.

El comando `RUN` permite ejecutar comandos específicos durante el _build_ de la imagen del contenedor.
Para copiar nuestra aplicación dentro de la imagen del contenedor, usamos el comando `ADD`. En nuestro caso, copia el archivo `hello.py` al directorio `/tmp` de la imagen del contenedor.
La aplicación usa el puerto `5000`, y tenemos que _exponer_ este puerto al Docker Host.
Finalmente, el comando `CMD` especifica que el contenedor debe ejecutar `python /tmp/hello.py` cuando se ejecute.

Procedemos a hacer _build_ de la imagen.

`$ docker build -t flask .`

Esto creó una imagen Docker _flask_:

```
$ docker images
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
flask latest d381310506ed 3 seconds ago 354.6 MB
...
```

Para correr esta aplicación usaremos la opción `-d`, la cual _daemonizará_ el contenedor. Tambien pasaremos el argumento `-P` para decirle a Docker que elija un puerto en el _Docker Host_ para _forwardear_ al puerto expuesto por el contenedor.

```
$ docker run -d -P flask
5ac72ed12a72f0e2bec0001b3e78f11660905d20f40e670d42aee292263cb890
```

```
$ docker ps
CONTAINER ID IMAGE COMMAND ... PORTS
5ac72ed12a72 flask:latest "python /tmp/hello.py ... 0.0.0.0:49153->5000/tcp
```

El contenedor retornado, está _daemonizado_ y no con nosotros logueados en una shell interativa dentro. La sección PORTS nos muestra el mapeo de puertos del contenedor en cuestión. En este caso mapea el puerto 49153 del **Docker Host** al puerto 5000 del **contenedor**. Si ahora ingresamos en [http://localhost:49153](http://localhost:49153), deberíamos ver el mensaje `hello world!`.

**Nota:** Notar que no se le pasó un comando a ejecutar en el comando `run`, esto se debe a que ejecutará el `CMD` definido en el Dockerfile. También podriamos sobreescribir el comando, por ejemplo:

```
$ docker run -t -i -P flask /bin/bash
root@fc1514ced93e:/# ls -l /tmp
total 4
-rw-r--r-- 1 root root 194 Dec 8 13:41 hello.py
root@fc1514ced93e:/#
```

### Optimizando el Dockerfile siguiendo buenas prácticas

**Problema**

Se quiere seguir las buenas prácticas para crear Dockerfiles y optimizar las imágenes Docker.

**Solución**

Docker expone en su documentación [una sección de buenas prácticas](https://docs.docker.com/engine/userguide/eng-image/dockerfile_best-practices/) para ecribir Dockerfiles. Estas prácticas nos ayudarán a crear imágenes de forma más eficiente, modulares y con menor esfuerzo.

Estas son algunas instrucciones para crear buenas `Docker Images`.

1. Ejecutar un único proceso por contenedor. De todas formas podríamos correr multiples procesos por contenedor, como se vió cuando usamos `supervisor`. En este caso, `supervisor` es el único proceso de cara al contenedor, pero éste levanta internamente otros procesos. Seguir la práctica de un único proceso por contenedor, nos permite hacer aplicaciones desacopladas que podrían escalar. Esto nos permite además usar _container links_ u otras técnicas de _container networking_ que veremos más adelante.

2. No asumir que nuestros contenedores estarán siempre corriendo; Estos son efímeros y serán parados y reiniciados. Se debería tratarlos como entidades inmutables, lo que significa que no deberíamos modificarlos mientras están en ejecución, sino modificar el Dockerfile reconstruir la imagen y levantar un contenedor con esa imagen actualizada.
Por lo tanto, se recomienda manejar datos y configuraciones de ejecución fuera del contenedor y por lo tanto de su imagen.
Para esto, usamos `Docker Volumes`.

3. Usar un archivo `.dockerignore`. Cuando creamos imágenes, Docker copiará el contenido del _working directory_ donde se encuentra el Dockerfile, dentro de la imagen. Con los archivos `.dockerignore` obtenemos un funcionamiento como el `.gitignore` y básicamente lo que logramos es excluir archivos (basura o sensibles) que no queremos que estén dentro de la imagen. El uso del `.dockerignore` es opcional, pero si no lo usamos, aseguremonos de copiar lo mínimo y necesario. Podemos chequear la sintaxis del mismo en este [link](https://docs.docker.com/engine/reference/builder/#dockerignore-file).

4. Usar imágenes oficiales del Docker Hub, en lugar de escribir las nuestras desde cero. Estas imágenes están mantenidas por quienes son las empresas autoras de ese software. También podemos usar `ONBUILD images`, para simplicar el proceso de creación de nuestras imágenes.

5. Finalmente, y de los más importantes, minimizar el número de capas de nuestras imágenes usando la caché de imagen. Docker usa [union filesystems](https://es.wikipedia.org/wiki/UnionFS) para almacenar las imágenes. Esto quiere decir que cada imagen se hace a partir de una imagen base más una colección de _diffs_ que agregan los cambios requeridos. Cada _diff_ representa una capa adicional en una imagen. Esto tiene un impacto directo en como nosotros escribimos nuestro Dockerfile y las directivas que usamos.
En la sección siguiente veremos este punto.

Con estos puntos, haremos unos pequeños cambios en la imagen creada en la sección anterior:

Tenemos el Dockerfle de esta forma:

```Dockerfile
FROM ubuntu:14.04

# Actualizamos repositorios e instalamos dependencias.
RUN apt-get update
RUN apt-get install -y python python-pip
RUN apt clean all
RUN pip install flask

# Agregamos nuestra aplicación al Filesystem del contenedor.
ADD hello.py /tmp/hello.py

# Exponemos el puerto del contenedor
EXPOSE 5000

# Comando por default que se ejecuta cuando se corre el contenedor
CMD ["python","/tmp/hello.py"]
```

Aplicamos unos cambios:

```Dockerfile
FROM ubuntu:14.04

RUN apt-get update && apt-get install -y \
python
python-pip

RUN pip install flask

COPY hello.py /tmp/hello.py

EXPOSE 5000

CMD ["python","/tmp/hello.py"]
```

Usar múltiples comandos `RUN` es una mala práctica, ya que genera una nueva capa por cada uno. También cambiamos el comando `ADD` por `COPY` ya que `ADD` es para operaciones de copiado más complejas, y nosotros sólo copiamos de manera simple.

Aun así podríamos aplicar más optimizaciones como la siguiente:

```Dockerfile
FROM python:2.7.10

RUN pip install flask

COPY hello.py /tmp/hello.py

EXPOSE 5000

CMD ["python","/tmp/hello.py"]
```

Entre los cambios, se puede ver que cambiamos a `ubuntu` por `python` como _imagen base_ (aplicando el punto `2.` de optimizaciones). Eliminando toda la instalación de dependencias para python.
Estas optimizaciones aún podrían ser más optimizables como, por ejemplo, usar la imagen base de `Flask`, pero la idea es que se note la diferencia entre un `Dockerfile` y otro optimizado.

## Configuración avanzada de red

Con todo lo descrito anteriormente ya se puede empezar a trabajar con Docker y tener una visión de como funciona. A partir de aquí es interesante conocer como funciona la configuración avanzada de red en la cual podemos, entre otras cosas, especificar un bridge de conexión para el contenedor, activar la comunicación entre contenedores, configuración de IPTABLES, DNS, IP, etc. Estos son algunos de los parámetros disponibles a la hora de arrancar el contenedor que establecen estas configuraciones:

Configuración de bridges:

```
--bridge=BRIDGE

```

Activar la comunicación entre contenedores:

```
--icc=true|false

```

Especificar la IP a la que responderá el contenedor:

```
--ip=IP_ADDRESS

```

Habilitar IP Forwarding:

```
--ip-forward=true|false

```

Habilitar iptables:

```
--iptables=true|false

```

Especificar DNS y dominio de búsqueda DNS:

```
--dns=IP_ADDRESS
--dns-search=DOMAIN

```