Xrandr fix bad horizontal resolution with dual screen on laptop

Execute this script in .xprofile to fix crazy resolution on ubuntu 14 with 2 screen connected.

#!/bin/sh
# HDMI-0 == external screen
# LVDS1 is laptop screen
 
#check if HDMI-0 is connected
if (xrandr | grep "HDMI-0 connected" > /dev/null); then
  exec echo "HDMI-0 is connected!" &
  xrandr --output LVDS1 --off
  xrandr --output HDMI-0 --primary --mode 1920x1080
else
  exec echo "CRT1 isn't connected!"  &
  xrandr --output LVDS1 --primary --mode 1920x1080
fi

#if [ "$1" == "dual" ]; then
#  xrandr --output LVDS1 --mode 1920x1080 --below HDMI-0
#fi

Trucs et astuces pour systemd

Monter un répertoire nfs avec systemd

Il vous faut créer un fichier .mount normalisé.
Le nom du fichier, par convention, doit correspondre au path du point de montage, par exemple à /mnt/nfs correspond le fichier mnt-nfs.mount
Cette unit devant être gérer par le système, il doit se trouver dans /etc/systemd/system .

vi /etc/systemd/system/mnt-nfs.mount
        [Unit]
        Description = nfs mount core to host
        
        [Mount]
        What = votreserveurnfs:/votrepartage/
        Where = /mnt/nfs
        Type = nfs
        Options = vers=3,nolock,udp
        
        [Install]
        WantedBy = multi-user.target

testez

systemctl daemon-reload
systemctl start mnt-nfs.mount
systemctl status mnt-nfs.mount

Avoir accès aux variables systemd dans une unit mount

Malheureusement systemd ne donne pas accès à ses variables (par exemple %H) dans la requête nfs créée.
Si vous avez besoins par exemple d’avoir un partage propre à chaque machine, pour contourner cette limitation vous pouvez passer par des variables d’environnement comme ceci:

        [Unit]
        Description = nfs mount core to host
        
        [Mount]
        What = votreserveurnfs:/votrepartage/\${HOST}
        Environment="HOST=%H"
        Where = /mnt/nfs
        Type = nfs
        Options = vers=3,nolock,udp
        
        [Install]
        WantedBy = multi-user.target

Monter automatiquement avec Systemd

automount suit la même convention que mount.
Il vous faut créer un fichier .automount normalisé.
Le nom du fichier, par convention, doit correspondre au path du point de montage, par exemple à /mnt/nfs correspond le fichier mnt-nfs.automount
Cette unit devant être gérer par le système, il doit se trouver dans /etc/systemd/system .

        [Unit]
        Description = nfs auto mount core to host
        
        [Automount]
        Where = /mnt/nfs
        
        [Install]
        WantedBy=multi-user.target

Ajouter une dépendance à automount pour Docker

Votre unit .automount n’ayant pas de dépendant, il ne s’executera pas au démarrage de vote système.
Si par exemple, vous avez besoins de ce point de montage pour docker, vous pouvez modifier votre unit docker.
Dans le cas d’un système CoreOS, modifier /etc/systemd/system/early-docker.service comme suit.
Regarder le paramètre Requires
Tips 2 : Changer le home de Docker sur support nfs : modifier ExecStart en ajoutant –graph et –storage-driver.

        [Unit]
        Description=Early Docker Application Container Engine
        Documentation=http://docs.docker.com
        After=early-docker.socket
        Requires=early-docker.socket mnt-nfs.automount  mnt-nfs.mount
        
        [Service]
        Environment=TMPDIR=/var/tmp
        MountFlags=slave
        LimitNOFILE=1048576
        LimitNPROC=1048576
        ExecStartPre=-/usr/bin/mkdir -p /mnt/nfs/early
        ExecStart=/usr/lib/coreos/dockerd daemon --host=fd:// --bridge=none --iptables=false --ip-masq=false --graph=/mnt/nfs/early --pidfile=/var/run/early-docker.pid --storage-driver=overlay $DOCKER_OPTS
        
        [Install]
        WantedBy=early-docker.target

Mountage Automatique avec Systemd sur CoreOS dans user-data

Et l’on prend les points ci-dessus pour les mettre dans un user-data coreOS…

  - name: mnt-nfs.mount
    content: |
        [Unit]
        Description = nfs mount core to host
        
        [Mount]
        What = votreserveurnfs:/votrepartage/\${HOST}
        Environment="HOST=%H"
        Where = /mnt/nfs
        Type = nfs
        Options = vers=3,nolock,udp
        
        [Install]
        WantedBy = multi-user.target
  - name: mnt-nfs.automount
    content: |
        [Unit]
        Description = nfs auto mount core to host
        
        [Automount]
        Where = /mnt/nfs
        
        [Install]
        WantedBy=multi-user.target
    
  - name: docker.service
    content: |
        [Unit]
        Description=Docker Application Container Engine
        Documentation=http://docs.docker.com
        After=docker.socket early-docker.target network.target
        Requires=docker.socket early-docker.target

        [Service]
        EnvironmentFile=-/run/flannel_docker_opts.env
        MountFlags=slave
        LimitNOFILE=1048576
        LimitNPROC=1048576
        ExecStartPre=-/usr/bin/mkdir -p /mnt/nfs/docker
        ExecStart=/usr/lib/coreos/dockerd daemon --host=fd:// $DOCKER_OPTS $DOCKER_OPT_BIP $DOCKER_OPT_MTU $DOCKER_OPT_IPMASQ --graph=/mnt/nfs/docker --storage-driver=overlay  

        [Install]
        WantedBy=multi-user.target
        
    command: restart
  - name: early-docker.service
    content: |
        [Unit]
        Description=Early Docker Application Container Engine
        Documentation=http://docs.docker.com
        After=early-docker.socket
        Requires=early-docker.socket mnt-nfs.automount  mnt-nfs.mount
        
        [Service]
        Environment=TMPDIR=/var/tmp
        MountFlags=slave
        LimitNOFILE=1048576
        LimitNPROC=1048576
        ExecStartPre=-/usr/bin/mkdir -p /mnt/nfs/early
        ExecStart=/usr/lib/coreos/dockerd daemon --host=fd:// --bridge=none --iptables=false --ip-masq=false --graph=/mnt/nfs/early --pidfile=/var/run/early-docker.pid --storage-driver=overlay $DOCKER_OPTS
        
        [Install]
        WantedBy=early-docker.target

pour que ces units s’éxecutent au démarrage vous pouvez jouer avec leur flags
runtime: true
enable: true

voir la documentation de coreOs sur user-data unit

Déployer Docker Compose et Swarm sur coreOS

Cet article reprend une partie du post Running an etcd-Backed Docker Swarm Cluster
et de Installing Docker Compose in CoreOS
Le code source complet de cet article se trouve mis en application sur mon fork coreos-vagrant
il fait suite à l’article Docker sur CoreOS par Vagrant

Prérequis

git clone https://github.com/heralight/coreos-vagrant.git
cp config.rb.2.sample   config.rb
cp user-data.2.sample user-data
vagrant up
vagrant ssh core-01

Après un vagrant up, vérifions l’état du cluster etcd.

core@core-01 ~ $ etcdctl cluster-health
member 25d6ce33763c5524 is healthy: got healthy result from http://172.17.8.102:2379
member 6ae27f9fa2984b1d is healthy: got healthy result from http://172.17.8.101:2379
member ff32f4b39b9c47bd is healthy: got healthy result from http://172.17.8.103:2379
cluster is healthy
core@core-01 ~ $ etcdctl member list
25d6ce33763c5524: name=core-02 peerURLs=http://172.17.8.102:2380 clientURLs=http://172.17.8.102:2379 isLeader=false
6ae27f9fa2984b1d: name=core-01 peerURLs=http://172.17.8.101:2380 clientURLs=http://172.17.8.101:2379 isLeader=true
ff32f4b39b9c47bd: name=core-03 peerURLs=http://172.17.8.103:2380 clientURLs=http://172.17.8.103:2379 isLeader=false

Installer Docker Compose

Rapide

Vous retrouverez ce script dans la partie module du projet.
Vous n’avez pas besoins de l’executer à la main si vous utilisez vagrant, dans le fichier config.rb, modifier $vagrant_module_docker_compose à vrai (par défaut).
Ainsi vos instances seront provisionner avec Docker Compose.

En détails

Sur chaque noeud, executer:

curl -L https://github.com/docker/compose/releases/download/1.7.1/docker-compose-`uname -s`-`uname -m` > ~/docker-compose
sudo mkdir -p /opt/bin
sudo mv ~/docker-compose /opt/bin/docker-compose
sudo chown root:root /opt/bin/docker-compose
sudo chmod +x /opt/bin/docker-compose

Vérifions l’installation:

core@core-01 ~ $ whereis docker-compose
docker-compose: /opt/bin/docker-compose

Installer Docker Swarm avec support etcd

Dans l’article précédent, nous avons configurer nos 3 instances avec etcd2 en ip statique.
Nous allons profiter de cette fonctionalité pour configurer Docker Swarm.

Rapide

Vous retrouverez ce script dans la partie module du projet.
Vous n’avez pas besoins de l’executer à la main si vous utilisez vagrant, dans le fichier config.rb, modifier $vagrant_module_docker_swarm à vrai (par défaut).
Ainsi vos instances seront provisionner avec Docker Swarm.

En détails

Ainsi chaque noeud doit s’inscrire à etcd, comme les 3 instances coreos sont synchronizées, nous pouvons executer:

docker run -d swarm join --addr=monip:2375 etcd://monip:2379/swarm

Après cela, vérifions sont bon fonctionnement sur n’importe quel noeud.

core@core-01 ~ $ etcdctl ls /swarm/docker/swarm/nodes
/swarm/docker/swarm/nodes/172.17.8.101:2375
/swarm/docker/swarm/nodes/172.17.8.102:2375
/swarm/docker/swarm/nodes/172.17.8.103:2375

nous avons besoins d’un manager Swarm, par défaut nous prendre core-01.
Comme nous faisons tourner un moteur docker sur toutes nos instances, swarm simulant un moteur docker, nous aurons un conflit.
Pour palier à ce problème, nous allons rediriger le port de Swarm vers 8333.

docker run -d -p 32375:2375 swarm manage etcd://172.17.8.101:2379/swarm

nous pouvons vérifier notre installation:

docker -H tcp://172.17.8.101:32375 info