TP sysres IMA5sc 2019/2020 G4 : Différence entre versions

De Wiki d'activités IMA
(Architecture générale de la ferme)
m (Architecture générale de la ferme)
Ligne 215 : Ligne 215 :
 
On commence par créer une seconde machien virtuelle:
 
On commence par créer une seconde machien virtuelle:
 
   ssh root@cordouan.insecserv.deule.net
 
   ssh root@cordouan.insecserv.deule.net
   # export http_proxy=http://proxy.plil.fr:3128
+
   export http_proxy=http://proxy.plil.fr:3128
   # export https_proxy=http://proxy.plil.fr:3128
+
   export https_proxy=http://proxy.plil.fr:3128
   # xen-create-image --hostname=private-chlamydiae --ip=ip 192.168.0.4 --dir=/usr/local/xen --force
+
   xen-create-image --hostname=private-chlamydiae --ip=ip 192.168.0.4 --dir=/usr/local/xen --force
  
 
On peut suivre l'avancement en faisant:
 
On peut suivre l'avancement en faisant:
Ligne 249 : Ligne 249 :
  
 
Pour faire la mascarade, sur chlamydiae:
 
Pour faire la mascarade, sur chlamydiae:
   $ iptables -P FORWARD DROP
+
   iptables -P FORWARD DROP
   $ iptables -A FORWARD -j ACCEPT -s 192.168.0.0/24
+
   iptables -A FORWARD -j ACCEPT -s 192.168.0.0/24
   $ iptables -A FORWARD -j ACCEPT -d 192.168.0.0/24
+
   iptables -A FORWARD -j ACCEPT -d 192.168.0.0/24
   $ iptables -t nat -A POSTROUTING -j MASQUERADE -s 192.168.0.0/24
+
   iptables -t nat -A POSTROUTING -j MASQUERADE -s 192.168.0.0/24
   $ echo 1 > /proc/sys/net/ipv4/ip_forward
+
   echo 1 > /proc/sys/net/ipv4/ip_forward
  
  
 
Pour rendre la configuration persistante:
 
Pour rendre la configuration persistante:
   $ apt install iptables-persistent > Yes > Yes
+
   apt install iptables-persistent > Yes > Yes
  
  
Ligne 275 : Ligne 275 :
  
 
On crée notre clé, que l'on propage sur l'ensemble des serveurs private:
 
On crée notre clé, que l'on propage sur l'ensemble des serveurs private:
   $ ssh-keygen -t rsa
+
   ssh-keygen -t rsa
   $ cat .ssh/id_rsa.pub | ssh 192.168.0.1 "cat >> /root/.ssh/authorized_keys2"
+
   cat .ssh/id_rsa.pub | ssh 192.168.0.1 "cat >> /root/.ssh/authorized_keys2"
  
 
On écrit notre premier playbook qui installe lsb-release et effectue la commande lsb_release -d:
 
On écrit notre premier playbook qui installe lsb-release et effectue la commande lsb_release -d:
Ligne 296 : Ligne 296 :
  
 
On lance le playbook:
 
On lance le playbook:
   $ ansible-playbook jeu-lsb-release.yml
+
   ansible-playbook jeu-lsb-release.yml
  
 
On obtient le résultat suivant:
 
On obtient le résultat suivant:

Version du 16 décembre 2019 à 17:43

Installation des systèmes d’exploitation: machine virtuelle Xen

Lors de la 1ère séance:

Nous avons d'abord réserver le nom de domaine via gandi.net: chlamydiae.site.

Ensuite nous allons créer une machine virtuelle sur cordouan grâce à l’hyperviseur Xen. On se connecte d'abord en SSH à Cordouan, puis on spécifie le proxy pour pouvoir ensuite récupérer les packages. On peut alors créer l'image de la machine en spécifiant --dhcp car on ne connaît pas encore l’adresse IP.

 ssh root@cordouan.insecserv.deule.net
 export http_proxy=http://proxy.polytech.fr:3128
 xen-create-image --hostname=chlamidyae --dhcp --dir=/usr/local/xen --force

Adresse MAC obtenue: 00:16:3E:83:27:97

Lors de la 2ème séance:

Le fichier de configuration de notre machine virtuelle se trouve dans etc/xen/chlamydiae.cfg

 #
 # Configuration file for the Xen instance chlamydiae, created
 # by xen-tools 4.7 on Mon Nov 18 17:11:19 2019.
 #
 #
 #  Kernel + memory size
 #
 kernel      = '/boot/vmlinuz-4.9.0-6-amd64'
 extra       = 'elevator=noop'
 ramdisk     = '/boot/initrd.img-4.9.0-6-amd64'
 
 vcpus       = '1'
 memory      = '256'
 #
 #  Disk device(s).
 #
 root        = '/dev/xvda2 ro'
 disk        = [
                   'file:/usr/local/xen/domains/chlamydiae/disk.img,xvda2,w',
                   'file:/usr/local/xen/domains/chlamydiae/swap.img,xvda1,w',
               ]
 #    
 #  Hostname
 #
 name        = 'chlamydiae'
 
 #
 #  Networking
 #
 dhcp        = 'dhcp'
 vif         = [ 'mac=00:16:3E:D0:18:F4' ]
 
 #
 #  Behaviour
 #
 on_poweroff = 'destroy'
 on_reboot   = 'restart'
 on_crash    = 'restart'

Architecture réseau

Services Internet

Serveur SSH

On ajoute d'abord le bridge IMA5sc dans l’ensemble de nos VM On leur ajoute également les disks: var, home et les 3 crées par l’autre groupe pour le RAID.

On reboot les VM:

 xl reboot chlamydiae

ou

 xl destroy chlamydiae
 xl create chlamydiae.cfg

Pour se connecter a une VM:

 xl console chlamydiae

Pour permettre à la VM d'accéder à internet, on modifie sont etc/network/interfaces:

 # The primary network interface
 auto eth0
 iface eth0 inet static
  address 193.48.57.180
  netmask 255.255.255.240

Puis ifup / ifdown de eth0.

Après l'ajout du gateway, nous arrivons désormais à pinger internet depuis notre machine virtuel, mais aussi à pinger notre VM depuis la Zabeth. Enfin pour pouvoir se connecter en ssh depuis la zabeth sur la VM nous avons modifié le fichier etc/ssh/sshd_config et remplacer la ligne commentée :

 #PermitRootLogin prohibit-password

par

 PermitRootLogin yes

Il faut ensuite rebooter la machine virtuelle.

Serveur DNS

On fait d'abord la demande de certificat sur Gandi.

Ensuite pour la configuration du DNS: - on commence par vérifier que la ligne suivante est bien présente dans le fichier /etc/bind/named.conf.options

 dnssec-validation auto;


Sur Chlamydiae on installe bind9:

  apt install bind9 bind9-host dnsutils

Modification de la configuration de bind9 :

On créé un fichier de configuration de zone chlamydiae.site dans /etc/bind/ avec le contenu suivant :

;
; BIND data file for local loopback interface
;
$TTL	604800
@	IN	SOA	ns.chlamydiae.site. root.chlamydiae.site (
			3	; Serial
			604800	; Refresh
			86400	; Retry
			2419200	; Expire
			604800 )	; Negative Cache TTL
;
	IN	NS	ns.chlamydiae.site.
	IN	NS	ns6.gandi.net.
@      IN      A       193.48.57.180
ns	IN	A	193.48.57.180
www	IN	A	193.48.57.180

Faire bien attention à la fin des nameServer sinon bind9 ajoute automatiquement le nom du domaine.

Ajout de notre zone DNS en modifiant le fichier /etc/bind/named.conf.local :

zone "chlamydiae.site" {
        type master;
        file "/etc/bind/chlamydiae.site"; 
        allow-transfer {217.70.177.40;}; //dns de gandi 
};

La ligne 'allow-transfer' précise les adresses des serveurs esclaves Gandi.

On redémarre bind9 :

 service bind9 restart

En cas d'erreur on a accès au log dans /var/log/daemon.log

Sur gandi.net dans l'onglet Glue Records de notre domaine, il faut ajouter:

 name : ns.chlamydiae.site
 IP address : 193.48.57.180

C'est l'association du serveur DNS créé avec notre adresse IP:

Changement des nameserver sur gandi.net :

 DNS 1: ns.chlamydiae.site
 DNS 2: ns6.gandi.net

Serveur Apache

Création du dossier /var/www/www.chlamydiae.pw

  • Certification SSL :

Génération du Certificate Signing Request (CSR) pour Gandi sur la VM :

  openssl req -nodes -newkey rsa:2048 -sha256 -keyout chlamydiae.pw.key -out chlamydiae.pw.csr

On copie le contenu de la clé générée sur Gandi. Pour valider la certification SSL, on choisi la méthode par DNS Record. On ajoute alors l'enregistrement CNAME proposé par Gandi dans notre configuration de zone sur la VM. Il faut maintenant patienter le temps du traitement.

  • Configuration Apache :

Configuration du serveur web dans le fichier /etc/apache2/sites-available/chlamydiae.conf

 <VirtualHost 193.48.57.183:443>
                ServerName www.chlamydiae.site
                ServerAlias chlamydiae.site
                DocumentRoot /var/www/html/
                CustomLog /var/log/apache2/secure_acces.log combined

                SSLEngine on
                SSLCertificateFile /etc/ssl/certs/www.chlamydiae.site.crt
                SSLCertificateKeyFile /etc/ssl/private/hmyserver.key
                SSLCertificateChainFile /etc/ssl/certs/GandiStandardSSLCA2.pem
                SSLVerifyClient None
 </VirtualHost>

Redirection automatique du port http vers le port https

 <VirtualHost 193.48.57.183:80>
                ServerName www.chlamydiae.site
                ServerAlias chlamydiae.site
                Redirect / https://www.chlamydiae.site
 </VirtualHost>

DNSSEC

Pour ajouter l'extension de sécurité sur notre DNS on l'active dans named.conf.options:

dnssec-enable yes;

Puis, nous créons le répertoire chlamydiae.site.dnssec dossier où on générera les clés. Pour générer les clés KSK on lance la commande suivante:

dnssec-keygen -a RSASHA1 -b 2048 -f KSK -n ZONE chlamydiae.site

Pour générer la clef asymétrique de signature (ZSK) de clefs de zone :

dnssec-keygen -a RSASHA1 -b 1024 -n ZONE chlamydiae.site

On renomme nos clefs avec des noms plus explicite :

chlamydiae.site-ksk.key
chlamydiae.site-ksk.private
chlamydiae.site-zsk.key
chlamydiae.site-zsk.private

On inclue alors nos clefs en les ajoutant dans le fichier de zone /etc/bind/chlamydiae :

$include /etc/bind/chlamydiae.site.dnssec/chlamydiae.site-ksk.key
$include /etc/bind/chlamydiae.site.dnssec/chlamydiae.site-zsk.key

On signe les enregistrements de la zone en exécutant la commande suivante (dans le répertoire chlamydiae.site-dnssec):

dnssec-signzone -o chlamydiae.site -k chlamydiae.site-ksk ../chlamydiae.site chlamydiae.site-zsk


Maintenant que notre zone est signé.On modifie le fichier named.conf.local pour utiliser le fichier de zone signé :

file "/etc/bind/db.hadess.space.signed";

On communique à gandi.net la partie publique de nos clés (chlamydiae.site-*.key) dans notre domaine pour l'onglet dnssec ajout external key ( faire attention de sélectionner l'algorithme rsaha1); on le fait pour KSK et ZSK.

Enfin, on relance le service bind :

service bind9 restart

Ferme de serveurs Web

Architecture générale de la ferme

On commence par créer une seconde machien virtuelle:

 ssh root@cordouan.insecserv.deule.net
 export http_proxy=http://proxy.plil.fr:3128
 export https_proxy=http://proxy.plil.fr:3128
 xen-create-image --hostname=private-chlamydiae --ip=ip 192.168.0.4 --dir=/usr/local/xen --force

On peut suivre l'avancement en faisant:

 tail -f /var/log/xen-tools/private-chlamydiae.log

Ensuite on modifie les fichiers de configuration des 2 machines virtuelles présents dans /etc/xen/ : Pour la première (chlamydiae):

 vif = ['mac=00:16:3E:D0:18:F4, bridge=IMA5sc','mac=00:16:3E:D0:18:FE, bridge=IMA5sc_priv' ]

Pour la seconde:

 vif = [ 'mac=00:16:3E:9A:57:AB, bridge=IMA5sc_priv' ]


On augmente également la mémoire à 512M pour les deux.


Dans la chlamydiae/etc/network/interfaces:

 auto eth1
 iface eth1 inet static
  address 192.168.0.14         # réseau de communication entre les 2 machines virtuelles
  netmask 255.255.255.0

Dans private-chlamydiae/etc/network/interfaces:

 auto eth0
 iface eth0 inet static
  gateway 192.168.0.14       # réseau de communication entre les 2 machines virtuelles
  address 192.168.0.4/24

Puis les ifdown / ifup habituels, maintenant depuis chlamydiae on peut pinger private-chlamydiae.

Pour faire la mascarade, sur chlamydiae:

 iptables -P FORWARD DROP
 iptables -A FORWARD -j ACCEPT -s 192.168.0.0/24
 iptables -A FORWARD -j ACCEPT -d 192.168.0.0/24
 iptables -t nat -A POSTROUTING -j MASQUERADE -s 192.168.0.0/24
 echo 1 > /proc/sys/net/ipv4/ip_forward


Pour rendre la configuration persistante:

 apt install iptables-persistent > Yes > Yes


Ensuite on installe Ansible sur la VM principale (et Python sur la secondaire). On crée un inventaire dans /etc/ansible/hosts en séparant l’ensemble des serveurs internes et le notre:

 ---
 all:
   hosts:
     nous:
       ansible_host: 192.168.0.4
   children:
     serveurs-internes:
       hosts:
         192.168.0.[1:6]
 ...


On crée notre clé, que l'on propage sur l'ensemble des serveurs private:

 ssh-keygen -t rsa
 cat .ssh/id_rsa.pub | ssh 192.168.0.1 "cat >> /root/.ssh/authorized_keys2"

On écrit notre premier playbook qui installe lsb-release et effectue la commande lsb_release -d:

 ---
 - hosts: serveurs-internes
   tasks:
   - name: install lsb-release
     apt: 
       update_cache=yes
       state=latest
       name =  { { item } }
     with_items:
     - lsb-release
   - name: test lsb release
     shell: 'lsb_release -d'
     register: ps
   - debug: var=ps.stdout_lines
 ...

On lance le playbook:

 ansible-playbook jeu-lsb-release.yml

On obtient le résultat suivant:

Jeu-lsb-release1.png
Jeu-lsb-release2.png

Paramétrage des rôles

Crée un dossier roles dans /root

mkdir roles 

Créer dans le dossier roles un dossier common et un fichier common.yml

mkdir common && vim common.yml 

Dans le fichier Common.yml:

 ---
 - hosts: nous
   tasks:
     - name: include common
       include_role:
         name: common

Dans le dossier common on crée deux dossiers, un dossier files contenant les fichiers (.conf, motd, etc.) et un dossier tasks où il y aura nos playbooks.

Motd

Dans le dossier tasks on crée un fichier main.yml:

 - name: Write on motd
   copy:
      dest: /etc/motd
      src: motd

Dans ce fichier on lui dit de copier le fichier motd qu'il cherche arbitrairement dans common/files vers le etc/motd de la machine à qui on applique le rôle. Ce fichier motd contiendra notre message.

NTP

Pour le serveur de temps dans le fichier main.yml on ajoute:

 - name: install ntp
   apt:
     name: ntp
 - name: install ntpdate
   apt:
     name: ntpdate  
 - name: Copy over the NTP configuration
   copy: src=ntp.conf dest=/etc/ntp.conf
   tags: ntp
  - name: Stop ntp
    service: name=ntp state=stopped enabled=yes
    tags: ntpd                            
 - name: Sync time initialy
   shell: ntpdate ntp.polytech-lille.fr
   tags: ntp
 - name: Make sure NTP is started up
   service: name=ntp state=started enabled=yes
   tags: ntp

Dans le dossier files on crée ntp.conf qui référence notre NTP:

 server ntp.polytech-lille.fr

Installation de docker

On commence par installer le rôle docker dont on a besoin:

 ansible-galaxy install geerlingguy.docker (la doc est ici https://github.com/geerlingguy/ansible-role-docker)

Puis on crée notre playbook:

 ---
 - hosts: nous
   vars:
     - pip_install_packages:
       - name: docker
     - docker_apt_repository: "deb [arch={ { docker_apt_arch } }] https://download.docker.com/linux/debian stretch stable"
   roles:
     - geerlingguy.pip
     - geerlingguy.docker
 ...

Ça fonctionne, on obtient sur la machine principale:

Result jeu docker.png

Sur la machine secondaire, on voit bien que docker a été installé:

Result-jeu-docker-bis.png

Création de votre conteneur

On suit ce tutoriel: https://medium.com/@vi1996ash/steps-to-build-apache-web-server-docker-image-1a2f21504a8e

Pour tester la partie docker indépendamment, sur la machine secondaire:

- on crée notre index.html (basique)
- on crée notre dockerfile:
 FROM centos:latest
 MAINTAINER NewstarCorporation
 RUN yum -y install httpd
 COPY index.html /var/www/html/
 CMD [“/usr/sbin/httpd”, “-D”, “FOREGROUND”]
 EXPOSE 80

On crée l'image:

 docker build DockerFiles/ -t webserver:v1
Result-httpd.png

Puis on la run:

 docker run -dit -p 1234:80 webserver:v1

Configuration de vos serveurs internes

Maintenant il faut déployer le docker depuis la machine principale sur la machine secondaire en utilisant ansible, on crée le fichier Yaml:

 ---
 - hosts: serveurs-internes
   tasks:
   - name: install rsync
     apt:
       state: latest
       name: 'rsync'
 
   - name: transfer files
     copy:
       src: DockerFiles
       dest: /tmp/gr4/
     register: copy_output
   - debug: var=copy_output
 
   - name: build Docker image from Dockerfile
     docker_image:
       tag: latest
       name: image-for-chlamydiae
       path: /tmp/gr4/DockerFiles
       state: present
 
   - name: Create the container
     docker_container:
       name: container-chlamydiae
       image: image-for-chlamydiae
       state: present
 
   - name: check if container is running
     shell: 'docker ps'
     register: docker_ps
   - debug: var=docker_ps.stdout_lines
 
   - name: Last
     docker_container:
       name: container-chlamydiae
       image: image-for-chlamydiae
       state: started
       recreate: yes
       ports:
       - "8004:80"

Commandes pouvant être utiles mais qui semblent bloquer le processus si elles échouent:

 #  - name: Try to stop container
 #    docker_container:
 #      name: container-chlamydiae
 #      state: stopped
 #      image: image-for-chlamydiae
 
 #  - name: Delete container
 #    docker_container:
 #      name: container-chlamydiae
 #      state: absent
 #      image: image-for-chlamydiae
 
 #  - name: Delete the image
 #    docker_image:
 #      name: image-for-chlamydiae
 #      tag: latest
 #      state: absent
 #      force: yes

Que l'on lance avec la commande:

 ansible-playbook file_name.yml

La tâche "Last" qui effectue "docker ps" ne donne pas le résultat escompté: lorsqu'elle se lance le conteneur est encore en création. Mais en ce connectant aux machines virtuelles secondaires on remarque que ça fonctionne bien:

Equilibreur de charge

Nous allons dans un premier temps activer les modules nécessaires; pour cela, on saisi les commandes suivantes:

 a2enmod proxy_http
 a2enmod proxy (au cas où mais ça s’active en même temps)
 a2enmod proxy_balancer
 a2enmod lbmethod_byrequests

Puis on redémarre Apache2:

 service apache2 restart

On modifie notre fichier chlamydiae.conf de apache2:

 <VirtualHost 193.48.57.180:443>
                 ServerName www.chlamydiae.site
                 ServerAlias chlamydiae.site
                 DocumentRoot /var/www/html/
                 SSLEngine on
                 SSLCertificateFile /etc/ssl/certs/www.chlamydiae.site.crt$
                 SSLCertificateKeyFile /etc/ssl/key/myserver.key
                 SSLCertificateChainFile /etc/ssl/certs/GandiStandardSSLCA$
                 SSLVerifyclient NONE
 </VirtualHost>
 
 <VirtualHost 193.48.57.180:80>
         ServerName www.chlamydiae.site
         ServerAlias chlamydiae.site
         Redirect / https://www.chlamydiae.site
         ProxyPass "/" "balancer://ourbalancer/"
         ProxyPassReverse "/" "balancer://ourbalancer"
         <Location "/balancer-manager">
                 SetHandler balancer-manager
                 Require host 193.48.57.180
         </Location>
 </VirtualHost>
 
 <Proxy "balancer://ourbalancer">
         BalancerMember http://192.168.0.1:8004
         BalancerMember http://192.168.0.2:8004
         BalancerMember http://192.168.0.3:8004
         BalancerMember http://192.168.0.4:8004
         BalancerMember http://192.168.0.5:8004
         BalancerMember http://192.168.0.6:8004
         ProxySet lbmethod=byrequests
 </Proxy>

On transfère le fichier etc/apache2/sites-available/chlamydiae.conf vers etc/apache2/sites-enabled/chlamydiae.conf.

On recharge apache2:

 service apache2 reload

Le rapport d'état se trouve à l'URL:

Tests d’intrusion

Cassage de mot de passe WPA-PSK par force brute

Lors de la 2ème séance:

Nous avons utilisé aircrack-ng pour lancer une recherche sur le mot de passe de l’identification par WPA-PSK en supposant que ce nombre est sur 8 chiffres.

D'abord on vérifie que le Wi-Pi est connecté:

 ls usb

Ensuite on récupère le nom de notre interface:

 iwconfig

On obtient wlx40a5ef0125e9, si il n'est pas en mode 'Monitor' il est nécessaire de lancer la commande

 airmon-ng start wlx40a5ef0125e9

On récupère alors tout les points d'accès accessibles en wifi (et donc l'adresse de la cible) via:

 airodump-ng wlx40a5ef0125e9

Ensuite il faut récupérer le paquet OnCheck grâce à la commande suivante où -c permet de préciser le numéro du channel, -bssid l'adresse MAC de la cible et -w le path du fichier où écrire le résultat.

 airodump-ng -c 2 --bssid 04:DA:D2:9C:50:5D -w ./home/pifou/packedOneCheck wlx40a5ef0125e9

Ensuite nous avons généré le dictionnaire, on a réalisé un script en C et un en Python:

Celui en Python s’exécute en 39 s

 dictfile=open("dict.txt","a")
 for i in range(99999999):
   dictfile.write(str(i)+'\n')
 dictfile.close()

Celui en C s’exécute en 7 s

 #include <stdlib.h>
 #include <stdio.h>
 int main() {
   FILE *f;
   f= fopen("dictc.txt", "a");	
   for(int i=0;i<=99999999;i++) {
     fprintf(f, "%08d\n", i);
   }
   fclose(f);
   return 0;
 }

On peut alors lancer le cassage à l'aide de:

 aircrack-ng -a2 -b 04:DA:D2:9C:50:5D -w path_to_dict/dict.txt path_to_packedOneCheck_result/*.cap

On obtient le résultat suivant:

Ftzb-wpa-result.png


Cassage de clef WEP d’un point d’accès Wifi


On connaît déjà le nom de notre interface, on peut donc directement lancer la commande suivante pour récupérer le canal et le ssid de notre nouvelle cible:

 airodump-ng --encrypt xep wlx40a5ef0125e9

Comme précedémment avec le WPA on peut lancer la commande:

 airodump-ng -c 2 –-bssid 04:DA:D2:9C:50:50 -w Wep wlx40a5ef0125e9

Elle permet de capture les paquets qui transitent sur le réseau, l'objectif est de récupérer le maximum de vecteurs d'initialisation qui seront sauvegardés dans le fichier spécifié. Plus ce nombre de vecteurs est important, plus le cassage de la clé sera facilité. Pour augmenter le débit de paquets intéressants pour nous, on peut effectuer de fausses connexions à la machine cible via la commande:

 aireplay-ng --fakeauth 30 -a 04:DA:D2:9C:50:5D wlx40a5ef0125e9

Une fois le nombre de vecteur suffisants (on a choisit 30 000 pour une question de gain de temps), on peut arrêter ce processus et lancer le cassage avec:

 aircrack-ng Wep*.cap

On obtient alors le résultat suivant:

Ftzb-wep-result.png