Réseau informatique et musique : Différence entre versions
m (→Semaine 1) |
m |
||
Ligne 33 : | Ligne 33 : | ||
===Semaine 2=== | ===Semaine 2=== | ||
+ | Lors de la deuxième séance, j’ai commencé à étudier la bibliothèque libasound (<code>ALSA</code>) afin de pouvoir produire du son en directement configurant la carte son (étant donné que c’est une bibliothèque du bas niveau). Il y existe deux types de configuration : matériel (hardware) et logiciel (software). Mais, il existe une configuration simple qui permet de les paramétrer avec une seule fonction de la bibliothèque. Les étapes réalisées lors de la deuxième semaine sont : | ||
+ | *Créer une poignée (handle) vers le periphérique du son | ||
+ | *Parametrer la configuration matériel et logiciel de libasound | ||
+ | *Passer les données (de fichier audio) lues précedemment à la fonction de <code>libasound</code> afin de produire du son à la sortie | ||
===Semaine 3=== | ===Semaine 3=== | ||
+ | Jusqu’à maintenant, le programme prend en compte qu’un fichier audio. Pour pouvoir récupérer plusieurs fichiers audio et ses caractéristiques, il a fallu créer une structure de type : | ||
+ | {| width=10% align=center | ||
+ | |<pre> | ||
+ | struct snd_data { | ||
+ | int *data; | ||
+ | int frames; | ||
+ | SF_INFO sfinfo; | ||
+ | }; | ||
+ | </pre> | ||
+ | |} | ||
+ | Dans cette structure, il y a : | ||
+ | *Pointeur sur un entier qui sera initialisé avec les données audio | ||
+ | *Un entier (frames) qui contient le nombre de données lu depuis un fichier audio | ||
+ | *Une structure <code>SF_INFO</code> qui contient les caractéristique du fichier son | ||
+ | Afin de produire un son (sans perte d’information ou altération), il faut changer la configuration software et/ou hardware à chaque changement de fichier audio tels que la période les canaux, etc.. | ||
+ | |||
+ | <pre style="white-space: pre-wrap; white-space: -moz-pre-wrap; white-space: -pre-wrap;white-space: -o-pre-wrap;word-wrap: break-word;">Remarque : | ||
+ | Normalement, on aurait dû utiliser une fonction asynchrone pour produire du son à moment donné (avec signaux ou autre types de communication). En revanche, cette fonction est dépréciée dans certains systèmes à cause de l’incompatibilité avec le logiciel de son tels que PulseAudio. | ||
+ | </pre> | ||
===Semaine 4=== | ===Semaine 4=== | ||
+ | Lors de cette semaine, j’ai commencé à programmer la communication interprocessus (par l’intermédiaire de mémoire partagée). Cette communication (IPC) sera utilisé plus tard pour communiquer l’information venant du programme coté réseau (LSF) vers coté audio (libasound). L’information qui sera communiquée entre 2 processus est un entier qui va déterminer quel type de son à appliquer sur la sortie (périphérique). Par exemple, le programme coté LSF va modifier cet entier par rapport au paquet étudié et le programme coté audio verra cette modification (et il va changer le type de son à produire). | ||
+ | |||
+ | <pre style="white-space: pre-wrap; white-space: -moz-pre-wrap; white-space: -pre-wrap;white-space: -o-pre-wrap;word-wrap: break-word;">Remarque : | ||
+ | Pour ce moment, la communication interprocessus se passe entre un fichier test (en C) et le programme audio (déjà écrit aux séances précédentes). Il sera implémenté plus tard dans LSF. | ||
+ | </pre> | ||
+ | |||
===Semaine 5=== | ===Semaine 5=== | ||
===Semaine 6=== | ===Semaine 6=== |
Version du 8 mars 2015 à 21:48
Cahier des charges
Présentation générale du projet
Contexte
Dans un réseau informatique, il est important, pour un administrateur, de connaître l’état de son réseau à un moment donné. En revanche, ce travail est très prenant et pénible à faire car il devrait étudier les paquets un par un et filtrer que les informations utiles. C’est pour ça qu’il est intéressant de filtrer les paquets utiles et avertir l’administrateur (par l’intermédiaire du son) de l’arrivée de tels types de paquets dans le réseau.
Objectif du projet
Le but de ce projet est de récupérer et analyser les paquets qui circulent dans le réseau et produire des mélopées qui leurs correspondent. Celle-ci simplifie le travail d’un administrateur en lui aidant à identifier les paquets sans qu'il les étudie en détails.
Description du projet
Ce projet se consiste à :
- Récupérer les paquets avec LSF
- Analyser des paquets sur différentes couches OSI (liaison de données, réseau, transport, application)
- Ecrire un programme (en utilisant la bibliothèque de son) pour pouvoir produire de son par rapport au type de paquets
Choix techniques : matériel et logiciel
Dans le cadre de ce projet, le matériel qui sera utilisé est un PC sous Linux. Au niveau de logiciel, l’outil LSF
, les APIs de libsndfile
[1] et libasound
[2] (bibliothèque d’ALSA) seront utilisés pour faire la programmation en C. LSF
est un outil/mécanisme de socket brut (raw) qui a l’accès direct de la carte réseau sachant qu'il est attaché au noyau du système d'exploitation. Un avantage de cet outil est que les paquets de données ne sont pas modifiés. libsndfile
est une bibliothèque qui permet de lire/écrire des fichiers audio. libasound
est, quant à elle, utilisée afin de produire du son sur la périphérique audio.
Les paquetages[3][4] qui sont nécessaires pour ce projet sont : libsndfile1
, libsndfile1-dev
, libasound2
, et libasound2-dev
.
Etapes globales du projet
- Etude de la bibliothèque API de
libsndfile
etlibasound
- Prise en main de la bibliothèque
libsndfile
afin de lire des fichiers audio - Prise en main de la bibliothèque
libasound
pour produire du son correspondant au fichier audio lu - Appariement des son correspondants aux paquets étudiés en fusionnant
LSF
avec le programme créé précédemment
Avancement du Projet
Semaine 1
Durant cette première séance du projet, j’ai pris en main l’API de libsndfile
en commençant par étudier les fonctions définies dans cette bibliothèque. Cette étude m’a permet de récupérer que les fonctions qui seront utilisées pour lire un fichier de type audio. Pour réduire la complexité du code, j’ai choisi de prendre en compte que les fichiers de type WAV (codé en PCM). Les étapes réalisées lors de cette séance sont :
- Installer le paquetage
libsndfile1
etlibsndfile1-dev
- Ouvrir un fichier audio de type
.wav
- Récupérer ses caractéristiques (taux d’échantillonnage, codage utilisé, nombre de canaux, durée)
- Lire des données depuis ce fichier audio
Semaine 2
Lors de la deuxième séance, j’ai commencé à étudier la bibliothèque libasound (ALSA
) afin de pouvoir produire du son en directement configurant la carte son (étant donné que c’est une bibliothèque du bas niveau). Il y existe deux types de configuration : matériel (hardware) et logiciel (software). Mais, il existe une configuration simple qui permet de les paramétrer avec une seule fonction de la bibliothèque. Les étapes réalisées lors de la deuxième semaine sont :
- Créer une poignée (handle) vers le periphérique du son
- Parametrer la configuration matériel et logiciel de libasound
- Passer les données (de fichier audio) lues précedemment à la fonction de
libasound
afin de produire du son à la sortie
Semaine 3
Jusqu’à maintenant, le programme prend en compte qu’un fichier audio. Pour pouvoir récupérer plusieurs fichiers audio et ses caractéristiques, il a fallu créer une structure de type :
struct snd_data { int *data; int frames; SF_INFO sfinfo; }; |
Dans cette structure, il y a :
- Pointeur sur un entier qui sera initialisé avec les données audio
- Un entier (frames) qui contient le nombre de données lu depuis un fichier audio
- Une structure
SF_INFO
qui contient les caractéristique du fichier son
Afin de produire un son (sans perte d’information ou altération), il faut changer la configuration software et/ou hardware à chaque changement de fichier audio tels que la période les canaux, etc..
Remarque : Normalement, on aurait dû utiliser une fonction asynchrone pour produire du son à moment donné (avec signaux ou autre types de communication). En revanche, cette fonction est dépréciée dans certains systèmes à cause de l’incompatibilité avec le logiciel de son tels que PulseAudio.
Semaine 4
Lors de cette semaine, j’ai commencé à programmer la communication interprocessus (par l’intermédiaire de mémoire partagée). Cette communication (IPC) sera utilisé plus tard pour communiquer l’information venant du programme coté réseau (LSF) vers coté audio (libasound). L’information qui sera communiquée entre 2 processus est un entier qui va déterminer quel type de son à appliquer sur la sortie (périphérique). Par exemple, le programme coté LSF va modifier cet entier par rapport au paquet étudié et le programme coté audio verra cette modification (et il va changer le type de son à produire).
Remarque : Pour ce moment, la communication interprocessus se passe entre un fichier test (en C) et le programme audio (déjà écrit aux séances précédentes). Il sera implémenté plus tard dans LSF.
Semaine 5
Semaine 6
Semaine 7
Semaine 8
Semaine 9
Semaine 10
Semaine 11
Semaine 12
Fichiers Rendus
Références
- ^Détails de l'API libsndfile sur libsndfile AppStore par Erik de Castro Lopo
- ^Détails de l'API libasound sur ALSA Project - the C library reference par Jaroslav Kysela, Abramo Bagnara, Takashi Iwai et Frank van de Pol
- ^Paquetage libsndfile1-dev sur le site officiel de Debian
- ^Paquetage libasound2-dev sur le site officiel de Debian