<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
		<id>https://wiki-ima.plil.fr/mediawiki//api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Itahry</id>
		<title>Wiki d'activités IMA - Contributions de l’utilisateur [fr]</title>
		<link rel="self" type="application/atom+xml" href="https://wiki-ima.plil.fr/mediawiki//api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Itahry"/>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php/Sp%C3%A9cial:Contributions/Itahry"/>
		<updated>2026-04-25T05:14:49Z</updated>
		<subtitle>Contributions de l’utilisateur</subtitle>
		<generator>MediaWiki 1.29.2</generator>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15091</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15091"/>
				<updated>2014-12-16T14:56:17Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Présentation du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Cahier des charges ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
&lt;br /&gt;
Cette séquence sera réalisée de la façon suivante:&lt;br /&gt;
&lt;br /&gt;
-NAO se lève puis, fait quelques pas et se présente en disant &amp;quot;Bonjour je suis NAO et je suis un robot, et toi, comment t'appelles tu ?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
-Un enfant arrive et lui répond. Lorsque c'est chose faite, un éducateur appuie sur la tête du NAO.&lt;br /&gt;
&lt;br /&gt;
-NAO répond alors &amp;quot;Appuie sur ma main&amp;quot; en tendant la main droite.&lt;br /&gt;
&lt;br /&gt;
-NAO attend un contact avec sa main droite puis répond &amp;quot;c'est bien&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
-A ce stade, l'éducateur à deux possibilités: appuyer sur la tête du NAO pour que celui ci demande à un second enfant de se présenter puis d'appuyer sur sa main droite, ou appuyer sur sa main gauche afin que le robot exécute une danse et dise au revoir aux enfants.&lt;br /&gt;
&lt;br /&gt;
Séquence réalisée afin de favoriser un premier contact visuel, tactile et auditif avec les enfants. &lt;br /&gt;
&lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
&lt;br /&gt;
Amélioration du programme précédent, notamment en ajoutant un bruitage encourageant lorsque l'enfant réussi a appuyer sur la main du robot, et en ajoutant une musique d'introduction lorsque le robot se lève et fait quelques pas.&lt;br /&gt;
&lt;br /&gt;
Ajout de quelques mouvements afin d'accompagner les paroles de NAO.&lt;br /&gt;
&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15090</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15090"/>
				<updated>2014-12-16T14:55:00Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Semaine 12: 01/12 - 07/12 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
&lt;br /&gt;
Cette séquence sera réalisée de la façon suivante:&lt;br /&gt;
&lt;br /&gt;
-NAO se lève puis, fait quelques pas et se présente en disant &amp;quot;Bonjour je suis NAO et je suis un robot, et toi, comment t'appelles tu ?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
-Un enfant arrive et lui répond. Lorsque c'est chose faite, un éducateur appuie sur la tête du NAO.&lt;br /&gt;
&lt;br /&gt;
-NAO répond alors &amp;quot;Appuie sur ma main&amp;quot; en tendant la main droite.&lt;br /&gt;
&lt;br /&gt;
-NAO attend un contact avec sa main droite puis répond &amp;quot;c'est bien&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
-A ce stade, l'éducateur à deux possibilités: appuyer sur la tête du NAO pour que celui ci demande à un second enfant de se présenter puis d'appuyer sur sa main droite, ou appuyer sur sa main gauche afin que le robot exécute une danse et dise au revoir aux enfants.&lt;br /&gt;
&lt;br /&gt;
Séquence réalisée afin de favoriser un premier contact visuel, tactile et auditif avec les enfants. &lt;br /&gt;
&lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
&lt;br /&gt;
Amélioration du programme précédent, notamment en ajoutant un bruitage encourageant lorsque l'enfant réussi a appuyer sur la main du robot, et en ajoutant une musique d'introduction lorsque le robot se lève et fait quelques pas.&lt;br /&gt;
&lt;br /&gt;
Ajout de quelques mouvements afin d'accompagner les paroles de NAO.&lt;br /&gt;
&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15089</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15089"/>
				<updated>2014-12-16T14:53:36Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Semaine 11: 24/11 - 30/11 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
&lt;br /&gt;
Cette séquence sera réalisée de la façon suivante:&lt;br /&gt;
&lt;br /&gt;
-NAO se lève puis, fait quelques pas et se présente en disant &amp;quot;Bonjour je suis NAO et je suis un robot, et toi, comment t'appelles tu ?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
-Un enfant arrive et lui répond. Lorsque c'est chose faite, un éducateur appuie sur la tête du NAO.&lt;br /&gt;
&lt;br /&gt;
-NAO répond alors &amp;quot;Appuie sur ma main&amp;quot; en tendant la main droite.&lt;br /&gt;
&lt;br /&gt;
-NAO attend un contact avec sa main droite puis répond &amp;quot;c'est bien&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
-A ce stade, l'éducateur à deux possibilités: appuyer sur la tête du NAO pour que celui ci demande à un second enfant de se présenter puis d'appuyer sur sa main droite, ou appuyer sur sa main gauche afin que le robot exécute une danse et dise au revoir aux enfants.&lt;br /&gt;
&lt;br /&gt;
Séquence réalisée afin de favoriser un premier contact visuel, tactile et auditif avec les enfants. &lt;br /&gt;
&lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15088</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15088"/>
				<updated>2014-12-16T14:52:58Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Semaine 11: 24/11 - 30/11 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
&lt;br /&gt;
Cette séquence sera réalisée de la façon suivante:&lt;br /&gt;
&lt;br /&gt;
-NAO se lève puis, fait quelques pas et se présente en disant &amp;quot;Bonjour je suis NAO et je suis un robot, et toi, comment t'appelles tu ?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
-Un enfant arrive et lui répond. Lorsque c'est chose faite, un éducateur appuie sur la tête du NAO.&lt;br /&gt;
&lt;br /&gt;
-NAO répond alors &amp;quot;Appuie sur ma main&amp;quot; en tendant la main droite.&lt;br /&gt;
&lt;br /&gt;
-NAO attend un contact avec sa main droite puis répond &amp;quot;c'est bien&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
-A ce stade, l'éducateur à deux possibilités: appuyer sur la tête du NAO pour que celui ci demande à un second enfant de se présenter puis d'appuyer sur sa main droite, ou appuyer sur sa main gauche afin que le robot exécute une danse et dise au revoir aux enfants.&lt;br /&gt;
&lt;br /&gt;
Cette première séquence a été réalisée afin de favoriser un premier contact visuel, tactile et auditif avec les enfants. Certains points ont été améliorés comme l'ajout d'un bruitage encourageant lorsque l'enfant réussi a appuyer sur la main du robot, encore l'ajout d'une musique d'introduction lorsque le robot se lève et fait quelques pas.&lt;br /&gt;
&lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15087</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15087"/>
				<updated>2014-12-16T14:45:01Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Déroulement du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15086</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15086"/>
				<updated>2014-12-16T14:44:17Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Déroulement du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
[[Fichier:Naoprojet.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Naoprojet.png&amp;diff=15085</id>
		<title>Fichier:Naoprojet.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Naoprojet.png&amp;diff=15085"/>
				<updated>2014-12-16T14:40:20Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15084</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15084"/>
				<updated>2014-12-16T14:37:16Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Déroulement du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
Robot NAO toujours indisponible pour le début de la programmation.&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 10: 17/11 - 23/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 11: 24/11 - 30/11===&lt;br /&gt;
Finalisation de la séquence, vérification et test. &lt;br /&gt;
Prise de rendez vous avec les représentants de GAPAS afin d'effectuer un premier test avec les enfants.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 01/12 - 07/12===&lt;br /&gt;
Confirmation du rendez vous à l'IME pour la semaine suivante.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 12: 08/12 - 14/12===&lt;br /&gt;
&lt;br /&gt;
expérience avec les enfants&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15083</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15083"/>
				<updated>2014-12-16T14:28:15Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Déroulement du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues réalisables:&lt;br /&gt;
-Utilisation de puces BLE (Bluetooth Low Energy)&lt;br /&gt;
-Utilisation de la technologie RFID (Radio Frequency IDentification)&lt;br /&gt;
- &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;. Test des différents modes de connexion du robot afin de choisir le plus adapté aux futurs exercices.&lt;br /&gt;
&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et l'implémentation de la technologie en question.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 9 : 10/11 - 16/11===&lt;br /&gt;
Développement de la première séquence sur &amp;quot;choregraphe&amp;quot; qui permettra une première approche entre les enfants et le NAO.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15082</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=15082"/>
				<updated>2014-12-16T14:19:41Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Déroulement du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adolescents atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 6 : 20/10 - 26/10===&lt;br /&gt;
Suite à la rencontre au sein de l'IME la pépinière, nous avons commencé un brainstorming autour des technologies à utiliser pour la réalisation de séquences de jeux avec le NAO et les enfants. Etant donnée le manque de fiabilité de la reconnaissance faciale ou vocale du NAO, il nous a fallu trouver une solution pour pallier à ce problème afin que le robot puisse reconnaitre et interagir avec les enfants présents lors des séances.&lt;br /&gt;
Des lors, plusieurs solutions nous ont parues plausibles:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également demandé l'accès au NAO afin que l'on puisse débuter la programmation de la première séquence.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 7 : 27/10 - 02/11===&lt;br /&gt;
Vacances de la Toussaint.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Semaine 8 : 03/11 - 09/11===&lt;br /&gt;
Récupération du robot NAO et prise en main du logiciel de programmation associé &amp;quot;choregraphe&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Discussion via emails avec GAPAS pour définir la technologie à utiliser lors des séquences de jeux. Ici, plusieurs paramètres ont été pris en compte, notamment le prix des composants, leur fiabilité et leur implémentation.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14529</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14529"/>
				<updated>2014-11-10T05:53:36Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Semaine 3 : 29/09 - 05/10 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;br /&gt;
&lt;br /&gt;
===Semaine 4 : 06/10 - 12/10===&lt;br /&gt;
Entretien avec notre professeur encadrant M. Grisoni.&lt;br /&gt;
Différents points ont été abordés, notamment:&lt;br /&gt;
&lt;br /&gt;
-La bonne prise en main du projet et l'élaboration du cahier des charges.&lt;br /&gt;
&lt;br /&gt;
-La faisabilité du projet au regard des capacités techniques du NAO (Technologie embarquée, temps de charge, logiciels,... )&lt;br /&gt;
&lt;br /&gt;
-Le déroulement des séquences de jeux et la prise en compte de chaque détail dans la réalisations de celles ci. &lt;br /&gt;
&lt;br /&gt;
===Semaine 5 : 13/10 - 19/10===&lt;br /&gt;
Rencontre avec les représentants de GAPAS à l'IME la pépinière à Loos, en présence notamment des accompagnateurs des enfants et adultes atteints d'autisme et de déficience visuelle, ainsi qu'une orthophoniste qui suit régulièrement le progrès de ces derniers.&lt;br /&gt;
&lt;br /&gt;
-Présentation du robot NAO et discussion autour de ces différentes possibilités techniques.&lt;br /&gt;
&lt;br /&gt;
-Débat autour de la faisabilité du projet et de l'influence d'un robot tel que NAO dans le processus d'épanouissement et d'éveil d'enfants atteints d'autisme.&lt;br /&gt;
&lt;br /&gt;
- Discussion autour des différentes possibilités de séquences de jeux entre le robot et les enfants qui favoriseraient le développement dudit processus. Prise en compte des différences entre enfants et adultes (salle Esperenza et salle Argos)&lt;br /&gt;
&lt;br /&gt;
-Dialogue autour de la technologie à utiliser pour que le NAO puisse reconnaitre chaque enfant en sa présence. Utilisation de la technologie RFID par exemple, notamment sous forme de patch à coller sur des vêtements.&lt;br /&gt;
&lt;br /&gt;
-Choix d'une première séquence de jeu avec le robot qui permettrait une approche initiale avec les enfants.&lt;br /&gt;
&lt;br /&gt;
-Visite des locaux et des salle de jeux&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14337</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14337"/>
				<updated>2014-10-22T07:31:08Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14336</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14336"/>
				<updated>2014-10-22T07:30:49Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|600px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14335</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14335"/>
				<updated>2014-10-22T07:30:07Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|600px|left|]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14334</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14334"/>
				<updated>2014-10-22T07:29:43Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|400px|left|]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14333</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14333"/>
				<updated>2014-10-22T07:27:50Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Nao_caract.png|200px|thumb|left|texte descriptif]]&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Nao_caract.png&amp;diff=14332</id>
		<title>Fichier:Nao caract.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Nao_caract.png&amp;diff=14332"/>
				<updated>2014-10-22T07:26:52Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14331</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14331"/>
				<updated>2014-10-22T07:23:32Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs:'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
-1 accéléromètre 3 axes&lt;br /&gt;
&lt;br /&gt;
-2 gyromètres &lt;br /&gt;
&lt;br /&gt;
-2 LED infrarouges&lt;br /&gt;
&lt;br /&gt;
-2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14330</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14330"/>
				<updated>2014-10-22T07:21:20Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs'''           &lt;br /&gt;
&lt;br /&gt;
-1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
-2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
-2 sonars utilisant des capteurs ultrason (émetteurs et récepteurs)&lt;br /&gt;
&lt;br /&gt;
2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14329</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14329"/>
				<updated>2014-10-22T07:19:30Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs'''           1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
&lt;br /&gt;
2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14328</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14328"/>
				<updated>2014-10-22T07:18:04Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Caractéristiques du NAO */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
&lt;br /&gt;
'''Capteurs'''           1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
                         2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
&lt;br /&gt;
                2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14327</id>
		<title>P7 Utilisation d'un Robot Nao pour les enfants autistes</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=P7_Utilisation_d%27un_Robot_Nao_pour_les_enfants_autistes&amp;diff=14327"/>
				<updated>2014-10-22T07:17:34Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Présentation du projet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
===Contexte===&lt;br /&gt;
De nos jours, la robotique envahi nos foyers de plus en plus. On peut les remarquer dans nos cuisines mais aussi dans nos salons. La société '''Aldebaran Robotics''' est allé plus loin en créant un robot humanoïde du nom de '''NAO'''. Véritable compagnon éléctronique, ce robot est entièrement programmable et autonome et mesure 60 cm et présente des intérêts dans tous les domaines qu'il soit industriel, pédagogique mais aussi sociologique.&lt;br /&gt;
'''GAPAS''' est une associaciation de plusieurs services au personnes handicapées. Parmi ceux-ci, on retrouve l'aide aux ''enfants autistes avec des difficultés visuelles''.&lt;br /&gt;
L'éducation de ces enfants diffère de celle donnée dans les écoles régulières. Il est important de s'adapter à leur(s) déficience(s) et donc de s'adapter à chacun d'eux.&lt;br /&gt;
L'autisme se caractérise par des difficultés cognitves, socio-affectives et motrices. Cela se reflète par des troubles de la communication et'' de mauvaise compréhensions des émotions de leurs interlocuteurs'' et entraîne un repli de l'enfant.&lt;br /&gt;
Le robot Nao par sa voix neutre et son manque d'expression faciale peut aider un enfant atteint de ces difficultés à apprendre et interagir avec le monde&lt;br /&gt;
&lt;br /&gt;
''«  Les enfants autistes ont un besoin d’attention considérable et NAO permet de combler ce vide en proposant des jeux simples, sans jamais se lasser. Le robot et l’enfant autiste partagent un trait commun : une lassitude inexistante. NAO vient les aider en éduquant et en faisant jouer les enfants sans se lasser. » (site internet : robotique TPE)''&lt;br /&gt;
===Objectif===&lt;br /&gt;
Imaginer une collaboration avec la création de séquences de jeux et d’exercices éducatifs spécifiques aux problématiques rencontrées par les jeunes en utilisant l’aspect ludique et novateur de Nao.&lt;br /&gt;
Il s’agirait de développer, en lien avec les professionnels un programme dédié à l’éducation des enfants souffrants de l’autisme : utiliser un robot Nao dans le cadre de leur accompagnement, pour stimuler les apprentissages. Par l’intermédiaire du Robot, on vise à stimuler les capacités de concentration, la capacité d’écoute, les interactions donc le travail sur la reconnaissance et l’expression des émotions. &lt;br /&gt;
&lt;br /&gt;
'''Il s’agirait de développer des applications éducatives ayant toutes un objectif thérapeutique bien précis.'''&lt;br /&gt;
&lt;br /&gt;
===Caractéristiques du NAO===&lt;br /&gt;
&lt;br /&gt;
'''Hauteur''' 	58 cm&lt;br /&gt;
'''Poids''' 	4,8 kg&lt;br /&gt;
'''Autonomie''' 	90 min&lt;br /&gt;
'''Degrés de liberté''' 	de 14 à 25 selon la version&lt;br /&gt;
'''Processeur''' 	Intel ATOM 1,6 GHz (V4) ou AMD Geode 550Mhz (V3.3 ...) selon la version&lt;br /&gt;
'''Système d'exploitation intégré''' 	Linux&lt;br /&gt;
'''Systèmes d'exploitation compatibles''' 	Windows, Mac OS, Linux&lt;br /&gt;
'''Langages de programmation''' 	C++, Python, Java, MATLAB, Urbi, C, .Net&lt;br /&gt;
'''Connectivité''' 	Ethernet, Wi-Fi ( b,g,n )&lt;br /&gt;
'''Vision''' 	2 caméras 920p, 30ips (localisation, reconnaissance de visages ou d'bojets)&lt;br /&gt;
'''Audio''' 	4 Microphones (reconnaissance vocale, localisation de source)&lt;br /&gt;
'''Capteurs'''           1 Capteur tactile au niveau de la tête et 1 au niveau de chaque main&lt;br /&gt;
                         2 bumpers (capteur de contact) au niveau des avant-pieds&lt;br /&gt;
                2 Haut-parleurs (synthèse vocale)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''''Exemple de collaboration avec NAO'''''&lt;br /&gt;
[ https://www.youtube.com/watch?v=8BiayzQxTQA ]&lt;br /&gt;
&lt;br /&gt;
===Cahier des charges===&lt;br /&gt;
&lt;br /&gt;
==Déroulement du projet==&lt;br /&gt;
===Semaine 1 : 15/09 - 21/09===&lt;br /&gt;
Prise de contact avec les différents acteurs du projet.&lt;br /&gt;
&lt;br /&gt;
===Semaine 2 : 22/09 - 28/09===&lt;br /&gt;
Recherche sur les besoins des enfants autiste. Constitution d'un dossier avec des méthodes de développement&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode ABBA'''&lt;br /&gt;
[http://www.abaautisme.org/index.php?option=com_content&amp;amp;view=category&amp;amp;id=3&amp;amp;layout=blog&amp;amp;Itemid=3]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode de développement'''&lt;br /&gt;
[[Fichier:Autisme.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Méthode TEACCH'''&lt;br /&gt;
[[Fichier:TEACCH.pdf]]&lt;br /&gt;
&lt;br /&gt;
===Semaine 3 : 29/09 - 05/10===&lt;br /&gt;
Mise en place d'un cahier des charges et prise de rendez vous avec l'IME la pépinière&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12430</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12430"/>
				<updated>2014-04-16T01:55:51Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Conclusion: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelés à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoie en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sortie la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette dernière semaine, nous allons nous faire le bilan de ce qui a été fait jusqu'ici et nous commencerons à préparer notre rapport ainsi que notre présentation orale.&lt;br /&gt;
&lt;br /&gt;
En définitif, nous n'avons pas pu régler nos soucis avec le logiciel Labview. Par conséquent, nous n'avons pas pu implémenter nos résultats sur le module CompactRIO comme cela était prévu initialement. Sans cette implémentation, nous ne pouvons pas non plus tester notre programme python de réception de données, ceci malgré une modélisation et une simulation qui montrent que nos réalisations avec toutes les chances de fonctionner.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Derniers tests du programme Labview&lt;br /&gt;
*Dernieres améliorations du programme python&lt;br /&gt;
*bilan + prépation rapport écrit et soutenance orale.&lt;br /&gt;
&lt;br /&gt;
== Conclusion: ==&lt;br /&gt;
&lt;br /&gt;
En guise de conclusion, on peut dire que nous n'avons pas pu outrepasser les difficultés logicielles auxquelles nous avons été confrontés, et ceci malgré des résultat totalement exploitables.&lt;br /&gt;
Cependant, notre travail ne sera pas vain puisqu'à travers ce projet, nous avons pu expérimenter les différentes phases de suivi et de réalisation d'un projet, de la modélisation jusqu'à l'implémentation. Nous avons également pu mettre à profit nos différentes connaissances acquises dans une multitude de domaines et confronter notre sens de l'organisation, de la gestion et de l'autonomie à un sujet bien réel et à des fins utiles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Rapport du projet:''' [[Fichier:Rapport projet.pdf]]&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Rapport_projet.pdf&amp;diff=12429</id>
		<title>Fichier:Rapport projet.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Rapport_projet.pdf&amp;diff=12429"/>
				<updated>2014-04-16T01:55:15Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12428</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12428"/>
				<updated>2014-04-16T01:54:39Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelés à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoie en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sortie la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette dernière semaine, nous allons nous faire le bilan de ce qui a été fait jusqu'ici et nous commencerons à préparer notre rapport ainsi que notre présentation orale.&lt;br /&gt;
&lt;br /&gt;
En définitif, nous n'avons pas pu régler nos soucis avec le logiciel Labview. Par conséquent, nous n'avons pas pu implémenter nos résultats sur le module CompactRIO comme cela était prévu initialement. Sans cette implémentation, nous ne pouvons pas non plus tester notre programme python de réception de données, ceci malgré une modélisation et une simulation qui montrent que nos réalisations avec toutes les chances de fonctionner.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Derniers tests du programme Labview&lt;br /&gt;
*Dernieres améliorations du programme python&lt;br /&gt;
*bilan + prépation rapport écrit et soutenance orale.&lt;br /&gt;
&lt;br /&gt;
== Conclusion: ==&lt;br /&gt;
&lt;br /&gt;
En guise de conclusion, on peut dire que nous n'avons pas pu outrepasser les difficultés logicielles auxquelles nous avons été confrontés, et ceci malgré des résultat totalement exploitables.&lt;br /&gt;
Cependant, notre travail ne sera pas vain puisqu'à travers ce projet, nous avons pu expérimenter les différentes phases de suivi et de réalisation d'un projet, de la modélisation jusqu'à l'implémentation. Nous avons également pu mettre à profit nos différentes connaissances acquises dans une multitude de domaines et confronter notre sens de l'organisation, de la gestion et de l'autonomie à un sujet bien réel et à des fins utiles.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12427</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12427"/>
				<updated>2014-04-16T01:51:07Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Conclusion: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette dernière semaine, nous allons nous faire le bilan de ce qui a été fait jusqu'ici et nous commencerons à préparer notre rapport ainsi que notre présentation orale.&lt;br /&gt;
&lt;br /&gt;
En définitif, nous n'avons pas pu régler nos soucis avec le logiciel Labview. Par conséquent, nous n'avons pas pu implémenter nos résultat sur le module CompactRIO comme cela était prévu initialement. Sans cette implémentation, nous ne pouvons pas non plus tester notre programme python de réception de données, ceci malgré une modélisation et une simulation qui montrent que nos réalisations avec toutes les chances de fonctionner.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Derniers tests du programme Labview&lt;br /&gt;
*Dernieres améliorations du programme python&lt;br /&gt;
*bilan + prépation rapport écrit et soutenance orale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Conclusion: ==&lt;br /&gt;
&lt;br /&gt;
En guise de conclusion, on peut dire que nous n'avons pas pu outrepasser les difficultés logicielles auxquelles nous avons été confrontés, et ceci malgré des résultat totalement exploitables.&lt;br /&gt;
Cependant, notre travail ne sera pas vain puisqu'à travers ce projet, nous avons pu expérimenter les différentes phases de suivi et de réalisation d'un projet, de la modélisation jusqu'à l'implémentation. Nous avons également pu mettre à profit nos différentes connaissances acquises dans une multitude de domaines et confronter notre sens de l'organisation, de la gestion et de l'autonomie à un sujet bien réel et à des fins utiles.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12426</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12426"/>
				<updated>2014-04-16T01:50:48Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Conclusion: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette dernière semaine, nous allons nous faire le bilan de ce qui a été fait jusqu'ici et nous commencerons à préparer notre rapport ainsi que notre présentation orale.&lt;br /&gt;
&lt;br /&gt;
En définitif, nous n'avons pas pu régler nos soucis avec le logiciel Labview. Par conséquent, nous n'avons pas pu implémenter nos résultat sur le module CompactRIO comme cela était prévu initialement. Sans cette implémentation, nous ne pouvons pas non plus tester notre programme python de réception de données, ceci malgré une modélisation et une simulation qui montrent que nos réalisations avec toutes les chances de fonctionner.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Derniers tests du programme Labview&lt;br /&gt;
*Dernieres améliorations du programme python&lt;br /&gt;
*bilan + prépation rapport écrit et soutenance orale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Conclusion: ==&lt;br /&gt;
&lt;br /&gt;
En guise de conclusion, on peut dire que nous n'avons pas pu outrepasser les difficultés logicielles auxquelles nous avons été confrontés, et ceci malgré des résultat totalement exploitables.&lt;br /&gt;
Cependant, notre travail ne sera pas vain puisqu'à travers ce projet, nous avons pu expérimenter les différentes phases de suivi et de réalisation d'un projet, de la modélisation jusqu'à l'implémentation. Nous avons également pu mettre à profit nos différentes connaissances acquises dans une multitudes de domaines et confronter notre sens de l'organisation, de la gestion et de l'autonomie à un sujet bien réel et à des fins utiles.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12425</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12425"/>
				<updated>2014-04-16T01:45:46Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette dernière semaine, nous allons nous faire le bilan de ce qui a été fait jusqu'ici et nous commencerons à préparer notre rapport ainsi que notre présentation orale.&lt;br /&gt;
&lt;br /&gt;
En définitif, nous n'avons pas pu régler nos soucis avec le logiciel Labview. Par conséquent, nous n'avons pas pu implémenter nos résultat sur le module CompactRIO comme cela était prévu initialement. Sans cette implémentation, nous ne pouvons pas non plus tester notre programme python de réception de données, ceci malgré une modélisation et une simulation qui montrent que nos réalisations avec toutes les chances de fonctionner.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Derniers tests du programme Labview&lt;br /&gt;
*Dernieres améliorations du programme python&lt;br /&gt;
*bilan + prépation rapport écrit et soutenance orale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Conclusion: ==&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12424</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12424"/>
				<updated>2014-04-16T01:39:40Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;br /&gt;
&lt;br /&gt;
Du côté du programme pour le CompactRIO, nous avons réussi à en avoir un qui semble fonctionnel. Il comporte une implémentation de la matrice de notre système issue du modèle inverse, ainsi qu'un protocole UDP qui servira par la suite à envoyer les commandes sur le raspberry pi qui fait office d'intermédiaire entre ce dernier et le contrôle des roues.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Labview.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*Prise en main du langage python et création d'un nouveau programme contenant un protocole UDP pour la réception.&lt;br /&gt;
*Réalisation d'un programme labview avec protocole UDP pour la transmission.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 9 (07/04/2014):'''&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Labview.png&amp;diff=12423</id>
		<title>Fichier:Labview.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Labview.png&amp;diff=12423"/>
				<updated>2014-04-16T01:34:28Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12422</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12422"/>
				<updated>2014-04-16T01:29:32Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
==== Avancement du projet: ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir pu accéder au raspberry pi, nous pouvons maintenant accès aux programmes qu'il contient également. Ces derniers vont nous donner une idée du langage python, des entrées/sorties à utiliser pour communiquer avec les contrôleurs ainsi que la façon de les utiliser. De ce fait, le programme que l'on se doit d'implémenter sera similaire aux autres à ce niveau, il devra par contre inclure une &amp;quot;procédure&amp;quot; qui permettrait de communiquer et de recevoir des messages par protocole UDP.&lt;br /&gt;
Pour cela et après quelques recherches sur le net au sujet du langage python, nous pouvons utiliser le programme suivant:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Udp com.png]]&lt;br /&gt;
&lt;br /&gt;
Il ne restera plus qu'à traiter le message obtenu, en fragmentant le message reçu et en attribuant à chaque contrôleur, la consigne adéquate.&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Udp_com.png&amp;diff=12421</id>
		<title>Fichier:Udp com.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Udp_com.png&amp;diff=12421"/>
				<updated>2014-04-16T01:28:31Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12389</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12389"/>
				<updated>2014-04-15T23:11:52Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous avons également pu avoir accès à notre raspberry pi grâce à l'intervention de M. Redon qui nous a aidé franchir les obstacles auxquels nous étions confrontés à ce niveau là. Cependant, quelques difficultés subsistent encore du côté du CompactRIO, à prioro à cause d'un version de logiciel non compatible avec ce dernier.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12388</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12388"/>
				<updated>2014-04-15T23:07:54Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:N.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En parallèle a la modélisation du modèle, nous nous sommes heurtés à quelques difficultés au niveau de la prise en main de nos deux principaux modules, le CompactRIO et le Raspberry pi. Ces obstacles nous ont quelques peu ralentis dans la progression de notre projet.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
 Après avoir réussi à obtenir nos différents modèle cinématiques, direct et inverse, nous pouvons à présent les tester en simulation grâce au logiciel matlab simulink:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:N.PNG&amp;diff=12383</id>
		<title>Fichier:N.PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:N.PNG&amp;diff=12383"/>
				<updated>2014-04-15T23:04:13Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12382</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12382"/>
				<updated>2014-04-15T23:03:16Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
Nous pouvons ensuite réaliser une simulation de ce modèle sur Matlab Simulink afin de vérifier sa fonctionnalité:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu_mcd.PNG&amp;diff=12380</id>
		<title>Fichier:Simu mcd.PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu_mcd.PNG&amp;diff=12380"/>
				<updated>2014-04-15T23:00:18Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : a téléversé une nouvelle version de « Fichier:Simu mcd.PNG »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu2.PNG&amp;diff=12379</id>
		<title>Fichier:Simu2.PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu2.PNG&amp;diff=12379"/>
				<updated>2014-04-15T23:00:00Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : a téléversé une nouvelle version de « Fichier:Simu2.PNG »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12378</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12378"/>
				<updated>2014-04-15T22:58:20Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matériel.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisée par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régie notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancées. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sorti la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
A partir de ce modèle ci, nous pouvons facilement établir le modèle inverse en calculant la matrice inverse de notre système. Pour cela, nous utiliserons un logiciel de calcul formel tel que Maple, qui nous donnera un résultat très rapidement.&lt;br /&gt;
Nous pouvons ensuite réaliser une simulation de ce modèle sur Matlab Simulink afin de vérifier sa fonctionnalité:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu mcd.PNG]]&lt;br /&gt;
&lt;br /&gt;
Il s'avère qu'après avoir réalisé cette simulation, nous obtenons des résultats très satisfaisants qui corroborent la matrice précédemment établie:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Simu2.PNG]]&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu2.PNG&amp;diff=12377</id>
		<title>Fichier:Simu2.PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu2.PNG&amp;diff=12377"/>
				<updated>2014-04-15T22:58:02Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu_mcd.PNG&amp;diff=12373</id>
		<title>Fichier:Simu mcd.PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Simu_mcd.PNG&amp;diff=12373"/>
				<updated>2014-04-15T22:55:10Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12369</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12369"/>
				<updated>2014-04-15T22:49:17Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancée. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
 Après voir eu une entrevue avec notre encadrant, nous avons pu valider notre modèle cinématique direct, non sans quelques corrections. Au final, nous obtenons la matrice suivante pour notre système, qui prend en entrée les vitesses angulaires de chaque roue pour obtenir en sortir la position du chassis en fonction de X et Y ainsi que de l'angle de lacet Phi:&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Matrice_(1).PNG‎ ]]&lt;br /&gt;
&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Matrice_(1).PNG&amp;diff=12368</id>
		<title>Fichier:Matrice (1).PNG</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Matrice_(1).PNG&amp;diff=12368"/>
				<updated>2014-04-15T22:49:02Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12365</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12365"/>
				<updated>2014-04-15T22:28:15Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancée. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:résultats.png]]&lt;br /&gt;
&lt;br /&gt;
En plus de recevoir l’accélération en X, Y et Z et la vitesse de rotation en X, Y et Z, l’utilisateur reçoit les angles d’Euler. Les angles d’Euler sont les angles indiquant la position du repère de la centrale inertielle par rapport au repère terrestre. &lt;br /&gt;
&lt;br /&gt;
Etant donnée que cette partie du projet semble bien fonctionner, nous décidons donc de nous attaquer aux autres composants que l'on doit tous aussi bien pouvoir contrôler, à savoir le raspberry Pi et le module CompactRIO&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12360</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12360"/>
				<updated>2014-04-15T22:22:30Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
A ce stade du projet, nous avons réussi à faire plusieurs avancée. L'une des premières que l'on peut citer est la réalisation d'un modèle cinématique direct (nous avions prévu de réaliser un modèle cinématique inverse, mais il se trouve qu'il est préférable et plus simple de passer par un modèle direct. Le modèle inverse peut ensuite être obtenu aisément). Ce dernier nous semble correct, mais nous avons décidé d'attendre une validation par notre professeur encadrant avant d'en réaliser une simulation pour en vérifier le fonctionnement.&lt;br /&gt;
&lt;br /&gt;
Autre point important, le contrôle de la centrale inertielle: ce dernier semble fonctionnel, nous arrivons à récupérer correctement, à partir d'un programme Labview, les valeurs que le Xsens nous renvoit en fonction du déplacement de ce dernier dans l'espace.&lt;br /&gt;
[[Fichier:resultats.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:R%C3%A9sultats.png&amp;diff=12359</id>
		<title>Fichier:Résultats.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:R%C3%A9sultats.png&amp;diff=12359"/>
				<updated>2014-04-15T22:21:27Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12342</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12342"/>
				<updated>2014-04-15T22:05:12Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*sauvegarde de la carte SD.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
Après tenté de réaliser une MGI durant la semaine précédente, nous nous sommes rendus compte que ce modèle la n'était pas le plus efficace pour modéliser notre système. En fait, nous avons rencontré quelques difficultés au niveau des calculs, principalement liées au fait que notre robot n'est pas adapté à ce genre de modélisation. Nous avons donc basculé sur un MCI (modèle cinématique inverse), un choix qui nous parait plus judicieux et plus réalisable. &lt;br /&gt;
Au cours de cette semaine, nous avons également eu un contact avec notre encadrant qui nous a donné quelques directives en plus. Il nous a notamment conseillé de nous documenter sur le net afin de trouver des capteurs optiques que l'on pourrait ajouter à notre robot pour que ce dernier puisse également gérer la détection d'obstacles pour pouvoir les éviter. Nous nous sommes donc attelé à cette tâche également, en parallèle avec les précédentes démarches déjà entamées.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12328</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12328"/>
				<updated>2014-04-15T21:58:56Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé. On peut s'y connecter et y accéder par USB à l'aide des câbles fournis&lt;br /&gt;
&lt;br /&gt;
 [[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modèle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12317</id>
		<title>Robot Médical</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Robot_M%C3%A9dical&amp;diff=12317"/>
				<updated>2014-04-15T21:56:07Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : /* Avancement du projet: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation et définition du Cahier des charges: ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectif du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le but principal de ce projet s'articule autour du développement d'un contrôle autonome d'un robot mobile-manipulateur dédié à la Curiethérapie.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Description du projet:'''&lt;br /&gt;
&lt;br /&gt;
Le robot médical est un robot manipulateur opérateur appelé Kuka et porté par un robot omnidirectionnel holonome. On voudrait alors réaliser une commande autonome de ce dernier, en lui attribuant une trajectoire optimale au centre de l'outil de l'aiguille de radiothérapie afin que le robot puisse générer les mouvements nécessaires pour la réalisation de cette mission. On passerait donc d'un contrôle permanent du robot avec un pad ou d'une Wiimote, à une gestion parfaitement autonome de celui-ci.&lt;br /&gt;
Rappelons que ce projet a une finalité outre qu'académique puisqu'il se fait en collaboration avec le centre de radiothérapie de Lille.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Matériel principal disponible:'''&lt;br /&gt;
*Chassis du robot.&lt;br /&gt;
*4 roues motrices contrôlées par 4 contrôleurs + 4 moteurs&lt;br /&gt;
*Un raspberry pi connecté aux 4 contrôleurs.&lt;br /&gt;
*Un module CompactRIO.&lt;br /&gt;
*Une centrale inertielle.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:IMG 0347.JPG|400px|]]&lt;br /&gt;
&lt;br /&gt;
'''Tâches à réaliser:'''&lt;br /&gt;
&lt;br /&gt;
* Effectuer le modèle cinématique inverse de la position de notre robot afin de commander les 4 roues motrices en vitesse. Ce modèle sera calculé en fonction des mesures effectuées grâce aux capteurs de position situés sur le centre de gravité de chacune des roues.&lt;br /&gt;
* Créer une simulation du modèle obtenu et de la commande permettant d'automatiser le robot.&lt;br /&gt;
* Ajouter des capteurs infrarouges au châssis du robot afin que celui-ci puisse éviter d'éventuel obstacle au cours de son déplacement.&lt;br /&gt;
* Implémenter le résultat.&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet: ==&lt;br /&gt;
&lt;br /&gt;
'''Semaine 1 (03/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Durant cette première semaine, nous allons surtout nous familiariser avec notre projet. Pour cela, nous commençons par lister tous les composants qui constituent notre projet que nous aurions à prendre en main par la suite. &lt;br /&gt;
Nous avons pu nous documenter sur les moteurs du robot par exemple et tester le programme déjà implémenté qui permet un contrôle du chassis avec une Wii mote. Cela nous permet de mieux cerner le fonctionnement holonome de notre robot.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*découverte du matérial.&lt;br /&gt;
*documentation.&lt;br /&gt;
*prise en main du projet + démo robot.&lt;br /&gt;
*Installation des logiciels requis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 2 (10/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Au cours de cette semaine, nous avons eu un premier contact avec notre tuteur de projet afin de fixer le cahier des charges et les objectifs attendus de la réalisation de ce projet. &lt;br /&gt;
Nous avons établi le schéma suivant qui résume bien le fonctionnement demandé du système:&lt;br /&gt;
[[Fichier:commande_robot.png]]&lt;br /&gt;
&lt;br /&gt;
En somme, nous devons pouvoir générer une trajectoire aléatoire qui doit être ensuite réalisé par notre robot de façon totalement autonome. De ce fait, une MCI (modèle cinématique inverse) sera réalisée afin de déterminer la matrice qui régit notre système.&lt;br /&gt;
&lt;br /&gt;
D'un autre côté, une prise en main du logiciel Labview est faite, un logiciel qui nous permettra par la suite de pouvoir programmer le CompactRIO et la centrale inertielle.&lt;br /&gt;
 &lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec notre tuteur projet.&lt;br /&gt;
*définition du cahier des charges.&lt;br /&gt;
*prise en main de labview.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 3 (17/02/2014):'''&lt;br /&gt;
&lt;br /&gt;
Afin de mieux cerner quelques points qui nous paraissaient encore flous concernant notre projet, nous avons décidé de faire appel à philippe Gombault, étudiant en IMA5 qui avait précédemment travaillé sur ce même projet l'an passé. Ce dernier nous a prodigué de précieux conseils, notamment celui de réaliser une sauvegarde de la carte SD du raspberry pi avant toute utilisation. Afin d'éviter tout risque de détérioration du précédent projet qui est en parfait état de marche, nous avons donc suivi ses conseils et nous avons réalisé une sauvegarde de la carte que nous gardons précieusement en cas de besoin.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, nous nous sommes également attelé à la prise en main de la centrale inertielle que notre encadrant a mis à notre disposition. Ce petit composant technologique nous permettra par la suite d'enregistrer les déplacements du robot dans l'espace. Sa prise en main se fait principalement grâce au logiciel Labview, préalablement téléchargé et installé.&lt;br /&gt;
[[Fichier:Xsens.jpg]]&lt;br /&gt;
&lt;br /&gt;
Nous avons également décidé de commencer un modéle géométrique inverse du système afin de réaliser sa modélisation.&lt;br /&gt;
&lt;br /&gt;
''En résumé:''&lt;br /&gt;
&lt;br /&gt;
*prise de contact avec Philippe Gombault.&lt;br /&gt;
*prise en main de la centrale inertielle Xsens.&lt;br /&gt;
*Réalisation MGI en cours.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 4 (3/03/2014):'''&lt;br /&gt;
*MGI inexploitable, réalisation du MCI en cours&lt;br /&gt;
*Prise de contact avec notre tuteur de projet + recherche capteurs&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
'''Semaine 5 (10/03/2014):'''&lt;br /&gt;
*Réalisation du MCD &lt;br /&gt;
*Controle de la centrale inertielle sur labview actif&lt;br /&gt;
*capteurs commandés par l'encadrant.&lt;br /&gt;
*Prise en main CompactRIO&lt;br /&gt;
*Prise en main Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 6 (17/03/2014):'''&lt;br /&gt;
*Correction et Validation du MCD par notre professeur.&lt;br /&gt;
*Réalisation du MCI à l'aide de Mapple.&lt;br /&gt;
*Difficultés logiciels rencontrés au niveau de Labview + CompactRIO&lt;br /&gt;
*Difficultés de prise en main au niveau du Raspberry Pi&lt;br /&gt;
&lt;br /&gt;
'''Semaine 7 (24/03/2014):'''&lt;br /&gt;
*Contrôle du raspberry actif (Aide de M. Redon)&lt;br /&gt;
*Implémentation et simulation du MC sur Matlab.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Semaine 8 (31/03/2014):'''&lt;br /&gt;
&lt;br /&gt;
EN COURS&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	<entry>
		<id>https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Xsens.jpg&amp;diff=12312</id>
		<title>Fichier:Xsens.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki-ima.plil.fr/mediawiki//index.php?title=Fichier:Xsens.jpg&amp;diff=12312"/>
				<updated>2014-04-15T21:54:41Z</updated>
		
		<summary type="html">&lt;p&gt;Itahry : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Itahry</name></author>	</entry>

	</feed>