hand_control/README.md

56 lines
4.2 KiB
Markdown
Raw Normal View History

2015-03-30 11:53:47 +00:00
# Contrôle par geste d'un drone #
**Extrait de la présentation du projet**
2015-03-30 11:59:13 +00:00
« On s'intéresse dans ce projet à contrôler un drone à l'aide la main. On utilisera pour ce faire une kinect, placée à l'horizontal, au dessus de laquelle on placera la main du contrôleur. La kinect fournit des informations sur la profondeur des objets placés en face d'elle. On peut alors régresser un plan sur les échantillons et utiliser deux inclinaisons et la distance pour contrôler le roulis, le tangage et l'altitude d'un drone. »
## Recherche documentaire ##
Consulter le dossier /rechercheDoc
2015-04-07 09:11:32 +00:00
Un etherpad est disponible à l'url suivante : [http://etherpad.rezometz.org/p/handcontrol](http://etherpad.rezometz.org/p/handcontrol)
2015-04-15 20:20:57 +00:00
### Conclusion de la recherche ###
Bibliothèques à regarder :
2015-04-20 14:33:31 +00:00
2015-04-16 19:05:34 +00:00
- [PCL (PointCloud)](http://www.pointclouds.org/) : beaucoup, beaucoup de choses...
2015-04-20 11:53:42 +00:00
* [les tutoriels](http://www.pointclouds.org/documentation/tutorials/)
2015-04-16 19:45:14 +00:00
* [pcl::NormalEstimation](http://docs.pointclouds.org/trunk/classpcl_1_1_normal_estimation.html) & [pcl::NormalEstimationOMP](http://docs.pointclouds.org/trunk/classpcl_1_1_normal_estimation_o_m_p.html) pour régresser un plan
2015-04-16 19:25:59 +00:00
- en particulier [computePointNormal](http://docs.pointclouds.org/trunk/classpcl_1_1_normal_estimation.html#afa0dd0bf400977f40eb91f08750bfa17) qui sert léquation du plan sur un plateau
2015-04-20 11:45:10 +00:00
- explication [ici](http://www.pointclouds.org/documentation/tutorials/normal_estimation.php#normal-estimation)
2015-04-16 19:45:14 +00:00
* [pcl::ConditionalRemoval](http://docs.pointclouds.org/trunk/classpcl_1_1_conditional_removal.html) pour filtrer les points (critère de profondeur (plus simple a priori) ou couleur)
2015-04-20 14:33:31 +00:00
Pour linterface Kinect on a le choix entre :
- linterface Kinect => pcl::PointCloud, qui récupère directement un PointCloud utilisable par PCL à partir de la Kinect :
2015-04-16 19:45:14 +00:00
* [openni_wrapper::DeviceKinect](http://docs.pointclouds.org/trunk/classopenni__wrapper_1_1_device_kinect.html) & [openni_wrapper::OpenNIDevice](http://docs.pointclouds.org/trunk/classopenni__wrapper_1_1_open_n_i_device.html) pour parler à la Kinect
2015-04-20 11:53:42 +00:00
* [openni_grabber](http://www.pointclouds.org/documentation/tutorials/openni_grabber.php#openni-grabber) idem
2015-04-20 14:33:31 +00:00
- linterface Kinect => sensor_msgs::Image, qui récupère linformation brute de la Kinect, à convertir ensuite en pcl::PointCloud avec le package [perception_pcl](http://wiki.ros.org/perception_pcl?distro=indigo) :
* [OpenKinect / libfreenect](https://github.com/OpenKinect)
2015-04-15 20:20:57 +00:00
2015-04-19 09:52:42 +00:00
### Important ###
2015-04-19 09:58:26 +00:00
Avant de coder, regarder :
- [les conventions décriture du code du projet ROS](http://wiki.ros.org/CppStyleGuide)
- [le guide du développeur](http://wiki.ros.org/DevelopersGuide)
2015-04-19 09:52:42 +00:00
2015-04-07 09:11:32 +00:00
## Mail du responsable de projet (extrait) ##
2015-04-07 09:12:43 +00:00
Donc sur le principe du projet :
2015-04-07 09:12:02 +00:00
2015-04-07 09:11:32 +00:00
- on place une kinect pointant vers le haut de laquelle on va extraire un nuage de points (PointCloud) correspondant à une main placée au dessus. D'ailleurs, je pense qu'on prendre un gant de couleur unie bien criarde pour facilement filtrer les points d'intérêt et ne s'intéresse qu'à ceux de la main.
- on régresse un plan sur le point cloud
- on utilise les paramètres du plan pour définir le roll, pitch, altitude d'un drone;
2015-04-07 09:12:43 +00:00
Il vous faut donc dans un premier temps :
2015-04-07 09:12:02 +00:00
2015-04-07 09:11:32 +00:00
- faire les tutoriels de ROS (jusqu'au tutoriel sur les publisher et subscribers en C++/Python); Pour installer ROS sur votre machine, c'est beaucoup plus simple à ma connaissance d'installer ubuntu (http://wiki.ros.org/)
- regarder comment on définit/utilise des launch files sous ROS, ce qui facilite grandement le lancement de plusieurs noeuds (http://wiki.ros.org/roslaunch)
- regarder et utiliser la kinect sous ROS en utilisant freenect; Notamment regarder les nœuds et ce qu'ils publient sur leurs topics (http://wiki.ros.org/freenect_camera), il y a notamment une image de profondeur et une image RGB;
- regarder et utiliser le drone sous ROS : (par exemple : http://wiki.ros.org/ardrone_driver)
J'ai sorti une kinect, elle est posée sur un des bureaux de la smartroom.
2015-04-07 09:12:43 +00:00
Pour rappel, à la fin du projet, je vous demanderais de me remettre un rapport et de faire une soutenance.