Show simple item record

dc.contributor.advisorSolaque Guzman, Leonardo Enrique
dc.coverage.spatialCalle 100spa
dc.creatorParra Cabrera, Susana Andrea
dc.creatorCuervo Lote, William Ricardo
dc.date.accessioned2018-05-11T15:20:39Z
dc.date.accessioned2019-12-26T22:11:01Z
dc.date.available2018-05-11T15:20:39Z
dc.date.available2019-12-26T22:11:01Z
dc.date.created2018-04-19
dc.identifier.urihttp://hdl.handle.net/10654/17513
dc.description70 páginas : figuras, fotos.spa
dc.description.abstractEn el presente trabajo de grado, se presenta el desarrollo de un sistema de vigilancia basado en visión artificial integrado a una plataforma aérea no tripulada. En la revisión realizada con respecto a los algoritmos dedicados a la detección de personas, se encontraron Mean Shift, Histograms of Oriented Gradients (HOG), Local Binary Pattern (LBP), Viola-Jones y You Only Look Once (YOLO), dejando seleccionados dos algoritmos para evaluar HOG y YOLO, para los cuales se realizaron las respectivas pruebas y su codificación en el sistema embebido. Los criterios utilizados para determinar el mejor algoritmo se basan en un análisis estadístico cualitativo, realizado con tomas de imágenes desde un drone, las cuales fueron usadas en pruebas off-line. La validación en tiempo real se obtiene mediante una interfaz en tierra que permita observar al usuario el número de personas detectadas, una imagen de la zona y la posición del drone.spa
dc.description.tableofcontentsAgradecimientos 2 Abstract 8 Resumen 9 Objetivos 16 Objetivo general 16 Objetivos específicos 17 Alcance Del Proyecto 17 CAPÍTULO I 19 Marco Teórico 19 Sistemas de detección 19 Técnicas para la Detección De Personas 20 Criterios de evaluación 25 Seguimiento De Personas 26 Tracking- Learning-Detection (TLD) 26 Software 30 OpenCV 30 CUDA 31 Bases de datos 32 Hardware 32 CAPÍTULO II 35 Desarrollo y simulación 35 Creación de la base de datos 35 Base de datos método HOG 37 Base de datos YOLO y Tiny YOLO 39 Entrenamiento YOLO y Tiny YOLO 41 Pruebas de los algoritmos 42 Diseño mecánico y arquitectura de hardware 43 Seguimiento de personas 45 CAPÍTULO III 47 Experimentación en tiempo real 47 Puesta en marcha 48 Validación en tiempo real 49 CAPÍTULO IV 51 Conclusiones 51 ANEXO 1 53 Códigos 53 Código Tracking 53 Código Muestras 55 Código número de personas 58 Código de la interfaz en Matlab 59 ANEXO 2 61 Hardware 61 NVIDIA Jetson TX1 61 Alienware Alpha 62 Cámara ZED 62 Cámara Zenmuse Z3 63 QuadRotor AscTec Pelican 64 Dji Matrice 600 Pro 65 Referencias 66spa
dc.formatpdfspa
dc.format.mimetypeapplication/pdfspa
dc.languagespaspa
dc.language.isospaspa
dc.publisherUniversidad Militar Nueva Granadaspa
dc.rightsDerechos Reservados - Universidad Militar Nueva Granada, 2018spa
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/2.5/co/spa
dc.subjectDetección de personasspa
dc.subjectHOGspa
dc.subjectYOLOspa
dc.subjectvigilancia aéreaspa
dc.titleSistema de visión artificial integrado a plataforma aérea para la detección de personas en tiempo realspa
dc.typeinfo:eu-repo/semantics/bachelorThesisspa
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessspa
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessspa
dc.subject.lembOJO ARTIFICIAL
dc.subject.lembVISION POR COMPUTADOR
dc.subject.lembDETECCION A DISTANCIA
dc.publisher.departmentFacultad de Ingenieríadspa
dc.type.spaTrabajo de gradospa
dc.creator.emailu1802237@unimilitar.edu.cospa
dc.creator.emailu1802206@unimilitar.edu.cospa
dc.description.abstractenglishThe present grade work describes the development of a surveillance system based on artificial vision integrated at Unmanned Aerial Vehicle (UAV). The review realized about the methods dedicated to pedestrian detection, were found the following algorithms: Mean Shift, Histograms of Oriented Gradients (HOG), Local Binary Pattern (LBP), Viola-Jones and You Only Look Once (YOLO), selecting two algorithms to be evaluate HOG and YOLO, doing for each one the respective tests and its codification in the embedded system. The criteria used to determine the best algorithm was based on a qualitative statistical analysis realized with captures of images from a drone, which were used in tests off-line. The real-time validation obtains with an interface in ground that allows to the user to observe an image of the area, the number of detected persons and the position of the dronespa
dc.title.titleenglishArtificial vision system integrated to an aerial platform for the detection of people in real timespa
dc.subject.keywordHOGspa
dc.subject.keywordYOLOspa
dc.subject.keywordPeople detectionspa
dc.subject.keywordAerial surveillancespa
dc.publisher.programIngeniería en Mecatrónicaspa
dc.creator.degreeIngeniero en Mecatrónicaspa
dc.creator.degreeIngeniero en Mecatrónicaspa
dc.source.bibliographicCitationAndre, R. (27 de Noviembre de 2017). AscTec Pelican. Obtenido de http://wiki.asctec.de/display/AR/AscTec+Pelicanspa
dc.source.bibliographicCitationAndriluka, M., Schnitzspan, P., Meyer, J., Kohlbrecher, S., Petersen, K., von Stryk, O., . . . Schiele, B. (Oct de 2010). Vision based victim detection from unmanned aerial vehicles. Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International Conference on, (págs. 1740-1747). doi:10.1109/IROS.2010.5649223spa
dc.source.bibliographicCitationBarcelona, U. A. (2016). Detección de objetos. Barcelona.spa
dc.source.bibliographicCitationBlondel, P., Potelle, A., Pegard, C., & Lozano, R. (2013). How to improve the HOG detector in the UAV context., 2, págs. 46-51. Compiegne. Obtenido de http://dx.doi.org/10.3182/20131120-3-FR-4045.00009spa
dc.source.bibliographicCitationBlondel, P., Potelle, A., Pégard, C., & Lozano, R. (Dec de 2014). Human detection in uncluttered environments: From ground to UAV view. Control Automation Robotics Vision (ICARCV), 2014 13th International Conference on, (págs. 76-81). doi:10.1109/ICARCV.2014.7064283spa
dc.source.bibliographicCitationChen, H.-J. H.-T. (2015). Face Recognition on Drones: Issues and Limitations. Proceedings of the First Workshop on Micro Aerial Vehicle Networks, Systems, and Applications for Civilian Use.spa
dc.source.bibliographicCitationCruz, N. M. (2013). Desarrollo de un sistema avanzado de asistencia a la conducción en tiempo real para la detección de peatones en entornos urbanos complejos.spa
dc.source.bibliographicCitationDoyle, D., Jennings, A., & Black, J. (2017). Estados Unidos Patente nº US 9,696.404 B1.spa
dc.source.bibliographicCitationECOPETROL (Ed.). (2015). Ecopetrol anuncia plan de inversiones para 2016 por US$4.800 millones.spa
dc.source.bibliographicCitationEL TIEMPO. (19 de Octubre de 2016). La Policía de Bogotá planea utilizar drones para la vigilancia. EL TIEMPO.spa
dc.source.bibliographicCitationExtra. (24 de Junio de 2017). Operación conjunta logró desactivar válvula ilegal de combustibles en Buenaventura. Extra.spa
dc.source.bibliographicCitationFang, P., Lu, J., Tian, Y., & Miao, Z. (2011). An Improved Object Tracking Method in UAV Videos. Procedia Engineering, 15, 634-638. doi:http://dx.doi.org/10.1016/j.proeng.2011.08.118spa
dc.source.bibliographicCitationGuo, Y. D., Xie, Z. G., & Ma, H. B. (2014). Pedestrian detection optimization algorithm based on low-altitude UAV., 571-572, págs. 757-763. Obtenido de http://dx.doi.org/10.4028/www.scientific.net/AMM.571-572.757spa
dc.source.bibliographicCitationJoseph, R. (2016). Darknet: Open Source Neural Networks in C. Obtenido de https://pjreddie.com/darknet/spa
dc.source.bibliographicCitationKang-Hyun, J., Van-Dung, H., & Joko, H. (2014). Moving Object Localization Using Optical Flow for Pedestrian Detection from a Moving Vehicle. The Scientific World Journal.spa
dc.source.bibliographicCitationLi, J., Liang, X., Shen, S., Xu, T., Feng, J., & Yan, S. (2016). Scale-aware Fast R-CNN for Pedestrian Detection. IEEE Transactions on Multimedia, (pág. 99).spa
dc.source.bibliographicCitationLoaiza, A., Manzano, D., & Múnera, L. (2012). Sistema de visión artificial para conteo de objetos en movimiento.spa
dc.source.bibliographicCitationMa, Y., Wu, X., Yu, G., Xu, Y., & Wang, Y. (2016). Pedestrian detection and tracking from low-resolution unmanned aerial vehicle thermal imagery. Sensors (Switzerland), 16. Obtenido de http://dx.doi.org/10.3390/s16040446spa
dc.source.bibliographicCitationManosalve, M. (27 de Septiembre de 2017). Derrame de petróleo por atentado en oleoducto de Caño Limón se extiende por 107 kilómetros. (E. L. TIEMPO, Ed.) EL ESPECTADOR.spa
dc.source.bibliographicCitationMargherita Bonetto, P. K. (2015). Privacy in mini drone Based Video Surveillance. Quebec City.spa
dc.source.bibliographicCitationMolchanov, V., Vishnyakov, B., Vizilter, Y., Vishnyakova, O., & Knyaz, V. (26 de Junio de 2017). Pedestrian detection in video surveillance using fully convolutional YOLO neural network. Munich, Germany.spa
dc.source.bibliographicCitationN. Davis, F. P. (2013). Facial recognition using human visual system algorithms for robotic and UAV platforms.spa
dc.source.bibliographicCitationNakama, M. (13 de Agosto de 2011). video, Un estudio basado en la Técnica de Mean Shift para Agrupamiento y Seguimiento en. Buenos Aire, Argentina.spa
dc.source.bibliographicCitationNavarro, J. (2015). People exact-tracking using a Parrot AR.Drone 2.0.spa
dc.source.bibliographicCitationNegri, P., & Garayalde, D. (2016). Pedestrian tracking using probability fields and a movement feature space. DYNA.spa
dc.source.bibliographicCitationNVIDIA. (s.f.). Obtenido de JETSON TX1: http://www.nvidia.es/object/jetson-tx1-module-es.htmlspa
dc.source.bibliographicCitationOpenCV. (s.f.). CUDA. Obtenido de http://opencv.org/platforms/cuda.htmlspa
dc.source.bibliographicCitationOpenCV. (s.f.). OpenCV. Obtenido de http://opencv.org/about.htmlspa
dc.source.bibliographicCitationOreifej, O., Mehran, R., & Shah, M. (June de 2010). Human identity recognition in aerial images. Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on, (págs. 709-716). doi:10.1109/CVPR.2010.5540147spa
dc.source.bibliographicCitationOviedo, J. (2016). Uso de los drones en la seguridad privada. Bogotáspa
dc.source.bibliographicCitationPeng, Q., Luo, W., Hong, G., Feng, M., Xia, Y., Yu, L., . . . Li, M. (2016). Pedestrian Detection for Transformer Substation Based on Gaussian Mixture Model and YOLO. 8th International Conference on Intelligent Human-Machine Systems and Cybernetics, (págs. 562-565). Nanjing, China.spa
dc.source.bibliographicCitationPestana, J., Sanchez-Lopez, J., Campoy, P., & Saripalli, S. (2013). Vision based GPS-denied Object Tracking and following for unmanned aerial vehicles. 2013 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), (págs. 1-6). Linkoping.spa
dc.source.bibliographicCitationPORTAFOLIO. (8 de Junio de 2017). Las válvulas ilícitas, otro drama para las petroleras. (E. L. TIEMPO, Ed.) Portafolio.spa
dc.source.bibliographicCitationPupilli, M., & Calway, A. (2006). Real-Time Camera Tracking Using Known 3D Models and a Particle Filter. 18th International Conference on Pattern Recognition , (págs. 199-203). Hong Kong.spa
dc.source.bibliographicCitationQiushi. (6 de Junio de 2014). Label object bboxes for ImageNet Detection data.spa
dc.source.bibliographicCitationRedmon, J., Divval, S., Girshic, R., & Farhad, A. (2016). You Only Look Once: Unified, Real-Time Object Detection. IEEE Conference on Computer Vision and Pattern Recognition.spa
dc.source.bibliographicCitationReilly, V., Solmaz, B., & Shah, M. (2010). Geometric Constraints for Human Detection in Aerial Imagery. En K. Daniilidis, P. Maragos, & N. Paragios (Edits.), Computer Vision -- ECCV 2010: 11th European Conference on Computer Vision, Heraklion, Crete, Greece, September 5-11, 2010, Proceedings, Part VI (págs. 252-265). Berlin, Heidelber, g: Springer Berlin Heidelberg. doi:10.1007/978-3-642-15567-3_19spa
dc.source.bibliographicCitationReyes, S., Rángel, J., Zavala, J., Romero, H., Salazar, S., & Lozano, R. (2013). Real-Time Tracking by a Quadrotor for Arbitrary Objects Defined Online*. IFAC Proceedings Volumes, 46, 93-98. doi:http://dx.doi.org/10.3182/20131120-3-FR-4045.00060spa
dc.source.bibliographicCitationSTEREOLABS. (2017). STEREOLABS. Obtenido de https://www.stereolabs.com/zed/spa
dc.source.bibliographicCitationSugimura, D., Fujimura, T., & Hamamoto, T. (2016). Enhanced Cascading Classifier Using Multi-Scale HOG for Pedestrian Detection from Aerial Images. International Journal of Pattern Recognition \& Artificial Intelligence, 30, -1. Obtenido de http://search.ebscohost.com/login.aspx?direct=true&db=egs&AN=113219938&site=ehost-livespa
dc.source.bibliographicCitationVelásquez, W. (Julio de 2017). El Impacto De La Tecnología Dron En La Seguridad Privada. Bogotá.spa
dc.thesis.levelPregradospa
dc.thesis.disciplineIngenieria - Ingenieria en Mecatrónicaspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesisspa
dc.type.dcmi-type-vocabularyTextspa
dc.type.versioninfo:eu-repo/semantics/acceptedVersionspa
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadasspa


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Derechos Reservados - Universidad Militar Nueva Granada, 2018
Except where otherwise noted, this item's license is described as Derechos Reservados - Universidad Militar Nueva Granada, 2018