Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/87924
DC FieldValueLanguage
dc.contributor.advisorNunes, Urbano José Carreira-
dc.contributor.authorAlves, Diogo António Ferreira Temporão-
dc.date.accessioned2019-11-18T23:25:04Z-
dc.date.available2019-11-18T23:25:04Z-
dc.date.issued2019-09-25-
dc.date.submitted2019-11-18-
dc.identifier.urihttps://hdl.handle.net/10316/87924-
dc.descriptionDissertação de Mestrado Integrado em Engenharia Electrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractCom o passar do tempo, a ideia de que os robôs desempenham unicamente papeis ligados ao sector industrial tem vindo a desaparecer. Atualmente, na sociedade, existe uma forte integração de robôs com o objetivo de auxiliar/melhorar a execução de determinadas tarefas.Desta forma, os robôs podem ser vistos como ferramentas essenciais no nosso quotidiano, em diversas áreas como medicina, educação, ou a nível pessoal.Esta dissertação de Mestrado tem como objetivo principal desenvolver e implementar um novo método de navegação local para robôs móveis tendo por base aprendizagem por reforço Reinforcement Learning. Este método permite que plataformas móveis virtuais ou reais como InterBot-Social Robot, desenvolvida no Instituto de Sistemas e Robótica (ISR), siga um caminho de forma a navegar de um local A para B. O método consiste em dois estágios: estágio de treino e estágio online. O estágio de treino consiste em o robô aprender a seguir um caminho previamente definido. Este estágio é realizado num ambiente de simulação, permitindo uma total liberdade no desenvolvimento e aperfeiçoamento do método. Através do treino é obtido um modelo que é utilizado no estágio online permitindo que uma plataforma móvel, num ambiente de simulação, se mova ao longo de um caminho evitando obstáculos. Uma conjunto de testes e experiências foram feitos em diferentes cenários. Diferentes testes como limitar o número de ações disponivéis, alterar o tipo de representação do caminho (definido por segmentos de reta ou splines cúbicos) e introduzir obstáculos perto do caminho. O método desenvolvido apresenta resultados promissores para caminhos com e sem obstáculos. Quando há limitação no número das ações o comportamento do robô é bastante instável embora consiga comprir o ojetivo pretendido.por
dc.description.abstractOver time, the idea that robots only carry out roles related to the industrial sector has been disappearing. Today, in society, there is a strong integration of robots in order to help/improve the execution of certain tasks.As a result, robots can be seen as essential tools in our daily lives, in many areas such as medicine, education, or at a personal level.The main objective of this Master's dissertation is to develop and implement a new local navigation method for mobile robots based on Reinforcement Learning. This method enables virtual or real mobile platforms such as InterBot-Social Robot, developed at the Institute of Systems and Robotics (ISR), to follow a path to navigate from location A to B. The method consists of two stages: training stage and online stage. The training stage consists in the robot learning to follow a previously defined path. This stage is performed in a simulation environment, providing total freedom in the development and improvement of the method. Through the training, a model is obtained and is used in the online stage enabling a mobile platform, in a virtual environment, to move along a path avoiding obstacles. A set of tests and experiments were performed in different scenarios. Different tests such as limiting the number of available actions, changing the type of path representation (defined by line segments or cubic cubic splines) and introducing obstacles near the path. The method developed presents promising results for paths with and without obstacles. When there is a limitation in the number of actions, the robot's behavior is quite unstable, although it can accomplish the desired objective.eng
dc.language.isoeng-
dc.rightsembargoedAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectNavegaçãopor
dc.subjectPlaneamentopor
dc.subjectReinforcement Learningpor
dc.subjectRecompensaspor
dc.subjectAçõespor
dc.subjectNavigationeng
dc.subjectPlanningeng
dc.subjectReinforcement Learningeng
dc.subjectRewardseng
dc.subjectActionseng
dc.titleReinforcement Learning in the Navigation of Mobile Robotseng
dc.title.alternativeAprendizagem por reforço na navegação de robôs móveispor
dc.typemasterThesis-
degois.publication.locationDEEC-
degois.publication.titleReinforcement Learning in the Navigation of Mobile Robotseng
dc.date.embargoEndDate2020-09-24-
dc.peerreviewedyes-
dc.date.embargo2020-09-24*
dc.identifier.tid202306100-
thesis.degree.disciplineEngenharia Electrotécnica e de Computadores-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado Integrado em Engenharia Electrotécnica e de Computadores-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Eng. Electrotécnica e de Computadores-
uc.degree.grantorID0500-
uc.contributor.authorAlves, Diogo António Ferreira Temporão::0000-0002-2588-4354-
uc.degree.classification18-
uc.date.periodoEmbargo365-
uc.degree.presidentejuriAraújo, Rui Alexandre de Matos-
uc.degree.elementojuriRocha, Rui Paulo Pinto da-
uc.degree.elementojuriNunes, Urbano José Carreira-
uc.contributor.advisorNunes, Urbano José Carreira-
item.grantfulltextopen-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.fulltextCom Texto completo-
item.openairetypemasterThesis-
item.cerifentitytypePublications-
item.languageiso639-1en-
crisitem.advisor.researchunitISR - Institute of Systems and Robotics-
crisitem.advisor.parentresearchunitUniversity of Coimbra-
crisitem.advisor.orcid0000-0002-7750-5221-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
Dissertação_Mestrado_DiogoAlves.pdf9.71 MBAdobe PDFView/Open
Show simple item record

Page view(s)

153
checked on Oct 30, 2024

Download(s)

123
checked on Oct 30, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons