Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais
To successfully apply robotics solutions in uncontrolled environments it is necessary to obtain quality information about the robot’s operating environment. Detecting, recognizing and estimating 3D position of objects are part of this process and are important for tasks such as object manipulation w...
Autor principal: | Conter, Felipe Pierre |
---|---|
Formato: | Dissertação |
Idioma: | Português |
Publicado em: |
Universidade Tecnológica Federal do Paraná
2022
|
Assuntos: | |
Acesso em linha: |
http://repositorio.utfpr.edu.br/jspui/handle/1/27888 |
Tags: |
Adicionar Tag
Sem tags, seja o primeiro a adicionar uma tag!
|
id |
riut-1-27888 |
---|---|
recordtype |
dspace |
spelling |
riut-1-278882022-04-07T06:07:45Z Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais Object detection and 3D pose estimation through the use of convolutional neural networks Conter, Felipe Pierre Fabro, Joao Alberto https://orcid.org/0000-0001-8975-0323 http://lattes.cnpq.br/6841185662777161 Oliveira, Andre Schneider de https://orcid.org/0000-0002-8295-366X http://lattes.cnpq.br/4006878042502781 Fabro, Joao Alberto https://orcid.org/0000-0001-8975-0323 http://lattes.cnpq.br/6841185662777161 Kapp, Marcelo Nepomoceno https://orcid.org/0000-0002-0743-8641 http://lattes.cnpq.br/0818244810084510 Robótica Robôs - Programação Redes neurais (Computação) Imagem tridimensional Robotics Robots - Programming Neural networks (Computer science) Three-dimensional imaging CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO Ciência da Computação To successfully apply robotics solutions in uncontrolled environments it is necessary to obtain quality information about the robot’s operating environment. Detecting, recognizing and estimating 3D position of objects are part of this process and are important for tasks such as object manipulation with a robotic arm. Methods based on convolutional neural networks and 3D models of objects were successful in this task, in different scenarios, despite the difficulty of obtaining 3D models in a practical situation. Also, not all methods can be executed in embedded systems, such as those usually present in autonomous service robots. RGB-D sensors have recently gained importance as tools for environment 3D sensing. These sensors associate RGB color images (red, green and blue) with a depth estimate for each pixel of the image, making it possible to estimate the 3D position of objects in the scene with respect to the sensor. This work proposes and evaluates a method that, from two RGB-D shots made from different positions, estimates an object’s 3D center point, without the need of knowing the object’s 3D shape in advance. The experiments show that the average euclidian distance between the estimated and the real 3D center points was 9.4 cm, with a standard deviation of 5.4 cm and in the best estimation this value was 8 mm. Para aplicar com sucesso soluções de robótica em ambientes não controlados é necessário obter informação de qualidade sobre o ambiente de atuação do robô. A detecção, o reconhecimento e a estimativa de posição 3D de objetos fazem parte desse processo, sendo importantes para tarefas como a manipulação de objetos com um braço robótico. Métodos baseados em redes neurais convolucionais e modelos 3D dos objetos obtiveram sucesso nesta tarefa, em diferentes cenários, apesar da dificuldade de obtenção de modelos 3D em uma situação prática. Além disso, nem todos os métodos podem ser executados em sistemas embarcados, como aqueles usualmente presentes em robôs autônomos de serviço. Sensores RGB-D recentemente ganharam importância como ferramentas para o sensoriamento 3D do ambiente. Estes sensores associam a imagens coloridas RGB (red, green and blue) uma estimativa de profundidade para cada pixel da imagem, tornando possível a estimativa de posição 3D de objetos na cena com relação ao sensor. Este trabalho propõe e avalia um método que, a partir de dois registros RGB-D feitos de posições diferentes, faz a estimativa do ponto central 3D de um objeto, sem a necessidade de conhecer o formato 3D do objeto de antemão. Os experimentos demonstram que a distância euclidiana média entre o ponto central 3D estimado e o real foi de 9,4 cm, com desvio padrão de 5,4 cm, sendo que na melhor estimativa este valor foi de 8 mm. 2022-04-06T15:44:01Z 2022-04-06T15:44:01Z 2022-02-03 masterThesis CONTER, Felipe Pierre. Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais. 2022. Dissertação (Mestrado em Computação Aplicada) - Universidade Tecnológica Federal do Paraná, Curitiba, 2022. http://repositorio.utfpr.edu.br/jspui/handle/1/27888 por openAccess http://creativecommons.org/licenses/by/4.0/ application/pdf Universidade Tecnológica Federal do Paraná Curitiba Brasil Programa de Pós-Graduação em Computação Aplicada UTFPR |
institution |
Universidade Tecnológica Federal do Paraná |
collection |
RIUT |
language |
Português |
topic |
Robótica Robôs - Programação Redes neurais (Computação) Imagem tridimensional Robotics Robots - Programming Neural networks (Computer science) Three-dimensional imaging CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO Ciência da Computação |
spellingShingle |
Robótica Robôs - Programação Redes neurais (Computação) Imagem tridimensional Robotics Robots - Programming Neural networks (Computer science) Three-dimensional imaging CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO Ciência da Computação Conter, Felipe Pierre Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
description |
To successfully apply robotics solutions in uncontrolled environments it is necessary to obtain quality information about the robot’s operating environment. Detecting, recognizing and estimating 3D position of objects are part of this process and are important for tasks such as object manipulation with a robotic arm. Methods based on convolutional neural networks and 3D models of objects were successful in this task, in different scenarios, despite the difficulty of obtaining 3D models in a practical situation. Also, not all methods can be executed in embedded systems, such as those usually present in autonomous service robots. RGB-D sensors have recently gained importance as tools for environment 3D sensing. These sensors associate RGB color images (red, green and blue) with a depth estimate for each pixel of the image, making it possible to estimate the 3D position of objects in the scene with respect to the sensor. This work proposes and evaluates a method that, from two RGB-D shots made from different positions, estimates an object’s 3D center point, without the need of knowing the object’s 3D shape in advance. The experiments show that the average euclidian distance between the estimated and the real 3D center points was 9.4 cm, with a standard deviation of 5.4 cm and in the best estimation this value was 8 mm. |
format |
Dissertação |
author |
Conter, Felipe Pierre |
author_sort |
Conter, Felipe Pierre |
title |
Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
title_short |
Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
title_full |
Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
title_fullStr |
Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
title_full_unstemmed |
Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
title_sort |
detecção de objetos e estimativa de posição 3d através da aplicação de redes neurais convolucionais |
publisher |
Universidade Tecnológica Federal do Paraná |
publishDate |
2022 |
citation |
CONTER, Felipe Pierre. Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais. 2022. Dissertação (Mestrado em Computação Aplicada) - Universidade Tecnológica Federal do Paraná, Curitiba, 2022. |
url |
http://repositorio.utfpr.edu.br/jspui/handle/1/27888 |
_version_ |
1805312956107325440 |
score |
10,814766 |