Αυτή η διπλωματική εργασία παρουσιάζει ένα νέο σύστημα εντοπισμού θέσης ρομπότ που χρησιμοποιεί μια μόνο RGB κάμερα και δύο τετράγωνες ταμπέλες διαφορετικού χρώματος για να προσδιορίσει τη θέση και την προσανατολισμό ενός κινητού ρομπότ στο περιβάλλον του.
Το σύστημα αυτό καταγράφει πολλαπλές εικόνες του περιβάλλοντος περιστρέφοντας την κάμερα, λαμβάνοντας φωτογραφίες και επεξεργαζόμενο τις εικόνες αυτές για να εξάγει οπτικά χαρακτηριστικά που θα χρησιμοποιηθούν για την αναγνώριση της θέσης των ταμπελών. Η θέση και ο προσανατολισμός του ρομπότ υπολογίζονται στη συνέχεια βάσει των σχετικών θέσεων των ταμπελών στις εικόνες.
Η τρέχουσα υλοποίηση έχει ασταθή ακρίβεια που μπορεί να οδηγήσει το ρομπότ σε λανθασμένο συμπέρασμα για την τοποθεσία του σε ορισμένες θέσεις. Η απλότητα, το χαμηλό κόστος και η εφαρμοσιμότητα του συστήματος το καθιστούν μια ελκυστική προσέγγιση για τον εντοπισμό ρομπότ.
Μια πιθανή μελλοντική κατεύθυνση για την βελτίωση της ακρίβειας και της αξιοπιστίας του συστήματος θα μπορούσε να είναι η χρήση πολλαπλών καμερών για τον παραλληλισμό των εικόνων και την ενίσχυση της ανθεκτικότητας σε πιθανούς περιορισμούς της μοναδικής κάμερας. Επιπλέον, μια πιο ολοκληρωμένη προσέγγιση θα μπορούσε να ενσωματώσει το σύστημα εντοπισμού θέσης με άλλες ρομποτικές εργασίες, όπως η κατασκευή χαρτών και η πλοήγηση του ρομπότ. Μια άλλη επιλογή θα ήταν η χρήση μιας κάμερας 360 ° και η χρήση ροής εικόνας αντί για φωτογραφίες για συνεχή εντοπισμό.
Συνολικά, το προτεινόμενο σύστημα εντοπισμού θέσης του ρομπότ προσφέρει μια προσέγγιση με προοπτικές για τον προσδιορισμό της θέσης και του προσανατολισμού κινητών ρομπότ χρησιμοποιώντας κάμερα-ες RGB και δύο ταμπέλες σήμανσης κάποιου χρώματος.
This thesis presents a new robot localization system that utilizes a single RGB camera and two colored square tags to determine the position and orientation of a mobile robot in its surroundings.
The system captures multiple images of the environment by rotating the camera, taking pictures and processing these images to extract visual features to be used for identifying the tags' location. The position and orientation of the robot are then calculated based on the relative positions of the tags in the images.
The current implementation has unstable accuracy which can cause the robot make mistaken estimations in certain positions, mostly due to the size of the tags. The system's simplicity, low cost, and applicability make it an attractive approach to robot localization.
Future work could explore the use of multiple cameras for improved accuracy and robustness, as well as the integration of the localization system with other robotic tasks such as mapping and navigation. Another option would be to use a 360° camera and use a stream instead of pictures for continuous localization.
Overall, the proposed robot localization system offers a promising approach for determining the position and orientation of mobile robots using RGB camera(s) and two colored square tags.