Das vollständige Erfassen von komplexen Objekten und Szenen erfordert das Scannen von mehreren Roboterpositionen aus. Nach dem Scanvorgang werden die aufgenommenen 3D-Scans so aneinandergefügt, dass sie die Objekte und die Szene richtig repräsentieren. Das Aneinanderfügen von Scans heißt Registrieren.
Ist die Position des Scanners und damit jene des Roboters genau bekannt, können die 3D-Scans auf der Grundlage dieser Position registriert werden. Leider ist die Selbstlokalisation des Roboters mit einem Fehler behaftet. Daher stellt sich die Frage: Wie ist die Lage der 3D-Scans zueinander? Das Zusammenfügen der 3D-Scans darf deshalb nicht nur auf der Roboterposition basieren, sondern muss auch auf der Grundlage der 3D-Scans selbst geschehen. Letzterer Vorgang heißt Scanmatching. Für das Matching von 3D-Scans, die sich überlappen, wurden in den letzten Jahren verschiedene Verfahren entwickelt und in der Literatur vorgestellt [10,65,71]. Sie können folgendermaßen unterteilt werden [71]:
Neben diesen beiden Ansätzen existieren weiterhin noch so genannte hybride Verfahren, die Kombinationen der beiden Methoden sind [65]. Abschnitt 3.3 geht auf den ersten Ansatz ein. Die Ideen des merkmalbasierten Matchings werden am Beispiel des kantenbasierten Matchings in Abschnitt 3.4 hinzugezogen. Beide Verfahren berechnen Drehungen und Verschiebungen der Datenpunkte, so dass die Datensätze möglichst perfekt zueinander passen und konsistent sind. Das folgende Kapitel beschreibt die mathematische Darstellung solcher Drehungen (Rotationen) und Verschiebungen (Translationen).