HTO

High-Tech-Offensive Bayern: Softwareentwurfssystem für Embedded-PC-Anwendungen

Ziel des Projektes war die Erstellung eines Software-Entwicklungssystems für universelle Automaten. Am Beispiel eines Terminals für das Surfen im In­ter­net wurde verdeutlicht, wie einfach und schnell zukünftige Automaten mit Hilfe der entstandenen Komponenten an Kundenforderungen an­ge­passt und realisiert werden können.

Im Rahmen der High-Tech-Offensive Bayern wurden von FORWISS Passau ver­schie­de­ne wiederverwendbare parametrierbare Softwarebausteine (Mo­du­le) im Bereich Bildverarbeitung und optische Messtechnik für das gra­phi­sche Entwicklungssystem ICONNECT der Firma Micro-Epsilon Mess­tech­nik ent­wi­ckelt. Über die Möglichkeiten des Demonstrators hinaus kön­nen die von FORWISS realisierten Module für Bild­ver­ar­bei­tungs­funk­tio­nen in kom­ple­xen Fertigungsautomaten verwendet werden.

Terminal

Im einzelnen wurden folgende Softwarebausteine entwickelt:

  • Module zur subpixelgenauen optischen Erfassung von Mustervorlagen
  • Module zur Prototyp-Passung
  • Module zur Stereobildverarbeitung
  • Module zum 3D Matching
  • Modul zur Rekonstruktion der räumlichen Lage aufgenommener Kreise
  • Module für eine Ebenenrekonstruktion bei bewegtem Messobjekt.

Subpixelgenaue optische Erfassung von Mustervorlagen

Eine Reihe von digitalen Bildern (Bild 1, 2, ...) grober Auflösung wird durch Auf­nah­men einer Mustervorlage (unten als feinaufgelöstes Musterbild zu se­hen), die vor jeder Aufnahme geringfügig versetzt wird, erstellt. Unter Ver­wen­dung des entwickelten Rekonstruktionsverfahrens werden die Sub­pixel­bil­der (Feinpixelbild 1-3) für verschiedene Rekonstruktionsparameter aus den erhaltenen Grobpixelbildern berechnet. Die im Bild 1, 2 und 3 ver­ste­ckte Information kann also weitgehend wieder sichtbar gemacht wer­den.

Subpixel Erfassung

Prototyp-Passung

Unter dem Begriff "Prototyp-Passung" versteht man die automatische Er­ken­nung und Lokalisierung von bekannten Objekten (Prototypen) in di­gi­ta­len Bil­dern. Der Prototyp kann dabei als Grauwert-, Farbbild oder durch ei­ne CAD-Vorlage gegeben sein. Das gegebene Objekt kann im di­gi­ta­len Bild in ge­dreh­ter, verschobener und vergrößerter Form auftreten, fall­wei­se auch per­spek­ti­visch verzerrt. Außerdem muss mit einer teil­wei­sen Verdeckung des Objekts und Änderungen an der Beleuchtung ge­rech­net werden.

Prototyp

Für die Bestimmung der Transformation des Prototypen existieren zwei ver­schie­de­ne Verfahren. Zum einen wird die Position über die Grau­wert­kor­re­la­tion des Prototypbildes ermittelt. Im anderen Fall werden so­wohl im Such- als auch im Musterbild markante Bildstrukturen berechnet und ei­nan­der zugeordnet.

Stereobildverarbeitung

Iconnectgraph

Schwerpunkt der Bildverarbeitungsmodule im Bereich Stereo war ohne jeg­li­ches Vorwissen aus zwei Bildern einer 3D-Szene soviel Erkenntnis wie mög­lich zu gewinnen. Wichtigstes Ziel ist hierbei die Ermittlung guter Kor­res­pon­den­zen (Bildpunkte in den beiden Bildern ein und desselben 3D-Punk­tes). Daraus kann dann die epipolare Geometrie bestimmt werden. Die­se gibt erste Informationen wie die beiden Kameras zueinander ori­en­tiert waren. Zudem wird die Korrespondenzfindung auch bei be­kann­ten Ka­li­brier­da­ten und Standort der Kameras zueinander er­mög­licht.

Spielbrett1 Spielbrett2

Allein aus diesen zugeordneten Bildpunkten ist schon eine projektive Re­kon­struk­tion, die Geraden und Ebenen erhält, durchführbar. Da für viele Si­tua­tio­nen eine Erfassung von Kalibrierdaten und der Standorte der bei­den Ka­me­ras aufwendig oder gar unmöglich ist (Beispiel: fahrender Ro­bo­ter mit Kamera), bieten diese Algorithmen Möglichkeiten der Ori­en­tie­rung und Na­vi­ga­tion.

3D Matching

Beim 3D Matching wird die geometrische Beziehung zweier Punktewolken zu­ei­nan­der rekonstruiert, d.h. es wird eine Rotation und eine Translation so bestimmt, dass die Punktewolken möglichst genau aufeinanderliegen. Da­zu muss aber eine Korrespondenz wenigstens dreier nicht-kollinearer Punk­te der ersten Punktwolke zu den entsprechenden Punkten der zweiten Punkt­wol­ke bekannt sein.

3D-Matching

Mit Hilfe dieser Transformation können somit Punktwolken, die bei­spiels­wei­se von einem 3D Laserscanner stammen zu einer Ge­samt­punkt­men­ge mit gleichem Bezugskoordinatensystem vereint wer­den.

Rekonstruktion der räumlichen Lage aufgenommener Kreise

In einigen Anwendungen der Bildverarbeitung ist die Geometrie von auf­ge­nom­me­nen Objekten bereits bekannt. Ist diese Geometrie kreis­för­mig, z.B. bestimmte Verkehrszeichen oder Markierungen auf Ka­li­brier­plat­ten, dann ist das aufgenommene Bild im Allgemeinen eine El­lip­se. Bestimmt man die Konturpunkte dieser Ellipse dann kann man aus der Lage der Ellipse im Bild und den internen Kameraparametern den Nor­ma­len­vek­tor der Ebene bestimmen in der der Kreis liegt. Ist zusätzlich auch noch der Ra­di­us des aufgenommenen Kreises bekannt, lässt sich auch der Abstand des Kreises ermitteln. Allerdings gibt es, falls die er­mit­tel­te Ellipse nicht be­reits ein Kreis ist, immer zwei mögliche Nor­ma­len­vek­to­ren.

Kreisrekonstruktion

In schwarz eingezeichnet ist eine Ellipse in der Ebene z=1. Strahlen vom Null­punkt, durch die Ellipse definieren einen elliptischen Kegel, vier dieser Strah­len sind in grün und türkis eingezeichnet. Die zwei blauen Kreise sind in diesem Kegel enthalten. Die Normalen der Ebenen dieser Kreise sind in rot zu sehen.

Ebenenrekonstruktion bei bewegtem Messobjekt

Viele Objekte in der menschlichen Umgebung lassen sich mit Ebenen mo­del­lie­ren, z.B. Straßen, Häuser oder die Wände in Räumen. Daher be­steht in der Bildverarbeitung häufig das Problem, dass man weiß, dass sich eine Men­ge von Punkten auf einer Ebene befinden, jedoch nicht die La­ge der Ebe­ne. Mit Hilfe der entwickelten Algorithmik ist es möglich, bei Be­we­gung der Kamera den Normalenvektor der Ebene, in der die Punkte lie­gen, zu re­kon­stru­ie­en. Der Abstand der Ebene von der Kamera kann da­bei ohne wei­te­res Nebenwissen nicht ermittelt werden.

Projektmitarbeiter

Projektpartner