Interview mit ee-t-Gründer Ludwig: „Die Entwicklung hat gerade erst begonnen“

Als das Unternehmen eagle eye technologies gegründet wurde, kam die erste Lösung für die kinematischen Erfassung von Vermessungsdaten auf einem handelsüblichen KFZ auf den Markt. Inzwischen gehört das berührungslose Mobile Mapping zu den Standardverfahren in der Geodäsie. Business Geomatics sprach mit Firmengründer Dr. Johannes Ludwig.

Business Geomatics: Letztes Jahr hat ee-t 10-jähriges Jubiläum gefeiert. Wie blicken Sie heute zurück auf den Beginn?

Dr. Johannes Ludwig: Die Ursprungsidee der Firmengründung rührte daher, dass damals die Grundlagen für kinematischen Erfassungsmethoden in Ansätzen verfügbar waren. Wir hatten die Vision, auf dieser Basis erstmals anwendungsorientierte Lösungen zu erschaffen. Die Entwicklung der Algorithmik zur hochpräzisen Navigationsbestimmung war dafür eine große Investition. Dieser zentrale Baustein für das Mobile Mapping ist bis heute das Herzstück unserer Lösungen und von maßgebender Bedeutung für die Genauigkeit der erfassten Straßendaten.

Wo stehen wir heute?

Wir empfinden es als großartig, wie sich seitdem die Technologie, der Markt und auch die Kundenakzeptanz entwickelt haben. Heute haben wir Mobile-Mapping Technologien von vielen Anbietern, die in sehr unterschiedlichen Aufgabenbereichen verlässlich eingesetzt werden. Viele hochgenaue vermessungstechnische Aufnahmen mit traditionellen Methoden werden vollständig durch die kinematische Erfassung ersetzt. Wenngleich das Mobile Mapping noch keine einfache Standardanwendung wie die GPS- oder Tachymeter- Vermessung ist – die Anwendungsvielfalt ist enorm.

Wo lagen zu Beginn die Schwerpunkte der Sensorik?

Dr. Johannes Ludwig betont den Mehrfach-Nutzen, der in den per Mobile Mapping erfassten Daten liegen kann. Foto: eagle eye technologies

Am Anfang lag der Schwerpunkt der Aufnahmesensoren bei photogrammetrischen Verfahren. Ziel war es bei uns immer, anwendungstaugliche Lösungen zu erstellen. Wir sind Systemanbieter und entwickeln alle Kernkomponenten selbst. Zum Beispiel haben wir die ersten 3D-Laserscanner bereits im Jahr 2005 eingesetzt. Damals war die Software aber noch nicht soweit. Die großen Datenmengen waren schwer beherrschbar und die Gewinnung von Modellen und vektorisierten Daten aus den Punktwolken war ebenfalls kaum möglich. Daher sind die Scanner standardmäßig erst später in unsere kinematischen Datenerfassungssysteme integriert worden.

Welches Erfolgsrezept hat ein Unternehmen wie eagle eye technologies mit seinem Fokus auf den deutschsprachigen Raum?

Der Fokus bei uns liegt in der Qualität. Das beginnt bei der Datenaufnahme und endet erst mit der Qualitätssicherung der finalen Ergebnisdaten. Für verlässliche und gute Ergebnisse ist noch viel Ingenieurwissen notwendig. Da ist man noch weit von der Einfachheit eines UKW-Radios entfernt. Aber der Genauigkeitsansatz ist aus unserer Sicht auch der wirtschaftlichste. Je besser die Daten, desto mehr Anwendungspotenziale liegen in ihnen.

Genauer heißt in der Regel aber auch teurer in der Erstbeauftragung. Wieso ist das der wirtschaftlichere Ansatz?

Weil man die verschiedensten anwendungsbezogene Datensätze aus einem leistungsfähigen Originaldatensatz ableiten kann. Unsere Botschaft an Kunden, die sich mit der kinematischen Erfassung beschäftigen, ist daher immer, ein wenig mehr in die Qualität der einmal erfassten Daten zu investieren, um diese dann in möglichst vielen Anwendungen nutzen zu können. Die Kosten immer nur an einem einzelnen Einsatzzweck zu bewerten, bildet die Realität einfach nicht ab. Der Schriftsteller Oscar Wilde hat bereits Ende des 19. Jahrhunderts gesagt: „Heute kennt man von allem den Preis, von nichts den Wert.“ Das fasst die bisherige Lage bei Ausschreibungen gut zusammen. Die meisten Erstanwender von Mobile Mapping hat es leider oft Zeit und Geld gekostet, herauszufinden, dass es einen Unterschied beim Wert gibt, der sich auch an der Genauigkeit festmacht.

Wo liegen Beispiele für die Mehrzweck- Datenverwendung?

Das wird zum Beispiel bei Anwendungen im Bereich urbaner Sturzfluten deutlich. Die Städte müssen ja immer mehr auf die lokalen Starkregenereignisse reagieren. Dies machen sie mit Simulationen und entsprechenden Risikoanalysen, für die genaue Daten aus der Straßenbefahrung unablässig sind. Einige Vorreiterstädte haben dazu in den letzten Jahren Projekte durchgeführt und die Vorteile erkannt: Die Mobile-Mapping-Daten ermöglichen die Identifikation der Gebiete, die konkret von urbanen Sturzfluten gefährdet sein können. Und sie unterstützen die Planung von zu ergreifenden Maßnahmen, um diese Gefahren zu mindern. Die Anfragen zu diesem Thema nehmen daher extrem zu.

Können Sie konkrete Beispiele für Projekte nennen?

Wir haben zum Beispiel in der Stadt Peine Untersuchungen gemacht, bei denen herauskam, dass drei Gebäude akut gefährdet sind und ein Maßnahmenkatalog für die gezielte Vorsorge entwickelt. Das Ergebnis: Eine kleine Staumauer bringt mehr als die Vergrößerung des Kanalnetzes. Die Frage nach der Wirtschaftlichkeit ist damit unmittelbar beantwortet – vorausgesetzt, die Datenqualität ermöglicht die Mehrfachverwendung, denn für die Überflutungsanalyse kleinräumiger urbaner Gebiete benötigt man genaue 3D-Daten.

Die in den Ausschreibungen für Mobile- Mapping-Anwendungen nicht immer gefordert werden?

Richtig. Erfahrungen wie mit dem Starkregenrisiko forcieren den Trend zu höheren Genauigkeiten und strukturierten Fachdaten — und dementsprechend dynamisch ist auch die Lernkurve bei den Anwendern. Wie bei vielen kommunalen Planungsentscheidungen wäre es wünschenswert, wenn mehr technisch-wissenschaftlicher Sachverstand, der das große Ganze sieht, in der Kommune Einzug hält. Noch haben wir viel mit abteilungsorientiertem Denken zu tun.

Technisch gesehen tut sich auf dem Gebiet der Sensorik Einiges. Wo steht die Technik heute und was dürfen Anwender für die Zukunft noch erwarten?

Man muss dabei die Bereiche der Navigationssensorik auf der einen Seite und der Aufnahmesensorik auf der anderen Seite grundlegend unterscheiden. Leistungsfähige Navigationssensoren aufzubauen ist verhältnismäßig kostenintensiv. Man benötigt dafür sehr gute Algorithmen, um überhaupt zu qualitativ hochwertigen Ergebnissen gelangen zu können. Bei den Aufnahmesensoren, insbesondere bei den Bildtechnologien und den 3D-Laserscannern gibt eine unglaubliche Entwicklungsdynamik. Die Sensoren werden nicht nur günstiger, die modernen Sensoren liefern zudem sehr hohe Auflösungen. Auch die Auswerteverfahren werden zunehmend automatisiert. Die Sensorik alleine macht aber keine gute Mobile-Mapping-Lösung. Es sind unzählige Details wie beispielsweise auch die Gehäuse und Zuleitungen oder die Belichtungssteuerung der Kameras, die eine entscheidende Rolle spielen.

Haben Laser- und bildbasierte Verfahren das gleiche Potenzial?

Das Laserscanning ist zwar nach wie vor stark was die Genauigkeit angeht. Aber heute kommen wesentlich mehr Innovationen aus dem Bereich der photogrammetrischen Methoden. Das Dense Image Matching beispielsweise, mit dem man hochaufgelöste 3D-Punktwolken generieren kann, ist heute Standard und hat die Photogrammetrie stark gepusht. Auch die in der Robotik entwickelte SLAM-Methode sorgt dafür, dass Mapping-Aufgaben in manchen Einsatzfeldern ohne oder mit qualitativ schlechter Positionsbestimmung durchgeführt werden können. Die mathematischen Verfahren innerhalb der SLAM-Methode sorgen dafür, dass die Karte anhand von Landmarken beziehungsweise signifikanten Aufnahmepunkten und dem zurückgelegten Weg des Fahrzeugs geschätzt wird.

Und der Bereich der Datenauswertung?

In den Bereichen automatische Modellierung und Klassifikation wird heute stark geforscht. Es gibt einige vielversprechende Ansätze, aber noch keine vollständig rechnergestützten, zuverlässigen Auswerteverfahren. Das gilt auch für die kombinierte, parallele Auswertung von Daten aus verschiedenen Quellen, vor allem von Photogrammetrie- und Laser-Daten. Wir haben zum Beispiel im Rahmen von Befahrungsprojekten schon Digitale Geländemodelle rund um den Straßenkörper erstellt — und das auch für große Strecken wie etwa 60 Kilometer Autobahn. Der Umgang mit den Datenmengen ist heute kein großes Problem mehr. Zu diesen Themen werden wir in den nächsten Jahren noch viel hören.

Werden die Entwicklungen bei der Datenauswertung dies zukünftig noch vereinfachen?

Ja, sicher. Aber für diese Auswertung bedarf es in der Regel sowohl eines hohen Fachverstands als auch ingenieurtechnischer Qualifikationen. Aus diesem Grund hat auch das sogenannte Off- oder Nearshoring, also die Auslagerung der Datenauswertung in Länder mit niedrigerem Lohnniveau, seine Grenzen. Die Qualitätssicherung ist einfach zu schwierig.

Auch im Straßenbau ist das Thema BIM in Mode. Wirkt sich dies auf die Straßenbefahrung aus?

Mobile-Mapping-Daten werden heute schon in anwendungsübergreifende Modellierungsumgebungen eingebunden. Auch dieser Trend ist unaufhaltsam, wenngleich die Anwendermärkte erst langsam mit dem Thema vorankommen. Das gilt zum Beispiel für Architekten oder auch den Planungsbereich bei der Öffentlichen Hand. Hier liegen noch enorme Potenziale. Der BIM-Ansatz ist extrem sinnvoll, deswegen werden in Zukunft auch Mobile-Mapping-Daten in ein zentrales Bauwerksmodell einfließen, auch im Tiefbau. Die Deutsche Einheit Fernstraßenplanungs- und -bau GmbH (DEGES) hat das ja bereits für eine Bundesstraße in die Praxis umgesetzt.

Wie sehen Sie die Märkte?

Der allgemeine Markt der Datenerfassung, also der Vermessung, unterliegt einem starken Wandel, der noch lange nicht abgeschlossen ist. Die berührungslosen Verfahren werden sich noch sehr viel mehr durchsetzen. Diese Entwicklung hat gerade erst begonnen. (sg)