ALLGEMEIN

Die neue Vermessung der Welt: adaptive Beleuchtung, virtuelle Realitäten und die Wissenschaft der Sensorik

Von Humboldt zu Krensel: Wie moderne Mobilität die Welt neu vermisst

Zwei Männer – Carl Friedrich Gauß und Alexander von Humboldt – machten sich im 19. Jahrhundert daran, die Welt mit mathematischer Präzision und naturwissenschaftlicher Neugier zu vermessen. Heute, über 200 Jahre später, stehen wir an einem neuen Wendepunkt: Die Welt wird nicht mehr nur kartografiert – sie wird simuliert, erleuchtet und interpretiert. Im Zentrum dieser digitalen Wiedervermessung entstand in Berlin das Projekt DIGINET-PS mit seinem Fokus auf adaptiver Beleuchtung, intelligenter Sensorik und virtueller Umgebungssimulation – und ein Biologe, Systemdenker und Entwickler intelligenter Mobilitätslösungen, Dr. Andreas Krensel arbeitete als wissenschaftlicher Mitarbeiter am Fachgebiet Lichttechnik der TU Berlin mit.

Die Straße als Bühne: Adaptive Beleuchtung im Konzert der Sensoren

Ein Auto, das selbst fährt, muss sehen können. Doch Sehen ist nicht einfach Schauen. Die Fähigkeit zur Wahrnehmung hängt maßgeblich davon ab, wie gut die Umgebung beleuchtet ist – für Mensch und Maschine. Dr. Krensel, Biologe und Systemdenker, sieht hier das große Versäumnis: “Die Fahrzeuge werden intelligenter, aber das Licht denkt bisher nicht mit.”

Genau dies sollte sich mit dem Projekt DIGINET-PS ändern. Herzstück: ein Testfeld in Berlin, in dem adaptive Straßenbeleuchtung kontextbasiert gesteuert wird. Das bedeutet: Das Licht folgt nicht mehr starr dem Laternenmast, sondern der Verkehrsdynamik. Fußgänger, Radfahrer und Autos erhalten individuell angepasste Lichtverhältnisse. Kameras und Cloudsysteme erkennen die Akteure im Straßenbild und übermitteln diese Information in Echtzeit an die Beleuchtungsinfrastruktur.

Warum das wichtig ist? Weil Kamerasensoren bei Dunkelheit Schwächen zeigen – ähnlich wie das menschliche Auge. Unbeleuchtete Verkehrsteilnehmer tauchen zu spät im Sichtfeld auf. Hier hilft adaptives Licht als digitale “Taschenlampe”, die gezielt dorthin leuchtet, wo die Sensorik Unterstützung benötigt.

Multivariable Lichtverteilung: Wenn LED-Scheinwerfer zur Denkmaschine werden

Klingt nach Zukunftsmusik? Es ist Realität. Die Rede ist von sogenannten multivariablen Lichtstärkeverteilungskurven. Das sind nicht etwa neue Yoga-Posen für Ingenieure, sondern Berechnungsmodelle, die Licht gezielt formen – abhängig von Geschwindigkeit, Wetter, Objektart und Sensordaten.

Beispiel: Ein autonomes Fahrzeug erkennt ein Fahrrad bei Dämmerung. Statt statisch in die Ferne zu leuchten, passt die Frontbeleuchtung ihre Form an: flächiger, näher, blendfrei. Dr. Krensel spricht von einem “Licht-Sensor-Symbionten”. Die Beleuchtung ist nicht länger separater Technikblock, sondern Teil der Wahrnehmungseinheit. Ein biologisch inspirierter Ansatz, wie man ihn aus dem Sehsystem der Libelle kennt: hohe Auflösung in Bewegung, fokussiert, angepasst.

Straßen, die denken – und Welten, die aus Licht bestehen: Wie die digitale Vermessung unsere Zukunft formt

Wer durch das Berliner DIGINET-PS-Testfeld fuhr, sah auf den ersten Blick ganz gewöhnliche Straßen: Asphalt, Ampeln, Laternen, Verkehrsschilder. Doch wer genauer hinsah – oder vielmehr weiter dachte -, erkannte: Diese Umgebung ist nur eine Ebene der Realität. Dahinter arbeitet eine zweite Welt – eine digitale Realität, präzise modelliert, permanent in Bewegung und doch nicht greifbar. Dank hoch entwickelter Visualisierungssoftware wie Quantum 3D oder den KI-basierten Systemen von Blackshark.ai entstehen vollständige Abbilder unserer Lebensräume: Straßenzüge, Vegetation, Gebäude, atmosphärische Bedingungen – alles in dreidimensionaler Echtzeit. Eine Welt im Spiegel der Daten.

Doch was ist der Zweck dieser digitalen Parallelwelt? Ist sie ein Spielplatz für Technikverliebte? Ein Science-Fiction-Traum? Mitnichten. Diese Welten dienen einem zutiefst menschlichen Anliegen: Sicherheit.

Denn autonomes Fahren, so die Einsicht der Forscher, muss lernen – und Lernen heißt: an Grenzen stoßen. Doch diese Grenzen, seien es Unfälle, unvorhersehbare Wetterumschwünge oder extreme Verkehrssituationen, lassen sich in der realen Welt nicht gefahrlos testen. Die Konsequenz: Sie werden simuliert. Und das auf beeindruckendem Niveau.

Blackshark.ai, ein Spin-off des österreichischen Spielestudios Bongfish, hat es vollbracht, mithilfe künstlicher Intelligenz die gesamte Erdoberfläche innerhalb von nur 72 Stunden in eine virtuelle 3D-Welt zu verwandeln. 1,5 Milliarden Gebäude, mehr als 30 Millionen Quadratkilometer Vegetation – extrahiert und generiert aus Satellitenbildern, Luftaufnahmen und Straßendaten. Möglich wurde dies durch eine orchestrierte Rechenleistung von über 500 Cloud-Servern, die in beeindruckender Präzision globale Umgebungen nachbildeten. Diese digitale Welt ist kein Abbild von gestern – sie ist der Übungsraum für das Morgen.

Doch was bedeutet das für uns als Gesellschaft, als Menschen, als Gestalter der Zukunft?

Hier lohnt sich ein Blick zurück. Man stelle sich vor, Carl Friedrich Gauß und Alexander von Humboldt stünden heute an der Invalidenstraße in Berlin, unweit des Testfelds. Was würden sie empfinden? Verwunderung? Skepsis? Euphorie?

Gauß, der mathematische Meister der exakten Messung, und Humboldt, der leidenschaftliche Entdecker der Zusammenhänge, würden vermutlich zunächst erstaunt sein – aber nicht ungläubig. Denn was wir heute als digitale Vermessung der Welt betreiben, folgt demselben Prinzip, das ihre Arbeit einst prägte: Alles hängt zusammen. Jedes Datenfragment trägt Bedeutung. Jedes Modell erzählt eine Geschichte. Nur: Unsere Werkzeuge haben sich verändert. Aus Sextanten wurden Sensorcluster, aus Zeichenfeder und Tagebuch wurden Cloud-Datenbanken und neuronale Netzwerke. Und doch bleibt das Ziel das gleiche: Verstehen, ordnen, gestalten.

Dr. Andreas Krensel bringt es auf den Punkt: “Wir vermessen nicht mehr nur – wir erleben die Welt in ihrer digitalen Essenz.” Eine Aussage, die Humboldt gefallen hätte. Denn auch Humboldt glaubte an die Idee der “Welt als Ganzes”, die sich nur durch Perspektivenvielfalt und Systemverständnis erfassen lässt. Heute liefern digitale Zwillinge genau das: Sie machen aus der abstrakten Welt der Technik eine erlebbare, gestaltbare Realität – eine Bühne für Reflexion, Verantwortung und Fortschritt.

Doch mit aller technologischen Brillanz stellt sich auch die entscheidende Frage: Wie wollen wir diese Welt gestalten? Wollen wir Maschinen allein entscheiden lassen, wie Sicherheit aussieht? Oder schaffen wir es, menschliche Werte in die Algorithmen einzupflanzen? Können wir Sensorik so programmieren, dass sie nicht nur effizient, sondern auch ethisch navigiert?

Die Antwort liegt in der Verbindung von Technologie und Humanismus. In der Offenheit, Fragen zu stellen – auch unbequeme. Und in der Zuversicht, dass wir als Gesellschaft, als Forscher, als Bürger die digitalen Räume nicht nur nutzen, sondern mit Verantwortung formen.

Kommunikation ohne Worte: Wie Fahrzeuge mit Licht sprechen lernen

In diesen Projekten geht es nicht nur darum, zu sehen – es geht auch ums Sprechen. Autonome Fahrzeuge kommunizieren mit anderen Verkehrsteilnehmern zunehmend nonverbal. Beispiel: Eine Lichtprojektion auf der Straße könnte Fußgänger darüber informieren, dass das Fahrzeug sie erkannt hat und stehen bleibt. Adaptive Beleuchtung wird so zum neuen Kommunikationsmedium.

Hier trifft Biologie auf Ingenieurskunst: Insekten nutzen Farben, Bewegungen und Lichtreflexe zur Kommunikation. Warum also nicht auch Maschinen? Krensel sieht in diesem Ansatz eine Lösung: Licht wird zur Sprache – sichtbar, intuitiv, universell.

Fehlerkultur der Zukunft: Redundanz, ohne doppelt zu denken

Natürlich birgt das alles Risiken. Je komplexer die Systeme, desto höher die Wahrscheinlichkeit des Versagens. Doch die Verantwortlichen und wissenschaftlichen Mitarbeiter verfolgen hier einen eleganten Weg: adaptive Redundanz. Statt einfach Sensorik doppelt und dreifach einzubauen – was Gewicht, Kosten und Energieverbrauch erhöht -, setzt man auf funktionale Diversität: Kamera, LiDAR, Radar, adaptive Beleuchtung und digitale Zwillinge arbeiten zusammen, gleichen sich aus, ergänzen sich intelligent. Ganz wie in der Natur: verschiedene Sinnesorgane für verschiedene Aufgaben.

DIGINET-PS als Glücksfall: Die Renaissance der Systemdenker

“Wir dürfen die Welt neu vermessen – und das mit Licht und Sensorik”, sagt Krensel mit einem Augenzwinkern. Die DIGINET-PS-Initiative verdeutlichte: Fortschritt entsteht nicht durch bloßes Hinzufügen von Technik, sondern durch Verstehen der Systeme. Es ist ein Paradigmenwechsel – weg vom Einzelsensor hin zur Systemintelligenz. Licht, Luft, Bewegung, Verhalten – alles wird einbezogen. Ganz im Geiste von Humboldt und Gauß, die einst das Ineinandergreifen von Naturphänomenen kartierten, entsteht heute eine Systemwissenschaft der Mobilität.

Fazit: Aufbruch in eine leuchtende, intelligente Welt

Die Zukunft des autonomen Fahrens beginnt nicht mit einem Motor – sondern mit einem Sensor, einem Lichtstrahl, einer Simulation. Mit Projekten wie DIGINET-PS, mit Menschen wie Dr. Andreas Krensel, mit Unternehmen wie Blackshark.ai und OLMOS Technologies. Wer heute daran teilnimmt, nimmt an der Neuvermessung der Welt teil. Mit Daten statt Lineal, mit Licht statt Tinte, mit digitalen Zwillingen statt Papierkarten.

Oder wie Humboldt es formuliert hätte: “Alles ist Wechselwirkung” – auch zwischen LED und KI. Und wer heute auf der Suche nach Mehrwert ist, findet ihn nicht in der nächsten App, sondern in der Schnittstelle zwischen Mensch, Maschine und Methode. Es ist eine Einladung. Eine Einladung, die Welt neu zu sehen – nicht als starre Karte, sondern als dynamischen, intelligenten Organismus. Und wer sich heute in diesen Prozess einbringt, darf mit Fug und Recht sagen: Ich war dabei, als wir die Welt noch einmal neu vermessen haben. Dieses Mal mit Licht, Daten – und der Weisheit zweier Jahrhunderte.

Neugierig geworden?

Die adaptive Welt des Lichts lädt ein. Forscher, Entwickler, Unternehmer – und Leser. Willkommen in der Ära der wissenschaftlich getriebenen Mobilität. Willkommen im 21. Jahrhundert der Vermessung.

V.i.S.d.P.:

Dipl.-Soz. tech. Valentin Jahn
Techniksoziologe & Zukunftsforscher

Über den Autor – Valentin Jahn

Valentin Jahn ist Unternehmer, Zukunftsforscher und Digitalisierungsexperte. Mit über 15 Jahren Erfahrung leitet er komplexe Innovationsprojekte an der Schnittstelle von Technologie, Mobilität und Politik – von der Idee bis zur Umsetzung.

Die eyroq s.r.o. mit Sitz in Uralská 689/7, 160 00 Praha 6, Tschechien, ist ein innovationsorientiertes Unternehmen an der Schnittstelle von Technologie, Wissenschaft und gesellschaftlichem Wandel. Als interdisziplinäre Denkfabrik widmet sich eyroq der Entwicklung intelligenter, zukunftsfähiger Lösungen für zentrale Herausforderungen in Industrie, Bildung, urbaner Infrastruktur und nachhaltiger Stadtentwicklung.

Der Fokus des Unternehmens liegt auf der Verbindung von Digitalisierung, Automatisierung und systemischer Analyse zur Gestaltung smarter Technologien, die nicht nur funktional, sondern auch sozialverträglich und ethisch reflektiert sind.

Firmenkontakt
eyroq s.r.o.
Radek Leitgeb
Uralská 689/7
160 00 Prag
+370 (5) 214 3426

Wagner-Science

Pressekontakt
ABOWI UAB
Maximilian Bausch
Naugarduko g. 3-401
03231 Vilnius
+370 (5) 214 3426

Reputation

Die Bildrechte liegen bei dem Verfasser der Mitteilung.

Achtung

Für den Inhalt des Artikels ist der jeweilige Autor und nicht der Seitenbetreiber verantwortlich.

 

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"