ALLGEMEIN

Visionen der Zukunft – was, wenn Maschinen besser sehen als wir?

Was, wenn Maschinen bei Nebel klarer sehen als wir? Und wo bleibt das Auge des Menschen unersetzbar – im Detail oder im Ganzen?

Es ist ein nebliger Herbstmorgen. Auf der Landstraße verschwindet der Horizont im milchigen Grau, Scheinwerferkegel brechen stumpf an der feuchten Luft. Für den menschlichen Fahrer ist die Situation ein Risiko: Bremswege verlängern sich, Konturen lösen sich auf, die Wahrnehmung schwankt zwischen Vermutung und Gewissheit. Doch im autonomen Fahrzeug nebenan bleibt Ruhe. Sensoren arbeiten in mehreren Spektren, Algorithmen gleichen Daten ab, eine Kamera mit biologisch inspirierten Filtern erkennt selbst dort Bewegungen, wo das menschliche Auge versagt. Was der Mensch mühsam erahnt, wird zur berechenbaren Information.

Dr. rer. nat. Andreas Krensel ist Biologe, Innovationsberater und Technologieentwickler mit Fokus auf digitaler Transformation und angewandter Zukunftsforschung. Seine Arbeit vereint Erkenntnisse aus Physik, KI, Biologie und Systemtheorie, um praxisnahe Lösungen für Industrie, Stadtentwicklung und Bildung zu entwickeln. Als interdisziplinärer Vordenker begleitet er Unternehmen und Institutionen dabei, Sicherheit, Nachhaltigkeit und Effizienz durch Digitalisierung, Automatisierung und smarte Technologien zu steigern. Zu seinen Spezialgebieten zählen intelligente Lichtsysteme für urbane Räume, Lernprozesse in Mensch und Maschine sowie die ethische Einbettung technischer Innovation. Mit langjähriger Industrieerfahrung – unter anderem bei Mercedes-Benz, Silicon Graphics Inc., Freie Universität Berlin und Technische Universität Berlin – steht Dr. Krensel für wissenschaftlich fundierte, gesellschaftlich verantwortungsvolle Technologiegestaltung.

Wenn er über das Sehen der Zukunft spricht, stellt er Fragen, die weit über die Technik hinausgehen: Was, wenn Maschinen bei Nebel klarer sehen als wir? Und wo bleibt das Auge des Menschen unersetzbar – im Detail oder im Ganzen?

Doch wie verlässlich ist diese Illusion? Dr. Krensel verweist darauf, dass in modernen Konzepten des autonomen Fahrens der Digitale Zwilling eine Schlüsselrolle spielt: Das Fahrzeug erzeugt in Echtzeit ein virtuelles Abbild seiner Umgebung – ein Modell, das nicht nur die aktuelle Situation widerspiegelt, sondern auch alternative Szenarien berechnet. In neueren Studien zeigt sich, dass solche Zwillinge bei Fahrzeugen heute meist auf Stufe 3 der Reifegrade operieren – also insbesondere in Echtzeitüberwachung und Zustandsanalyse, aber bisher nicht durchgängig für vollautomatisches Fahren.

Ein konkretes Beispiel liefert das österreichische Digibus®-Projekt, in dem Forscher eine digitale Modellierung der Straßeninfrastruktur erstellten, um Fahrmanöver im Shuttlebetrieb zu simulieren. Sie erreichten dabei eine absolute Positionsgenauigkeit von unter zehn Zentimetern, was den digitalen Zwilling mit einem HD-Kartenniveau kompatibel machte.

Doch der digitale Zwilling ist nur so gut wie seine Sensoren, seine Kommunikation und seine Latenz. Bei Teleoperation-Tests mit 5G gelang es beispielsweise, eine G2G-Latenz (Glass-to-Glass) von rund 202 ms zu erreichen und ein Round-Trip-Delay (RTT) von 47 ms. Für kritische Fahrzeugsteuerung ist das noch zu hoch – eine minimale Verzögerung auf Sensor-Aktuator-Befehle kann über Leben und Tod entscheiden.

Andere Studien unterstreichen, wie sensibel autonome Systeme auf End-to-End-Verzögerungen reagieren: Eine IEEE-Publikation zeigte, dass wenn die Latenz zwischen Wahrnehmung (z. B. Erkennen eines Fußgängers) und Handlung (Notbremsung) zu groß wird, das System nicht mehr verlässlich reagieren kann.

Die Kombination von realer Sensorik, digitalen Zwillingen und Kommunikationsnetzen birgt große Chancen – aber eben kritische Grenzen. Die Frage lautet: Können Maschinen das Sehen tatsächlich so verbessern, dass sie bei Nebel, Störungen oder Datenverlust nicht nur überleben, sondern sicher agieren? Oder wird selbst der beste digitale Zwilling nur eine Simulation bleiben, die bei ungewöhnlichen Bedingungen versagt?

Medizinische Visionen – Maschinen als diagnostische Partner

Ein anderes Bild: Ein Radiologe blickt konzentriert auf ein MRT, neben ihm läuft die Analyse einer KI, die – inspiriert von biologischer Kontrastverarbeitung – mikroskopische Muster und schwache Signalunterschiede in Sekundenbruchteilen quantifiziert. Dass solche Systeme klinisch Mehrwert liefern können, ist inzwischen prospektiv belegt: In der ersten randomisierten Studie in einem nationalen Screening-Programm war KI-unterstütztes Lesen sicher und halbierte zugleich die Arbeitslast der Radiologen; parallel zeigen große prospektive Studien in der Mammografie zweistellige Zuwächse bei der Tumorentdeckung, teils ohne Anstieg der Recall-Raten – ein Hinweis darauf, dass algorithmische “Aufmerksamkeit” kleinste Kontraste konsistenter wahrnimmt als das menschliche Auge im Routinebetrieb.

Zugleich werden Systeme in europäischen Settings real erprobt: Das KI-Tool Mia steigerte in einer prospektiven Evaluation die Früherkennungsrate um bis zu 12-13 Prozent und fungierte als zusätzlicher “Leser”, der unauffällige Fälle erneut flaggt; ähnliche Befunde berichten NHS-Projekte zu Zweitlesungen im klinischen Alltag. Diese Richtung markiert weniger “Ersatz” als Verstärkung menschlicher Diagnostik – robuste Zweitmeinung, konsistente Kontrastbewertung, Priorisierung.

Doch Krensel bleibt kritisch: “Maschinen sind stark im Erkennen kleinster Abweichungen, aber blind für Kontext. Ein Algorithmus sieht die Veränderung im Gewebe, aber er weiß nichts über die Krankengeschichte, die familiäre Belastung oder die psychosoziale Situation.” Deshalb sieht er KI nicht als Ersatz, sondern als Verstärkung menschlicher Diagnostik: eine zweite, unermüdliche Aufmerksamkeit, die niemals ermüdet oder von Routine geblendet wird. Produktivitätsgewinne in der MRT sind plausibel (Triage, Segmentierung, Befundentwürfe), aber die Evidenz ist heterogen und oft workflowspezifisch. Selbst große Anbieter betonen daher die Rolle der KI als Assistenz, nicht als Autopilot – eine Perspektive, die auch die Mayo-Clinic-Plattform stützt.

Und die Forschung bleibt nicht stehen: An der Charite/BIH arbeiten Gruppen wie CLAIM und “Intelligent Imaging” an multimodalen, lernenden Pipelines – von hochauflösender Optik bis Deep-Learning-Modellen – die Kontrastmechanismen, Gewebearchitektur und Krankheitskontext enger verschränken sollen. Doch genau hier stellen sich die entscheidenden Fragen: Wie sichern wir Erklärbarkeit und Kalibrierung über Scanner, Standorte und Populationen hinweg? Wer trägt Verantwortung, wenn ein Grenzbefund von der KI “hochgezogen” wird, Mensch und Leitlinie unterschiedlich bewerten? Und wo liegt die optimale Aufgabenteilung: Lässt man die Maschine systematisch “übersehenes Kleines” finden, während der Mensch Bedeutung, Vorerkrankungen und Therapiepfade einordnet? Die Datenlage spricht für ein Co-Pilot-Modell: KI hebt die Sensitivität und entlastet, der Mensch behält Kontext, Ethik und Urteilshoheit.

Fliegen mit Maschinenaugen – der Luftraum der Zukunft

Es ist ein klarer Wintermorgen, ein Airbus steigt über den Wolken auf, während unter ihm eine Flotte von Drohnen ihren Kurs hält. Doch diese Drohnen sind keine gewöhnlichen Fluggeräte: Sie sind ausgestattet mit multispektralen “Maschinenaugen”, die weit über das menschliche Sehvermögen hinausgehen. Während ein Pilot im Cockpit den Horizont mit bloßem Auge erfasst, registrieren die Systeme der Drohnen nicht nur sichtbares Licht, sondern auch ultraviolette Muster in der Atmosphäre, Infrarotsignaturen von Triebwerken oder Wärmequellen und Radarprofile, die selbst durch Nebel und Wolkendecken hindurchreichen. Was für Greifvögel der legendäre Scharfblick ist, wird für Maschinen durch Sensorfusion Realität – und eröffnet ein neues Kapitel der Luftfahrt.

Forschungsprojekte wie SESAR (Single European Sky ATM Research) und das NASA UTM (Unmanned Aircraft System Traffic Management) zeigen bereits, wie sich der Luftraum durch autonome Systeme verändern könnte. Während heute im kommerziellen Flugverkehr durchschnittlich 100.000 Flüge pro Tag koordiniert werden müssen, prognostiziert die EU-Kommission für 2035 mehrere Millionen zusätzliche Drohnenflüge – von Lieferdiensten hin zu urbaner Luftmobilität. Damit wird die Frage unausweichlich: Wie lassen sich menschliche Piloten, bemannte Flugzeuge, Drohnenschwärme und KI-gesteuerte Luftfahrzeuge in ein einziges, sicheres System integrieren?

Die Vision reicht von Drohnen, die in Katastrophengebieten Überlebende mit Wärmebildtechnik aufspüren, bis zu autonomen Flugtaxis, die Passagiere in Megastädten zuverlässig durch den dichten Luftraum navigieren. Doch mit dieser Macht wächst die Verantwortung. Denn Maschinen, die besser “sehen” als wir, schaffen nicht nur Chancen für Rettung und Effizienz, sondern auch neue Risiken: Überwachung aus der Luft, Eingriffe in die Privatsphäre, Abhängigkeit von Algorithmen. Der kritische Blick bleibt unverzichtbar.

Die zentrale Herausforderung ist heute nicht mehr allein die Sensorik, sondern die Datenverarbeitung in Echtzeit. Ein moderner Jet produziert bis zu terabytegroße Datenmengen pro Flug, und eine Schwarmflotte von Drohnen vervielfacht diese Datenflut. Neuromorphe Hardware und spiking neural networks könnten hier den Durchbruch bringen, indem sie – ähnlich wie das Auge – nur relevante Informationen filtern, statt alles blind zu speichern. Genau diese Richtung, so betonen Wissenschaftler wie Dr. Andreas Krensel, sei entscheidend: “Es geht nicht darum, Maschinen mit Superkräften zu versehen, sondern ihnen die Fähigkeit zu geben, Informationen so effizient und robust zu verarbeiten wie die Biologie.”

Doch wie weit wünschen wir, den Maschinenblick tatsächlich zuzulassen? Sollen autonome Systeme im Luftraum Entscheidungen treffen, die heute ausschließlich Piloten vorbehalten sind – etwa in einer Gewittersituation oder beim Ausweichen vor einem unvorhersehbaren Objekt? Und wenn Maschinen eines Tages tatsächlich besser sehen, schneller reagieren und präziser handeln als der Mensch, wo bleibt dann der Platz für das menschliche Auge im Himmel der Zukunft?

Wenn Maschinen uns überholen – und wo wir überlegen bleiben

Die Forschung deutet klar darauf hin: Maschinen können in bestimmten Bereichen unser Sehen übertreffen – etwa bei der Verarbeitung von Datenmengen, bei der Nutzung anderer Spektren oder bei der Erkennung minimaler Kontrastunterschiede. Ein autonomes Fahrzeug kann in Millisekunden Milliarden Informationen auswerten, während das menschliche Gehirn bewusst nur wenige Eindrücke gleichzeitig fokussieren kann. Gleichzeitig bleibt unser Sehen unübertroffen, wenn es um Kontext geht. “Ein Kind mit einem Ball am Straßenrand erkennen wir sofort als Risiko. Eine Maschine sieht nur ein Objekt”, betont Krensel. Maschinen hingegen ringen damit, Bedeutung und Absicht zu interpretieren – ein Unterschied, der zeigt, dass Autonomie mehr ist als nur Bildverarbeitung.

Ethik, Regulierung und Infrastruktur – die unsichtbaren Grenzen

Doch wenngleich Maschinen besser sehen könnten, bedeutet das noch lange nicht, dass sie überall eingesetzt werden. Autonome Fahrzeuge benötigen Straßen, die ihnen Orientierung bieten, Standards, die international verbindlich sind, und Gesetze, die Verantwortung klären. Wer haftet, wenn ein Algorithmus im Nebel eine Fehlentscheidung trifft? Für Krensel liegt hier der Kern der Debatte: “Wir dürfen Technik nicht nur daran messen, was sie kann, sondern daran, was sie soll.” Welche Regeln gelten, wenn eine Drohne Menschen überwacht? Und wie verhindern wir, dass die Vision einer verbesserten Maschine nicht zur Dystopie einer allgegenwärtigen Kontrolle wird?

Offene Fragen für die Zukunft

“Wenn ich als Biologe auf diese Entwicklungen schaue, sehe ich einen faszinierenden, aber auch widersprüchlichen Weg”, so Krensel. Ja, Maschinen können das Sehen in Teilbereichen besser beherrschen – schneller, präziser, umfassender. Aber zugleich zeigt jede biologische Beobachtung, dass Effizienz, Anpassung und Bedeutung untrennbar miteinander verbunden sind. Maschinen, die nur Daten analysieren, bleiben blind für den Kontext. Echte Autonomie verlangt mehr: die Fähigkeit, Informationen nicht nur zu sehen, sondern sie zu verstehen.

Für Dr. Andreas Krensel bleibt die entscheidende Frage offen: Wollen wir Technik entwickeln, die den Menschen ersetzt – oder Systeme, die ihn ergänzen? Werden Maschinen einmal dort sehen, wo wir nicht hinschauen können, während wir ihnen das große Ganze erklären? Oder entsteht eine neue Symbiose, in der die Stärken von Biologie und Technik einander verstärken?

Die Vision der Zukunft ist also kein klares Bild, sondern ein Dialog. Zwischen Mensch und Maschine, zwischen Biologie und Technologie, zwischen Sehvermögen und Verstehen. Die Antwort, ob Maschinen besser sehen als wir, bleibt offen – aber genau darin liegt die spannendste Chance für Forschung und Gesellschaft.

V.i.S.d.P.:

Dipl.-Soz. tech. Valentin Jahn
Techniksoziologe & Zukunftsforscher

Über den Autor – Valentin Jahn

Valentin Jahn ist Unternehmer, Zukunftsforscher und Digitalisierungsexperte. Mit über 15 Jahren Erfahrung leitet er komplexe Innovationsprojekte an der Schnittstelle von Technologie, Mobilität und Politik – von der Idee bis zur Umsetzung.

Die eyroq s.r.o. mit Sitz in Uralská 689/7, 160 00 Praha 6, Tschechien, ist ein innovationsorientiertes Unternehmen an der Schnittstelle von Technologie, Wissenschaft und gesellschaftlichem Wandel. Als interdisziplinäre Denkfabrik widmet sich eyroq der Entwicklung intelligenter, zukunftsfähiger Lösungen für zentrale Herausforderungen in Industrie, Bildung, urbaner Infrastruktur und nachhaltiger Stadtentwicklung.

Der Fokus des Unternehmens liegt auf der Verbindung von Digitalisierung, Automatisierung und systemischer Analyse zur Gestaltung smarter Technologien, die nicht nur funktional, sondern auch sozialverträglich und ethisch reflektiert sind.

Firmenkontakt
eyroq s.r.o.
Radek Leitgeb
Uralská 689/7
160 00 Prag
+370 (5) 214 3426
https://eyroq.com/ 

Pressekontakt
ABOWI UAB
Maximilian Bausch
Naugarduko g. 3-401
03231 Vilnius
+370 (5) 214 3426

Reputation

Die Bildrechte liegen bei dem Verfasser der Mitteilung.

Achtung

Für den Inhalt des Artikels ist der jeweilige Autor und nicht der Seitenbetreiber verantwortlich.

 

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"