DeuAq.com >> Leben >  >> Elektronik

Die nächste Generation von Smartphone-Kameras könnte durch Wände sehen

Vielleicht sind Sie mit der Kameratechnologie Ihres neuesten Smartphones zufrieden, die Ihr Gesicht erkennen und Zeitlupenvideos in Ultra-High-Definition aufnehmen kann, aber diese technologischen Meisterleistungen sind nur der Anfang einer größeren Revolution.

Die neueste Kameraforschung verlagert sich weg von der Erhöhung der Anzahl von Megapixeln hin zur Verschmelzung von Kameradaten mit rechnerischer Verarbeitung. Damit meinen wir nicht den Photoshop-Stil der Verarbeitung, bei dem Effekte und Filter zu einem Bild hinzugefügt werden, sondern einen radikal neuen Ansatz, bei dem die eingehenden Daten möglicherweise überhaupt nicht wie ein Bild aussehen. Es wird erst nach einer Reihe von Berechnungsschritten zu einem Bild, die oft komplexe Mathematik und die Modellierung des Lichtwegs durch die Szene oder die Kamera beinhalten.

Diese zusätzliche Verarbeitungsebene befreit uns auf magische Weise von den Fesseln herkömmlicher Bildgebungstechniken. Eines Tages brauchen wir vielleicht nicht einmal mehr Kameras im herkömmlichen Sinne. Stattdessen werden wir Lichtdetektoren verwenden, die wir noch vor wenigen Jahren niemals für die Bildgebung in Betracht gezogen hätten. Und sie werden in der Lage sein, unglaubliche Dinge zu tun, wie zum Beispiel durch Nebel, in den menschlichen Körper und sogar hinter Mauern zu sehen.

Einzelpixelkameras

Ein extremes Beispiel ist die Ein-Pixel-Kamera, die auf einem wunderbar einfachen Prinzip beruht. Typische Kameras verwenden viele Pixel (winzige Sensorelemente), um eine Szene zu erfassen, die wahrscheinlich von einer einzigen Lichtquelle beleuchtet wird. Sie können es auch umgekehrt machen und Informationen von vielen Lichtquellen mit einem einzigen Pixel erfassen.

Siehe verwandt Verwandeln Sie die Kamera Ihres iPads mit diesem Hack in eine Schaltfläche

Dazu benötigen Sie eine gesteuerte Lichtquelle, beispielsweise einen einfachen Datenprojektor, der die Szene Punkt für Punkt oder mit einer Reihe verschiedener Muster beleuchtet. Für jeden Beleuchtungspunkt oder jedes Muster messen Sie dann die reflektierte Lichtmenge und addieren alles zusammen, um das endgültige Bild zu erstellen.

Der Nachteil bei der Aufnahme eines Fotos auf diese Weise besteht eindeutig darin, dass Sie viele Beleuchtungspunkte oder -muster aussenden müssen, um ein Bild zu erzeugen (was mit einer normalen Kamera nur einen Schnappschuss machen würde). Aber diese Form der Bildgebung würde es Ihnen ermöglichen, ansonsten unmögliche Kameras zu erstellen, die beispielsweise bei Lichtwellenlängen jenseits des sichtbaren Spektrums arbeiten, wo aus guten Detektoren keine Kameras gemacht werden können.

Diese Kameras könnten verwendet werden, um Fotos durch Nebel oder dicken Schneefall zu machen. Oder sie könnten die Augen einiger Tiere imitieren und die Auflösung eines Bildes (die Menge an Details, die es erfasst) automatisch erhöhen, je nachdem, was sich in der Szene befindet.

Es ist sogar möglich, Bilder von Lichtpartikeln aufzunehmen, die noch nie mit dem Objekt interagiert haben, das wir fotografieren möchten. Dies würde sich die Idee der „Quantenverschränkung“ zunutze machen, dass zwei Teilchen so verbunden werden können, dass das, was dem einen passiert, auch dem anderen passiert, selbst wenn sie weit voneinander entfernt sind. Dies bietet faszinierende Möglichkeiten, Objekte zu betrachten, deren Eigenschaften sich ändern können, wenn sie beleuchtet werden, wie z. B. das Auge. Sieht zum Beispiel eine Netzhaut im Dunkeln genauso aus wie im Licht?

Bildgebung mit mehreren Sensoren

Die Einzelpixel-Bildgebung ist nur eine der einfachsten Innovationen in der kommenden Kameratechnologie und stützt sich auf den ersten Blick auf das traditionelle Konzept dessen, was ein Bild ausmacht. Wir beobachten jedoch derzeit ein steigendes Interesse an Systemen, die viele Informationen verwenden, traditionelle Techniken jedoch nur einen kleinen Teil davon erfassen.

Hier könnten wir Multisensor-Ansätze verwenden, bei denen viele verschiedene Detektoren auf dieselbe Szene gerichtet sind. Das Hubble-Teleskop war ein bahnbrechendes Beispiel dafür, das Bilder aus Kombinationen vieler verschiedener Bilder erzeugte, die bei verschiedenen Wellenlängen aufgenommen wurden. Sie können kommerzielle Versionen dieser Art von Technologie kaufen, wie z. B. die Lytro-Kamera, die Informationen über Lichtintensität und -richtung auf demselben Sensor sammelt, um Bilder zu erzeugen, die nach der Aufnahme neu fokussiert werden können.

Die nächste Generation von Smartphone-Kameras könnte durch Wände sehen

Die Kamera der nächsten Generation wird wahrscheinlich in etwa so aussehen wie die Light L16-Kamera (oben). Diese Kamera verfügt über eine bahnbrechende Technologie, die auf mehr als zehn verschiedenen Sensoren basiert. Ihre Daten werden mithilfe eines Computers kombiniert, um ein 50 MB großes, neu fokussierbares und neu zoombares Bild in professioneller Qualität bereitzustellen. Die Kamera selbst sieht aus wie eine sehr aufregende Picasso-Interpretation einer verrückten Handykamera.

Doch dies sind nur die ersten Schritte auf dem Weg zu einer neuen Kamerageneration, die die Art und Weise, wie wir über Bilder denken und sie aufnehmen, verändern wird. Forscher arbeiten intensiv an dem Problem, durch Nebel zu sehen, hinter Mauern zu sehen und sogar tief in den menschlichen Körper und das Gehirn hinein abzubilden. Alle diese Techniken beruhen auf der Kombination von Bildern mit Modellen, die erklären, wie Licht durch oder um verschiedene Substanzen herum wandert.

Ein weiterer interessanter Ansatz, der auf dem Vormarsch ist, setzt auf künstliche Intelligenz, um zu „lernen“, Objekte aus den Daten zu erkennen. Diese Techniken sind von Lernprozessen im menschlichen Gehirn inspiriert und werden wahrscheinlich eine wichtige Rolle in zukünftigen Bildgebungssystemen spielen.

Einzelphotonen- und Quantenbildgebungstechnologien sind ebenfalls so weit ausgereift, dass sie Bilder mit unglaublich niedrigen Lichtverhältnissen und Videos mit unglaublich hohen Geschwindigkeiten aufnehmen können, die eine Billion Bilder pro Sekunde erreichen. Dies reicht aus, um sogar Bilder des Lichts selbst aufzunehmen, das sich als Szene ausbreitet.

Einige dieser Anwendungen benötigen möglicherweise etwas Zeit, um sich vollständig zu entwickeln, aber wir wissen jetzt, dass die zugrunde liegende Physik es uns ermöglichen sollte, diese und andere Probleme durch eine clevere Kombination aus neuer Technologie und rechnerischem Einfallsreichtum zu lösen.

Daniele Faccio ist Professorin für Quantentechnologien an der Universität Glasgow. Stephen McLaughlin ist Leiter der School of Engineering and Physical Sciences an der Heriot-Watt University. Dieser Artikel wurde ursprünglich auf The Conversation veröffentlicht.