Embedded Vision: Eine Erfolgs­geschichte

Embedded Vision - eine Erfogsgeschichte - von den Anfängen bis heute

Technologische Entwicklungen und Fortschritte

Smartphones, Rückfahrkameras und Pfandautomaten, Inspektionssysteme in Produktionsanlagen und autonome mobile Roboter: Kameras sind nicht mehr aus unserem Alltag wegzudenken. Dabei sind die Sensoren ganz natürlich und perfekt in ihre Anwendungen integriert – entsprechend der Definition von Embedded Vision. Consumer-Elektronik und Automobilindustrie sind wichtige Treiber für diese Entwicklung hin zu miniaturisierten Kameras und immer leistungsstärkeren Embedded Prozessorboards. In diesem Blogbeitrag wollen wir einen Blick werfen auf die Anfänge von Embedded Vision und die technische Entwicklung der vergangenen 30 Jahre.

Von den ersten Embedded Systemen bis zur Erfindung der intelligenten Kamera

Der Apollo Guidance Computer mit einem Arbeitsspeicher von 2 KBytes und einer Taktrate von 100 Kilohertz kann als Vorläufer der heutigen Embedded Systeme angesehen werden. Er war der erste Computer, der auf integrierten Siliziumschaltungen basierte und wurde für das Apollo-Programm zu Beginn der bemannten Raumfahrt entwickelt. 1966 erstmals eingeführt, lieferte der Computer Berechnungen und Schnittstellen für die Steuerung, Navigation und Kontrolle des Raumfahrzeugs.

Es dauerte danach weitere 30 Jahre, bis die ersten Embedded Systeme für Bildverarbeitungsanwendungen entwickelt wurden. Bis zu diesem Zeitpunkt wurden Kameras eingesetzt, die an externe Verarbeitungseinheiten angeschlossen waren. Diese lieferten die nötige Rechenleistung für die Verarbeitung der Bilddaten – mit der Größe eines Tower-PCs waren sie allerdings weit davon entfernt, „eingebettet“ zu sein.

1995 stellte Michael Engel die VC11 vor, die erste industrielle Smart-Kamera der Welt, die auf einem digitalen Signalprozessor (DSP) basiert. Sein Ziel war es, ein kompaktes System zu schaffen, das Bilderfassung und -verarbeitung im selben Gerät ermöglicht. Die Kamera wurde im Vergleich zu PC-basierten Systemen zu deutlich geringeren Kosten angeboten und war wegweisend für die heutigen Smart-Kameras und Embedded Vision Systeme. Diese Erfindung markierte auch die Gründung von Vision Components durch Michael Engel.

Entwicklung von Embedded Vision - 1995 bis 2014

Die 1990er Jahre: Homogene Embedded Vision Systeme

In den folgenden Jahren wurden DSPs zum Standard für die Bildverarbeitung mit intelligenten Kameras. Die Technologie entwickelte sich von den ersten Chips von Unternehmen wie Analog Devices zu hochentwickelten Modellen mit Gigahertz-Rechenleistung von Texas Instruments in den ersten Jahren des 21. Jahrhunderts, aber das Grundprinzip blieb gleich: Die Bilddaten wurden von einem Bildsensor erfasst, der von einem DSP gesteuert wurde. Anschließend wurden die Daten über einen Bus-Controller in den internen Speicher übertragen. Die gesamte Verarbeitung fand in einer einzigen Verarbeitungseinheit statt. Mit der schnell fortschreitenden Entwicklung leistungsfähiger DSPs wurden damit sogar Anwendungen wie 3D-Profilsensoren mit Onboard-Datenverarbeitung möglich.

Entwicklung von Embedded Vision - 2019 bis 2022

Dual-Core ARM Prozessoren mit FPGA:
Meilenstein für die Entwicklung von Embedded Vision

Ein Meilenstein für die Entwicklung von Embedded-Vision-Systemen war die Einführung von Dual-Core-ARM-Prozessoren mit FPGA von Xilinx. Vision Components entwickelte 2014 seine ersten Embedded Vision Systeme auf Basis dieser heterogenen Architektur. Sie kombinierten die Vorteile der parallelen Echtzeitverarbeitung des FPGAs mit einem frei programmierbaren Linux-Betriebssystem auf den ARM-Cores. Dieser Aufbau machte das Design von Embedded Vision Systemen vielseitiger und flexibler und eröffnete den Entwicklern ganz neue Möglichkeiten, Software für ihre spezifischen Anwendungen zu programmieren und zu implementieren.

Die Rechenleistung stieg mit der Einführung neuer Prozessoren, getrieben durch die hohe Nachfrage nach kleiner und leistungsfähiger Elektronik für Anwendungen in der Automobilindustrie, in Automatisierung und Smart Home. Infolgedessen wurden Embedded Bildverarbeitungssysteme für zahlreiche und ganz unterschiedliche Einsatzbereiche entwickelt, von Board-Level-Kameras mit mehreren Prozessorkernen bis hin zu extrem kleinen Embedded Vision Systemen, die Bilderfassung und -verarbeitung mit ARM-Prozessoren und FPGAs auf einem einzigen Board von der Größe einer Briefmarke kombinieren.

25 Jahre Erfahrung und neueste Entwicklungen im Bereich Embedded Vision: In diesem Webinar stellt Vision Components die Geschichte der Technologie vor und zeigt die effizientesten Wege auf, Embedded Vision in Ihr Projekt zu integrieren – von flexiblen MIPI-Modulen bis hin zu fertig implementierten Embedded Vision Systemen und leistungsstarken OEM-Modulen. Das Webinar gibt auch einen Ausblick auf kommende Entwicklungen rund um MIPI, für KI im Embedded Vision Design und für das Design noch kompakterer Anwendungen für 3D-Vision und andere Innovationen. 
drei Meilensteine bei der Entwicklung von Embedded Vision

1996 bis heute: Vision Components Meilensteine in der Entwicklung von Embedded Vision

Von der weltweit ersten intelligenten Kamera für die Industrie über die Entwicklung und Fertigung von Platinen- und Gehäusekameras bis hin zum innovativen FPGA-Booster VC PowerSoM – Vision Components hat mit seinen Meilensteinen die Weiterentwicklung innovativer Embedded Vision Produkte maßgeblich geprägt und vorangetrieben.

State of the Art Embedded Vision Technologien: Smart, flexibel und ultrakompakt

Stand der Technik sind heute heterogene Systemansätze mit mehreren Prozessoreinheiten, die sowohl ARM-CPUs und High-End-FPGAs als auch spezialisierte Verarbeitungseinheiten wie DSPs, Graphics Processing Units (GPUs), speziell für das maschinelle Lernen entwickelte Tensor Processing Units (TPUs) und KI-optimierte Neuronal Processing Units (NPUs) nutzen. Für Design und Entwicklung solcher Systeme stehen zahlreiche Prozessorboards und System on Modules zur Auswahl, auf denen die entsprechenden Prozessoreinheiten bereits integriert sind. Für noch mehr Flexibilität können verschiedene Module kombiniert werden. Im Ergebnis profitieren Entwickler so von einer größtmöglichen Freiheit bei der Auswahl des Prozessors für die Hauptanwendung, von einer schnellen, kostengünstigen Entwicklung und damit einer kürzeren Zeit bis zur Serienreife.

FPGA-basierter Hardwarebeschleuniger VC Power SoM mit MIPI-Kameramodulen

Sie wollen Teil der Embedded Vision Erfolgsgeschichte sein?

Dann lesen Sie weiter, wie Sie Embedded Vision am besten in Ihr Projekt integrieren können. Und schreiben Sie uns Ihre Fragen!

Wir haben die drei effizientesten Wege zur Integration von Embedded Vision in diesem weiterführenden Blogbeitrag zusammengestellt. Und freuen uns, Sie bei Ihren individuellen Projekten und Herausforderungen zu unterstützen.

Weitere Blog-Beiträge