Was ist Embedded Vision?

Die Entwicklung von Embedded Vision Systemen, aktuelle Technologien und Trends für die industrielle Bildverarbeitung

Embedded Vision boomt: Industrieautomatisierung und Robotik, Medizin- und Laborgeräte, Smart-City- und Verkehrsanwendungen profitieren von Kameradaten und den daraus gewonnenen Erkenntnissen. Aber wie hat sich das alles entwickelt, von den Anfängen in den 1990er Jahren bis heute? Welche technologischen Fortschritte haben es ermöglicht, Bildverarbeitungssysteme von der Größe eines Tower-PCs auf ultrakompakte und intelligente, mobile Geräte zu schrumpfen? Und welche Möglichkeiten eröffnen moderne embedded Prozessoren und MIPI Kameras für den industriellen Einsatz und für das Design von perfekt integrierten Elektroniken? Wir zeigen es Ihnen!

Embedded Vision Systeme – eine Definition

Embedded Systeme bezeichnen in der Regel Computersysteme, die einen Prozessor und Speicher sowie Ein-/Ausgabe- und Peripheriegeräte kombinieren, eine spezielle Funktion haben und in größere mechanische oder elektronische Systeme eingebaut sind (– so beschreibt es Wikipedia). 

Bei Embedded Vision Systemen basieren diese Lösungen in der Regel auf einem Bildsensor zur Datenerfassung und einer Verarbeitungseinheit, z. B. einem Mikrocontroller. Mit der steigenden Anzahl an Anwendungen, bei denen Kameras als Sensoren zum Einsatz kommen, wird auch die Bezeichnung „Embedded Vision“ immer häufiger verwendet. Eine Board-Level-Kamera wird oft ebenso mit Embedded Vision bezeichnet wie komplexe Systeme, die ein Kameramodul, eine Verarbeitungseinheit mit Mainboard und System on Module (SoM) sowie weitere Elektronik wie Interfaceboards, digitale I/Os etc. umfassen. Weitere Komponenten wie Trigger, Beleuchtung und Optik, andere Sensoren und Software können ebenfalls Teil eines Embedded Vision Systems sein.


Ein geringer Stromverbrauch ist für viele Einsatzbereiche von Embedded Vision Systemen ebenfalls ein wichtiger Aspekt. Darüber hinaus sind robustes Design, industrietaugliche Qualität und Langzeitverfügbarkeit fest mit dem Begriff „Embedded“ verbunden. Die Technologie eignet sich damit für unterschiedlichste Geräte und Applikationen, von Consumer-Produkten bis hin zu hochspezialisierten industriellen Anwendungen.

„Ein wichtiges Charakteristikum für Embedded Vision Systeme und den Einsatz in Industrie- und Serienprodukten sind für VC Komponenten, die perfekt auf die jeweiligen Anwendungen zugeschnitten sind. Sie verzichten auf allen unnötigen Overhead an Bauteilen und Funktionalität und sorgen damit für niedrige Stückkosten. Diese Lösungen sind so klein wie möglich und optimal geeignet für das Design von Edge Devices und mobilen Anwendungen.“

Jan Erik-Schmitt
Geschäftsführer Vision Components

Wichtige Kriterien für Embedded Vision Systeme:

  • Minimale Größe – für flexible Integration
  • Niedriger Stromverbrauch – für mobile Anwendungen
  • Preisoptimiertes Design – für geringe Serienkosten
  • Robust, langlebig und langzeitverfügbar – für den Einsatz in der Industrie
Diagramm: Kriterien für Embedded Vision System

Von den ersten Embedded Systemen bis zur Erfindung der intelligenten Kamera

Der Apollo Guidance Computer mit einem Arbeitsspeicher von 2 KBytes und einer Taktrate von 100 Kilohertz kann als Vorläufer der heutigen Embedded Systeme angesehen werden. Er war der erste Computer, der auf integrierten Siliziumschaltungen basierte und wurde für das Apollo-Programm zu Beginn der bemannten Raumfahrt entwickelt. 1966 erstmals eingeführt, lieferte der Computer Berechnungen und Schnittstellen für die Steuerung, Navigation und Kontrolle des Raumfahrzeugs. Es dauerte danach weitere 30 Jahre, bis die ersten Embedded Systeme für Bildverarbeitungsanwendungen entwickelt wurden. Bis zu diesem Zeitpunkt wurden Kameras eingesetzt, die an externe Verarbeitungseinheiten angeschlossen waren. Diese lieferten die nötige Rechenleistung für die Verarbeitung der Bilddaten – mit der Größe eines Tower-PCs waren sie allerdings weit davon entfernt, „eingebettet“ zu sein.

“1995 stellte Michael Engel die VC11 vor, die erste industrielle Smart-Kamera der Welt, die auf einem digitalen Signalprozessor (DSP) basiert. Sein Ziel war es, ein kompaktes System zu schaffen, das Bilderfassung und -verarbeitung im selben Gerät ermöglicht. Die Kamera wurde im Vergleich zu PC-basierten Systemen zu deutlich geringeren Kosten angeboten und war wegweisend für die heutigen Smart-Kameras und Embedded Vision Systeme. Diese Erfindung markierte auch die Gründung von Vision Components durch Michael Engel”

Die 1990er Jahre: Homogene Embedded Vision Systeme

In den folgenden Jahren wurden DSPs zum Standard für die Bildverarbeitung mit intelligenten Kameras. Die Technologie entwickelte sich von den ersten Chips von Unternehmen wie Analog Devices zu hochentwickelten Modellen mit Gigahertz-Rechenleistung von Texas Instruments in den ersten Jahren des 21. Jahrhunderts, aber das Grundprinzip blieb gleich: Die Bilddaten wurden von einem Bildsensor erfasst, der von einem DSP gesteuert wurde. Anschließend wurden die Daten über einen Bus-Controller in den internen Speicher übertragen. Die gesamte Verarbeitung fand in einer einzigen Verarbeitungseinheit statt. Mit der schnell fortschreitenden Entwicklung leistungsfähiger DSPs wurden damit sogar Anwendungen wie 3D-Profilsensoren mit Onboard-Datenverarbeitung möglich.

Dual-Core ARM Prozessoren mit FPGA:
Meilenstein für die Entwicklung von Embedded Vision

Ein Meilenstein für die Entwicklung von Embedded-Vision-Systemen war die Einführung von Dual-Core-ARM-Prozessoren mit FPGA von Xilinx. Vision Components entwickelte 2014 seine ersten Embedded Vision Systeme auf Basis dieser heterogenen Architektur. Sie kombinierten die Vorteile der parallelen Echtzeitverarbeitung des FPGAs mit einem frei programmierbaren Linux-Betriebssystem auf den ARM-Cores. Dieser Aufbau machte das Design von Embedded Vision Systemen vielseitiger und flexibler und eröffnete den Entwicklern ganz neue Möglichkeiten, Software für ihre spezifischen Anwendungen zu programmieren und zu implementieren.

Die Rechenleistung stieg mit der Einführung neuer Prozessoren, getrieben durch die hohe Nachfrage nach kleiner und leistungsfähiger Elektronik für Anwendungen in der Automobilindustrie, in Automatisierung und Smart Home. Infolgedessen wurden Embedded Bildverarbeitungssysteme für zahlreiche und ganz unterschiedliche Einsatzbereiche entwickelt, von Board-Level-Kameras mit mehreren Prozessorkernen bis hin zu extrem kleinen Embedded Vision Systemen, die Bilderfassung und -verarbeitung mit ARM-Prozessoren und FPGAs auf einem einzigen Board von der Größe einer Briefmarke kombinieren.

State of the Art Embedded Vision Technologien:
Smart, flexibel und ultrakompakt

Stand der Technik sind heute heterogene Systemansätze mit mehreren Prozessoreinheiten, die sowohl ARM-CPUs und High-End-FPGAs als auch spezialisierte Verarbeitungseinheiten wie DSPs, Graphics Processing Units (GPUs), speziell für das maschinelle Lernen entwickelte Tensor Processing Units (TPUs) und KI-optimierte Neuronal Processing Units (NPUs) nutzen. Für Design und Entwcklung solcher Systeme stehen zahlreiche Prozessorboards und System on Modules zur Auswahl, auf denen die entsprechenden Prozessoreinheiten bereits integriert sind. Für noch mehr Flexibilität können verschiedene Module kombiniert werden. Im Ergebnis profitieren Entwickler so von einer größtmöglichen Freiheit bei der Auswahl des Prozessors für die Hauptanwendung, von einer schnellen, kostengünstigen Entwicklung und damit einer kürzeren Zeit bis zur Serienreife.

VC PowerSoM

Klingt gut?

Dann lesen Sie weiter, wie Sie Embedded Vision am besten in Ihr Projekt integrieren können. Und schreiben Sie uns Ihre Fragen!

Wir haben die drei effizientesten Wege zur Integration von Embedded Vision in diesem weiterführenden Blogbeitrag zusammengestellt. Und freuen uns, Sie bei Ihren individuellen Projekten und Herausforderungen zu unterstützen.

Weitere Blog-Beiträge

Was ist Embedded Vision?

Embedded Vision für Medizintechnik und Laborgeräte

25 Jahre Pionierarbeit: 
VC Firmengründer Michael Engel im Interview