Opto Engineering® - 20 years Opto Engineering® - 20 years Opto Engineering. Our first 20 years →
Opto Engineering® - 20 years
Home Software Software für Bildverarbeitung
FabImage® Studio Professional
Produktübersicht
Verwandt
Eigenschaften
Möglichkeiten
Anwendungsbeispiele
Lizenzierungsmodell
Deep Learning
Quote
Ressourcen

Hauptvorteile

    • Keine speziellen Programmierkenntnisse erforderlich.
    • Datenflussbasierte Software.
    • Schneller und optimierter Algorithmus.
    • Mehr als 1000 Hochleistungs-Funktionen.
    • Kundenspezifische Filter für die Bildverarbeitung.
Erfahren Sie mehr

Intuitiv

Leistungsstark

Anpassbare

Intuitiv

Drag & Drop

Die komplette Programmierung besteht in der Auswahl von Filtern und deren Kombination miteinander. Sie können sich voll und ganz auf die computergestützte Bildverarbeitung konzentrieren.

Sie können alles sehen

Die Inspektionsergebnisse werden in mehreren konfigurierbaren Datenvorschauen angezeigt, und wenn ein Parameter im Programm geändert wird, werden die Vorschauen in Echtzeit aktualisiert.

HMI Designer

Sie können auf einfache Weise benutzerdefinierte grafische Benutzeroberflächen erstellen und so die gesamte Bildverarbeitungsanwendung mit einem einzigen Softwarepaket erstellen.

Leistungsstark

Mehr als 1000 einsatzbereite Filter

Es stehen mehr als 1000 einsatzbereite Filter für die Bildverarbeitung zur Verfügung, die für Hunderte von Anwendungen getestet und optimiert wurden. Sie haben viele erweiterte Funktionen, wie z. B. Unterdrückung von Ausreißern, Subpixelpräzision oder beliebig geformte Untersuchungsbereiche.

Hardwarebeschleunigung

Die Filter sind in hohem Maße für die SSE-Technologie und für Multicore-Prozessoren optimiert. Unsere Umsetzungen gehören zu den schnellsten der Welt!

Schleifen und Bedingungen

Ohne eine einzige Code-Zeile zu schreiben, können Sie spezifische und skalierbare Programmabläufe erstellen. Schleifen, Bedingungen und Unterprogramme (Makrofilter) werden mit entsprechenden Datenflusskonstrukten grafisch realisiert.

Anpassbare

GigE Vision und GenTL-Unterstützung

FabImage® Studio ist ein GigE Version kompatibles Produkt, Es unterstützt die GenTL Schnittstelle, genauso wie eine Vielzahl von herstellerspezifischen APIs. Somit kann die Software mit Opto Engineering® Kameras und den meisten auf dem Markt erhältlichen Kameras benutzt werden. Eingeschlossen die Kameras von Matrix Vision, Allied Vision, Basler, Baumer, Dalsa, PointGrey, Photon Focus, XIMEA und anderen Herstellern.

Benutzerfilter

Sie können Filter verwenden, um Ihren eigenen C/C++ Code zu integrieren, und profitieren von der visuellen Programmierung.

C++ Code Generator

Mit FabImage® Studio erstellte Programme können in den C++-Code oder in .NET Assemblies exportiert werden. Deshalb können Sie sehr leicht Ihre Bildverarbeitungsalgorithmen mit Anwendungen kombinieren, die mit den Programmiersprachen C++, C# oder VB erstellt wurden.

Es gibt über 1000 Filter für grundlegende Transformationen und spezialisierte Bildverarbeitungswerkzeuge.

  • Bildverarbeitung
  • Formanpassung
  • Barcode-Auslesen
  • Schablonenabgleich
  • Support-Vector-Maschinen
  • Blob-Analyse
  • Kamera-Kalibrierung
  • Datencode-Auslesen
  • Messungen
  • GigE Vision und GenTL
  • Konturen-Analyse
  • Fourier-Analyse
  • Eckenerkennung
  • Histogrammanalyse
  • Planare Geometrie
  • Hough-Transformation
  • 1D-Profilanalyse
  • OCR

In dieser Anwendung müssen wir Nägel unter Schrauben und Muttern erkennen. Das Bild wird mit Schwellenwerten abgeglichen und die resultierenden Bereiche werden in sog. Blobs aufgeteilt; zuletzt werden die Blogs nach ihrer Längenausdehnung eingestuft und die Nägel leicht gefunden.

Dieses Beispiel zeigt einen einfachen ReadBarcodes-Filter. Das Tool findet automatisch den Barcode und gibt dann den entschlüsselten Text wieder.

Lizenzarten

Entwicklung

Runtime

Schnellstartanleitung für fabimage®-teilenummern:

Lizenzarten

Es gibt zwei Arten von Handelslizenzen:

Entwicklung

Diese Lizenz ist einem einzelnen Techniker zugewiesen. Zu dem Paket gehört ein Jahr technische Unterstützung, wobei das Abo gegen eine jährliche Gebühr jeweils verlängert werden kann. Bei einem laufenden Abo für technische Unterstützung haben Sie das Recht, die Software auf neuere Versionen zu aktualisieren, und es wird Ihnen ein Rabatt auf Runtime-Lizenzen gewährt.

Produkt Typ P/N
FabImage® Studio Professional Entwicklung FIS-PRO
  • Die einem einzelnen Benutzer zugewiesene Lizenz umfasst 1 Jahr technischen Support
  • einschließlich 1 Jahr technischem Support
  • Lieferung auf einem USB-Dongle
FabImage® Studio + mitgelieferte Bibliothek Entwicklung FIS-ADD
  • Die Lizenz für Benutzer, die sowohl FabImage® Studio Professional als auch FabImage® Library Suite benötigen, umfasst das Generieren von C ++ - Code aus Programmen in FabImage® Studio Professional
  • einschließlich 1 Jahr technischem Support
  • Lieferung auf einem USB-Dongle

Tabelle erweitern

Runtime

Diese Lizenz gilt für ein einziges Bildverarbeitungssystem. Sie können eine Lizenz für ein Mehrkamerasystem verwenden, wenn jedoch mehrere unabhängige Systeme gesteuert werden sollen, sind mehrere Lizenzen erforderlich, was auch der Fall ist, wenn diese Systeme über einen einzigen physischen Computer laufen.

Produkt Typ P/N
FabImage® Studio Runtime Runtime FIS-RUN
  • kann zur Steuerung von höchstens einem Bildverarbeitungssystem verwendet werden
  • der Preis für Integratoren / oem: erfordert eine professional (dev.) Lizenz mit gültiger technischer Unterstützung
Mit Entwicklerlizenz und gültiger technischer Unterstützung
FabImage® Studio Runtime Runtime FIS-RTB
  • kann zur Steuerung von höchstens einem Bildverarbeitungssystem verwendet werden
Mit Entwicklerlizenz und gültiger technischer Unterstützung

Tabelle erweitern
Zusätzliche Produkte Typ P/N
Multithreading Add-on Entwicklung FI-PAR
  • für Entwicklerlizenzen. Ermöglicht es dem Benutzer, mehrere Makrofilter (Worker-Tasks) parallel laufen zu lassen. Multithreading-Projekte erfordern spezielle Runtime-Lizenzen
1 Jahr Unterstützungsverlängerung Entwicklung FIS-EXT, ADD-EXT
  • für alle Entwicklerlizenzen. Verlängert das Recht auf die Entwicklerlizenz für ein weiteres Jahr.
Mit Entwicklerlizenz und gültiger technischer Unterstützung
USB Lizenz Dongle - USB-DONGLE-FI / USB-DONGLE-RUN
  • eine Alternative zum computer-ID-basierten Lizenzierungsmechanismus ermöglicht die Nutzung der Software auf mehreren Computern. Kann sowohl für Entwicklungs- als auch für Runtime-Lizenzen verwendet werden
USB Dongle für FabImage® Entwicklerlizenz / USB Dongle für FabImage® Runtime Lizenz
Tabelle erweitern

Schnellstartanleitung für fabimage®-teilenummern:

  1. FabImage® Studio Professional (FIS-PRO) ermöglicht die Erstellung kompletter Bildverarbeitungsapplikationen, einschließlich HMI. FabImage® Studio Runtime (FIS-RUN/FIS-RTB) wird benötigt, um die Anwendungen auf jedem Inspektionssystem auszuführen.
  2. FabImage® Studio Professional (FIS-PRO) enthält die Funktion der Benutzerfilter, die es ermöglicht, den C++-Code des Benutzers in das grafische Programmiermodell einzubetten. FabImage® Library Suite, FIL-SUI (oder das Studio + Library Bundle, FIS-ADD) wird nur benötigt, wenn man die eingebauten Bildanalyse-Tools als C++ Funktionen aufrufen möchte.
  3. Wenn Sie Anwendungen in FabImage® Studio Professional (FIS-PRO) vorfertigen und anschließend in C++-Code umwandeln möchten, dann benötigen Sie das FabImage® Studio + Library Bundle (FIS-ADD)
  4. Wenn die grafische Programmierumgebung für schnelle Vorfertigung nicht benötigt wird, dann reicht die FabImage® Library Suite (FIL-SUI) für die Entwicklung aus.
  5. Im Allgemeinen gibt es vier mögliche Arten, mit den Produkten zu arbeiten:
    1. Programmieren auf grafische Weise - dies erfordert für jeden Entwickler ein FabImage® Studio Professional (FIS-PRO) und für jedes System ein FabImage® Studio Runtime (FIS-PRO/FIS-RTB). Ein besonderer Vorteil dieser Methode ist die einfache Einführung von Änderungen, auch direkt an der Produktionslinie
    2. Programmieren auf grafische Art und Weise und anschließende Generierung von C++-Code - dies erfordert ein FabImage® Studio + Library Bundle (FIS-ADD) für jeden Entwickler und eine FabImage® Library Runtime (FIL-RUN/FIL-RTB) für jedes System. Diese Methode ermöglicht es, die erstellten Lösungen in größere Softwareprojekte zu integrieren.
    3. Programmieren auf die grafische Art und Weise und anschließendes Generieren von .NET-Makrofilter-Schnittstellen - dies erfordert FabImage® Studio Professional (FIS-PRO) für jeden Entwickler und eine FabImage® Studio Runtime (FIS-RUN/FIS-RTB) für jedes System. Es wird keine Bibliothekslizenz benötigt, da die .NET-Makrofilter-Schnittstellen die gleichen Programmausführungsmechanismen wie Studio verwenden.
    4. Direktes Programmieren in C++ oder .NET - dies ist für Leute, die in C++ oder C# denken und keine grafische Programmierung machen wollen. In diesem Fall wird für jeden Entwickler eine FabImage® Library Suite (FIL-SUI) und für jedes System eine FabImage® Library Runtime (FIL-RUN/FIL-RTB) benötigt.

Vorwort

Deep Learning Add-on ist eine bahnbrechende Technologie für die Bildverarbeitung. Es handelt sich um einen Satz von fünf vorgefertigten Werkzeugen, die mit 20 bis 50 Beispielbildern trainiert werden und dann Objekte, Fehler oder Merkmale automatisch erkennen. Intern werden große neuronale Netze verwendet, die von unserem Forschungsteam für den Einsatz in industriellen Bildverarbeitungssystemen entwickelt und optimiert wurden.

Zusammen mit Fabimage Studio Professional erhalten Sie eine Komplettlösung für die Schulung und Bereitstellung moderner Bildverarbeitungsanwendungen.

Hauptvorteile

TRAININGSDATEN

Typische Anwendungen erfordern zwischen 20 und 50 Bilder für das Training. Je mehr desto besser, aber unsere Software lernt intern wichtige Merkmale aus einem begrenzten Trainingssatz und generiert dann Tausende neuer künstlicher Proben für ein effektives Training.

AUSRÜSTUNG

Für ein effektives Training ist eine moderne GPU erforderlich. In der Produktion können Sie entweder GPU oder CPU verwenden. Die GPU ist normalerweise 3-10 mal schneller (mit Ausnahme der Objektklassifizierung, die auf der CPU gleich schnell ist).

GESCHWINDIGKEIT

Die typische Trainingszeit auf einer GPU beträgt 5-15 Minuten. Die Inferenzzeit variiert je nach Werkzeug und Hardware zwischen 5 und 100 ms pro Bild. Die höchste Leistung garantiert WEAVER, eine industrielle Inferenzmaschine.

Trainingsprozess

1. Bilder erheben und normalisieren

  • Beschaffen Sie 20 - 50 Bilder, die richtige und unrichtige Beispiele schildern und alle möglichen Abarten der Objekte darstellen; speichern Sie sie auf der Platte.
  • Sorgen Sie dafür, dass die Skala, die Orientierung und die Beleuchtung möglichst einheitlich sind.

Training

  • Öffnen Sie das FabImage Studio Professional und aktivieren Sie eines der Deep Learning Add-on-Tools
  • Öffnen Sie einen mit dem Tool verknüpften Editor und laden Sie Ihre Trainingsbilder in das Programm rein
  • Sie können Ihre Bilder beschriften oder Markierungen mit Zeichenwerkzeugen hinzufügen
  • Klicken Sie auf "Train" (Trainieren)

Trainings- und Validierungsdaten

Beim tiefen Lernen und in sonstigen Bereichen des maschinellen Lernens ist die Anwendung der richtigen Methodik von besonderer Bedeutung. Am wichtigsten ist es, die Trainingsdaten von den Validierungsdaten abzutrennen. Die Trainingsdaten sind eine Aufstellung von Bildern, die genutzt wird, um das Modell zu trainieren. Diese Daten können für die Leistungsmessung des Modells nicht angewendet werden, denn im Endresultat werden unrealistisch gute Ergebnisse geliefert. Daher ist es notwendig, eine separate Datensammlung, d.h. Validierungsdaten zu nutzen, um das Modell richtig einzuschätzen. Unser Tool für das tiefe Lernen bildet beide Datensammlungen auf Basis der Bilder, welch durch den Nutzer benennt werden.

Führen Sie aus

  • Starten Sie das Programm und überprüfen Sie die Ergebnisse.
  • Gehen Sie zurück zu Punkt 1 oder Punkt 2, bis die Ergebnisse vollständig zufriedenstellend sind

Feature detection

Beim Vorgang mit Überwachung hat der Nutzer Pixel zu markieren, welche die Defekte auf den Trainingsbildern darstellen. Unser Tool lernt, richtige und richtige Merkmale durch die Beobachtung ihrer grundlegenden Eigenschaften zu unterscheiden.

Inspektion von Photovoltaikmodulen

Bei dieser Anwendung müssen Risse und Kratzer auf einer Oberfläche mit komplexen Merkmalen erkannt werden. Bei herkömmlichen Methoden erfordert dies komplizierte Algorithmen mit Dutzenden von Parametern, die für jeden Paneltyp geändert werden müssen. Mit dem Deep Learning Add-on reicht es aus, das System im überwachten Modus mit einem einzigen Tool zu trainieren.

Segmentierung der Satellitenbilder

In Hinsicht auf das Vorkommen mehrerer unterschiedlicher Elemente lassen sich die Satellitenbilder schwierig analysieren. Unser Deep Learning Modul kann austrainiert werden, um Straßen und Gebäude mit höchster Präzision zu erkennen. Das Training kann mittels eines richtig markierten Bildes durchgeführt werden, und die Ergebnisse sind sofort überprüfbar. Legen Sie mehr markierte Proben bei, um die Richtigkeit des Modells zu steigern.

Anomaly Detection

Im Vorgang ohne Überwachung ist der Trainingsprozess einfacher. Eine konkrete Definition des Defekts besteht hier nicht: das Tool wird mittels der richtigen Proben trainiert. Auf ihrer Basis werden sämtliche Abweichungen auf geprüften Bildern gezeigt.

Überprüfung von Verpackungen

Wenn eine Sushi-Packung dem Verkäufer geliefert wird, müssen sich alle Elemente in einer bestimmten Lage befinden. Es ist schwierig, Defekte zu definieren, wenn die Form der richtigen Stücke auch variieren kann. Das Problem lässt sich lösen, indem man das tiefe Lernen ohne Überwachung anwendet, wodurch alle bedeutenden Abweichungen davon erkannt werden, was das Tool im Training gelernt hat.

Kunststoffe, Spritzgussformen

Das Ausformen im Spritzgussverfahren ist ein komplizierter Prozess, in dessen Ablauf mehrere Probleme entstehen können. Gegenstände, die aus Kunststoff hergestellt werden, können für das Biegen bzw. andere Deformationen anfällig sein, welche für den Kunden akzeptabel sind. Unser Deep Learning Modul kann auf Basis der gelieferten Proben alle akzeptablen Verformungen lernen, und anschließend allerlei Abweichungen an der Produktionsanlage erkennen.

Object Classification

Das Objektklassifizierungswerkzeug unterteilt Eingabebilder in Gruppen, die vom Benutzer entsprechend ihrer besonderen Merkmale erstellt wurden. Als Ergebnis werden der Name einer Klasse und das Klassifizierungsvertrauen angegeben.

Kunststoffkappen: vorne oder hinten

Kunststoffkappen können manchmal versehentlich in der Produktionsmaschine umdrehen. Der Kunde möchte diese Situation erkennen. Die Aufgabe kann mit herkömmlichen Methoden erledigt werden, erfordert jedoch einen Experten, um einen bestimmten Algorithmus für diese Anwendung zu entwerfen. Auf der anderen Seite können wir eine Deep-Learning-basierte Klassifizierung verwenden, die automatisch lernt, Vorder- und Rückseite anhand einer Reihe von Trainingsbildern zu erkennen.

3D Leichtmetallrad Identifikation

In einem Werk können Hunderte verschiedener Leichtmetallradtypen hergestellt werden. Die Identifizierung eines bestimmten Modells mit solchen Modellmengen ist mit herkömmlichen Methoden praktisch unmöglich. Das Anpassen von Vorlagen würde sehr viel Zeit in Anspruch nehmen, um Hunderte von Modellen abzugleichen, während die Herstellung maßgeschneiderter Modelle einfach zu viel Entwicklung und Wartung erfordern würde. Deep Learning ist eine ideale Lösung, die direkt aus Beispielbildern ohne maßgeschneiderte Entwicklung lernt.

Instance Segmentation

Die Instanzsegmentierungstechnik wird verwendet, um einzelne oder mehrere Objekte innerhalb eines Bildes zu lokalisieren, zu segmentieren und zu klassifizieren. Im Gegensatz zur Merkmalerkennungstechnik erkennt diese Technik einzelne Objekte und kann sie möglicherweise trennen, selbst wenn sie sich berühren oder überlappen.

Nuss Segmentierung

Gemischte Nüsse sind ein sehr beliebtes Snack-Food, das aus verschiedenen Arten von Nüssen besteht. Da die prozentuale Zusammensetzung der Nüsse in einer Packung der Liste der auf der Packung aufgedruckten Zutaten entsprechen muss, möchten die Kunden sicherstellen, dass die richtige Menge an Nüssen jeder Art verpackt wird. Das Instanzsegmentierungswerkzeug ist eine ideale Lösung in einer solchen Anwendung, da es Masken zurückgibt, die den segmentierten Objekten entsprechen.

Überprüfung von Verpackungen

Ein typischer Satz Suppengrün, der in Europa verwendet wird, wird in zufälliger Position auf einem weißen Plastikteller verpackt. Produktionslinienarbeiter vergessen manchmal versehentlich, eines der Gemüse auf den Teller zu legen. Obwohl es ein System gibt, das die Platten wiegt, möchte der Kunde die Vollständigkeit des Produkts unmittelbar vor dem Versiegelungsprozess überprüfen. Da es keine zwei Gemüse gibt, die gleich aussehen, besteht die Lösung darin, eine auf tiefem Lernen basierende Segmentierung zu verwenden. In der Schulungsphase muss der Kunde lediglich Regionen markieren, die Gemüse entsprechen.

Point Location

Das Werkzeug Punktposition sucht nach bestimmten Formen, Merkmalen oder Markierungen, die als Punkte in einem Eingabebild identifiziert werden können. Es kann mit dem herkömmlichen Template-Matching verglichen werden, aber hier wird das Tool mit mehreren Samples trainiert und wird robust gegen große Variabilität der interessierenden Objekte.

Bienen verfolgen

Die Aufgabe, die mit herkömmlichen Bildverarbeitungsmethoden unmöglich zu erfüllen scheint, kann mit unserem neuesten Tool erledigt werden. In diesem Fall verwenden wir es, um Bienen zu erkennen. Wenn dies erledigt ist, können wir überprüfen, ob sie durch Varroose infiziert sind - die Krankheit, die durch die parasitären Milben verursacht wird, die die Honigbienen angreifen. Der Parasit bindet sich an ihren Körper und aufgrund einer charakteristischen roten Entzündung können wir ihn nach seinem Gesundheitszustand klassifizieren. Dieses Beispiel zeigt nicht nur, dass es eine einfache Lösung für eine komplexe Aufgabe ist, sondern dass wir auch für viele verschiedene Industriezweige offen sind, z. Landwirtschaft.

Pick and Place

In diesen Anwendungen müssen wir einen Roboterarm führen, um Gegenstände aufzunehmen, typischerweise von einem Förderband oder von einem Behälter. Ein gutes Beispiel für eine solche Anwendung ist das Pflücken kleiner Stecklinge und das vertikale Einsetzen in Töpfe. Ungenauigkeiten bei der Erkennung können dazu führen, dass sie zu tief oder verkehrt herum gepflanzt werden, was dazu führt, dass Stecklinge keine Wurzeln bilden. Unsere Deep-Learning-Tools ermöglichen es, die gewünschten Pflanzenteile schnell zu lokalisieren und genaue Ergebnisse zu liefern, die für diesen Vorgang erforderlich sind.

Möchten Sie mehr wissen?

Füllen Sie das untenstehende Formular aus und wir werden uns umgehend bei Ihnen melden.
Erforderliches Feld
Erforderliches Feld
Erforderliches Feld
Erforderliches Feld
Erforderliches Feld
Erforderliches Feld
Erforderliches Feld
Mindestlänge: 6 Zeichen
Erforderliches Feld
captcha
Erforderliches Feld