FabImage® Library Suite
Bildverarbeitungs-Bibliothek für C++ und .NET
Hauptvorteile
- Höchste Leistung
- Modernes Design
- Einfache Struktur
FabImage Library Suite ist eine Bildverarbeitungsbibliothek für C++ und .NET-Programmierer. Sie bietet einen umfassenden Satz an Funktionen für die Erstellung industrieller Bildanalyseapplikationen - von standardbasierten Bildaufnahmeschnittstellen über Low-Level-Bildverarbeitungsroutinen bis hin zu einsatzbereiten Werkzeugen wie Template-Matching, Messungen und Barcode-Lesegeräten.
Zu den zentralen Stärken des Produkts gehören sein außergewöhnliches Leistungsprofil, das moderne Design und die einfache Struktur, die eine leichte Integration in Ihren Code ermöglicht. Die in FabImage Library verfügbaren Funktionen entsprechen weitgehend den Filtern von FabImage Studio. Daher ist es möglich, Ihre Algorithmen schnell in einer grafischen Umgebung aufzubauen und sie dann in C++ oder .NET zu übersetzen oder sogar den C++-Code automatisch zu generieren.
Mit der Fabimage Library Suite haben Sie sofortigen Zugriff auf den qualitativ hochwertigen, gut optimierten und praxiserprobten Code, den Sie für Ihre Bildverarbeitungsprojekte benötigen!
Drei Lizenztypen sind verfügbar:
Developer Lizenzen: Dieser Lizenztyp wird für die Entwicklung eines Bildverarbeitungsprogramms benötigt.
Runtime Lizenzen: Dieser Lizenztyp ist für die Ausführung eines Bildverarbeitungsprogramms erforderlich. Um eine Laufzeitlizenz zu erwerben, müssen Sie eine Developer Lizenz erworben haben.
Add-on Lizenzen: Zusätzliche Lizenzen, mit denen Sie die Funktionalität der beiden anderen Lizenztypen erweitern können.
Developer Lizenzen
Basis Lizenz
Die Developer Lizenz ist einem einzelnen Entwickler-Benutzer zugewiesen und kann nur über einen USB-Dongle aktiviert werden.
In den ersten 12 Monaten nach der Aktivierung sind kostenlose technische Supportleistungen enthalten, wie z.B.:
- Die aktuellste Version der Software mit den dazugehörigen neuen Funktionen und Dokumentationen*
- Antworten auf technische Fragen zur Nutzung der Software per E-Mail
Nach 12 Monaten ab Aktivierung der Entwicklerlizenz ist der Erwerb einer Servicelizenz (FIL-EXT) erforderlich, um weiterhin von diesen Vorteilen profitieren zu können.
*Um die aktuellste Version der Software zu erhalten, müssen Sie Opto Engineering die mit dem USB-Dongle der gewünschten Lizenz verbundene WIBU-Datei zusenden. Erfahren Sie mehr darüber, wie und wo Sie die WIBU-Datei herunterladen können unter https://docs.fab-image.com/stu... | |||
P/N | Description | Category | Features |
FIL-SUI | FabImage® Library Suite (C++ and .NET) | Developer Lizenz Basis |
Entwicklungsumgebung (IDE) für die direkte Programmierung in C++ oder .NET. Diese Art von Lizenz ist für diejenigen geeignet, die lieber in C++ oder C# programmieren und keine grafische Programmierung verwenden möchten. Ermöglicht die Erfassung mehrerer Kameras und die Entwicklung von Prozessen (Makrofiltern) sequentiell (single thread). |
USB-DONGLE-FI | USB Dongle | Hardware | Erforderlich für die Aktivierung der Lizenz über einen Hardware-USB-Dongle. |
ADD-ON Lizenzen
ADD-ON-Lizenzen** sind zusätzliche Lizenzen, mit denen Sie die Funktionalität der Basis Lizenz erweitern können.
Um ADD-ON Lizenzen zu erwerben, müssen Sie eine FabImage® Library Suite Developer Lizenz (FIL-SUI) erworben haben.
** Um eine ADD-ON-Lizenz zu bestellen, müssen Sie auch die WIBU-Datei senden, die mit dem USB-Dongle der Developer Lizenz verbunden ist, für die Sie das Add-on aktivieren möchten. Lesen Sie mehr darüber, wie und wo Sie die WIBU-Datei herunterladen können unter diesem link: https://docs.fab-image.com/stu... | |||
*** Es ist nicht möglich, mehrere Makrofilter mit Deep Learning zu erstellen, die parallel arbeiten. | |||
P/N |
Description |
Category |
Features |
FIL-PAR-ADD |
Parallelverarbeitung ADD-ON |
Developer |
Ermöglicht dem Benutzer: 1- Mehrere Prozesse (Makrofilter) zu erstellen, die parallel arbeiten.2- Parallele Erfassung von mehreren Kameras |
FI-DL-ADD |
FabImage® Deep Learning ADD-ON |
Developer |
Ermöglicht dem Benutzer die Verwendung von Deep Learning Tools ***. |
Runtime Lizenzen
Runtime Lizenz SINGLE THREAD
Die Runtime Lizenz ist einem einzelnen Bildverarbeitungssystem zugeordnet und erlaubt die Erfassung mehrerer Kameras und die sequentielle Ausführung von Prozessen (Makrofiltern) (single thread).
Sie kann über zwei Optionen aktiviert werden:• USB Dongle (USB-DONGLE-RUN)
• Computer ID*
Um eine Single-Thread Runtime Lizenz zu erwerben, müssen Sie die FabImage® Library Suite Developer Lizenz (FIL-SUI) erworben haben.
*Sollte die Lizenz durch Beschädigung des Computers, dem sie durch die Computer-ID zugewiesen ist, verloren gehen, muss eine neue erworben werden. Opto Engineering empfiehlt die Option, die Lizenz über einen USB-Dongle zu erwerben. |
|||
P/N |
Description |
Category |
Features |
FIL-RUN |
FabImage® Library Runtime |
Runtime Lizenz |
Ermöglicht die sequentielle Ausführung einer unbegrenzten Anzahl von Prozessen (Makrofiltern) |
USB-DONGLE-RUN |
USB Dongle (Optional) |
Hardware |
Die Lizenz wird über einen USB-Dongle aktiviert |
Runtime Lizenz MULTITHREADING
Um die Parallel Processing (FIL-PAR-ADD) Funktionen nutzen zu können, müssen Sie eine der folgenden Runtime Lizenzen erwerben (diese Runtimes ersetzen die FabImage® Library Single-Thread Runtime (FIL-RUN)). Um eine Multithread-RUNTIME-Lizenz zu erwerben, müssen Sie eine FabImage® Library Suite Entwicklerlizenz (FIL-SUI) und eine Entwicklerlizenz für Parallel Processing ADD-ON (FIL-PAR-ADD) erworben haben.
P/N |
Description |
Category |
Features |
FIL-RUN-CL-XX* |
|||
FIL-RUN-CL-4 |
FabImage® Library Runtime für einen 4-Kern- |
ADD-ON Runtime Lizenz |
Ermöglicht die parallele Ausführung einer unbegrenzten Anzahl von Prozessen. Erfordert einen PC mit 4 Kernen |
FIL-RUN-CL-6 |
FabImage® Library Runtime für einen 6-Kern- |
ADD-ON Runtime Lizenz |
Ermöglicht die parallele Ausführung einer unbegrenzten Anzahl von Prozessen. Erfordert einen PC mit 6 Kernen |
FIL-RUN-CL-8 |
FabImage® Library Runtime für einen 8-Kern- |
ADD-ON Runtime Lizenz |
Ermöglicht die parallele Ausführung einer unbegrenzten Anzahl von Prozessen. Erfordert einen PC mit 8 Kernen |
FIL-RUN-CL-16 |
FabImage® Library Runtime für einen 16-Kern- Bildverarbeitungsrechner |
ADD-ON Runtime Lizenz |
Ermöglicht die parallele Ausführung einer unbegrenzten Anzahl von Prozessen. Erfordert einen PC mit 16 Kernen |
FIL-RUN-TL-XX |
|||
FIL-RUN-TL-2 |
FabImage® Library Runtime |
ADD-ON Runtime Lizenz |
Ermöglicht die Verwendung von PCs mit einer beliebigen Anzahl von Kernen. Die Anzahl der parallelen Prozesse ist auf 2 Threads begrenzt. |
FIL-RUN-TL-4 |
FabImage® Library Runtime |
ADD-ON Runtime Lizenz |
Ermöglicht die Verwendung von PCs mit einer beliebigen Anzahl von Kernen. Die Anzahl der parallelen Prozesse ist auf 4 Threads begrenzt. |
FIL-RUN-TL-6 |
FabImage® Library Runtime |
ADD-ON Runtime Lizenz |
Ermöglicht die Verwendung von PCs mit einer beliebigen Anzahl von Kernen. Die Anzahl der parallelen Prozesse ist auf 6 Threads begrenzt. |
FIL-RUN-TL-8 |
FabImage® Library Runtime |
ADD-ON Runtime Lizenz |
Ermöglicht die Verwendung von PCs mit einer beliebigen Anzahl von Kernen. Die Anzahl der parallelen Prozesse ist auf 8 Threads begrenzt. |
FIL-RUN-TL-16 |
FabImage® Library Runtime |
ADD-ON Runtime Lizenz |
Ermöglicht die Verwendung von PCs mit einer beliebigen Anzahl von Kernen. Die Anzahl der parallelen Prozesse ist auf 16 Threads begrenzt. |
* Um eine unbegrenzte Anzahl von Prozessen parallel laufen zu lassen, empfiehlt es sich, diejenige Runtime Lizenz zu erwerben,
die der Anzahl der Kerne des Bildverarbeitungscomputers entspricht.
ADD-ON Runtime Lizenz DEEP LEARNING
Um die Deep Learning ADD-ON Funktionen nutzen zu können, muss zusätzlich zur FabImage® Library Runtime (FIL-RUN) die folgende Runtime Lizenz erworben werden.
Um die Deep Learning ADD-ON Runtime zu erwerben, müssen Sie eine FabImage® Library Suite Developer Lizenz (FIL-SUI) und eine Developer Deep Learning ADD-ON Lizenz (FI-DL-ADD) erworben haben.P/N | Description | Category | Features |
FIL-RUN-DL | FabImage® Library Deep Learning ADD-ON Runtime | Runtime Lizenz für das | Ermöglicht dem Benutzer die Ausführung von Deep Learning* im Single-Thread-Modus. |
* Es können nicht mehrere GPU-Karten für die Inferenz verwendet werden.
Service Lizenz
Nach Ablauf von 12 Monaten nach der Aktivierung der FabImage® Library Suite Developer Lizenz (FIL-SUI) oder der Developer ADD-ON Lizenzen (FIL-PAR-ADD und FI-DL-ADD), die folgenden Servicelizenzen, Technische Supportleistungen umfassen, können um weitere 12 Monate verlängert werden:
- Aktuellste Version der Software mit zugehörigen neuen Funktionen und Dokumentation
- Antworten per E-Mail auf technische Fragen im Zusammenhang mit der Nutzung der Software
* Parallel-Add-on-Lizenzen erhalten beim Kauf einer FIL-EXT kostenlose Updates ** Für den Erwerb einer DL-EXT muss auch die FIS-EXT erworben werden. |
|||
P/N | Description | Category | Features |
FIL-EXT | FabImage® Library Suite EXTENSION
| Service License | Lizenz erforderlich für: 1.Aktualisierung der Entwicklerlizenz (FIL-SUI) auf die letzte verfügbare Version mit den damit verbundenen neuen Funktionen und der Dokumentation 2.Aktualisierung der Lizenzen für das Parallel Processing Add-on (FIL-PAR-ADD und Multithreading) auf die letzte verfügbare Version mit den damit verbundenen neuen Funktionen und der Dokumentation* 3.Aufrechterhaltung der aktiven technischen Unterstützung |
DL-EXT* | FabImage® Deep Learning ADD-ON Extension | Service License | Lizenz erforderlich für: 1.Aktualisierung der Deep Learning Add-on Lizenz (FIS-RUN-DL) auf die letzte verfügbare Version mit den dazugehörigen neuen Funktionen und der Dokumentation 2.Aufrechterhaltung der aktiven technischen Unterstützung für das Deep Learning |
Wenn Sie die technischen Unterstützungsdienste nicht verlängern, können Sie trotzdem folgendes tun:
Ihre Entwicklerlizenz (FIL-SUI) und Zusatzlizenzen (FIL-PAR-ADD and FI-DL-ADD) weiterverwenden, ausschließlich in der neuesten Version, die zum Zeitpunkt des Ablaufes des technischen Supports verfügbar war.
Erwerb und Nutzung von Runtime-Lizenzen (einschließlich Multithreading- und Deep Learning-Lizenzen), jedoch nur in der neuesten Version, die zum Zeitpunkt des Ablaufes des technischen Supports verfügbar war.
WICHTIG
Opto Engineering veröffentlicht jährlich zwei bis vier neue Versionen von Entwicklerlizenzen, daher ist es sehr wahrscheinlich, dass nach Ablauf des Supports bereits eine neue Version verfügbar ist. Aus diesem Grund empfiehlt Opto Engineering neben der Möglichkeit, von unserem technischen Support zu profitieren, stets den Erwerb von Servicelizenzen.
Leistung
FabImage Library Suite besticht durch seine sorgfältig gestalteten Algorithmen und seine umfangreichen Hardware-Optimierungen - eine Kombination, die die Bibliothek zu einer der schnellsten der Welt macht. Unsere Implementierungen arbeiten mit SSE-Befehlen und parallelen Berechnungen mithilfe von Multicore-Prozessoren.
Modernes Design
Alle Datentypen verfügen über eine automatische Speicherverwaltung, Fehler werden explizit mit Ausnahmen behandelt und optionale Typen werden für typensichere Sonderwerte verwendet. Alle Funktionen sind Thread-sicher und nutzen, wenn möglich, die Datenparallelität intern.
Einfach & Einheitlich
Die Bibliothek ist eine einfache Sammlung von Typen und Funktionen, die als eine einzige DLL-Datei mit entsprechenden Headern zur Verfügung gestellt wird. Für eine maximale Lesbarkeit der Funktionen ist eine einheitliche Namenskonvention zu beachten (z.B. die Form VERB + SUBSTANTIV, wie bei: SmoothImage, RotateVector). Alle Ergebnisse werden über Referenzausgabeparameter zurückgespielt, wodurch immer viele Ausgaben möglich sind.
Vorwort
Deep Learning Add-on ist eine bahnbrechende Technologie für die Bildverarbeitung. Es handelt sich um einen Satz von fünf vorgefertigten Werkzeugen, die mit 20 bis 50 Beispielbildern trainiert werden und dann Objekte, Fehler oder Merkmale automatisch erkennen. Intern werden große neuronale Netze verwendet, die von unserem Forschungsteam für den Einsatz in industriellen Bildverarbeitungssystemen entwickelt und optimiert wurden.
Zusammen mit Fabimage Studio Professional erhalten Sie eine Komplettlösung für die Schulung und Bereitstellung moderner Bildverarbeitungsanwendungen.
Hauptvorteile
TRAININGSDATEN
Typische Anwendungen erfordern zwischen 20 und 50 Bilder für das Training. Je mehr desto besser, aber unsere Software lernt intern wichtige Merkmale aus einem begrenzten Trainingssatz und generiert dann Tausende neuer künstlicher Proben für ein effektives Training.
AUSRÜSTUNG
Für ein effektives Training ist eine moderne GPU erforderlich. In der Produktion können Sie entweder GPU oder CPU verwenden. Die GPU ist normalerweise 3-10 mal schneller (mit Ausnahme der Objektklassifizierung, die auf der CPU gleich schnell ist).
GESCHWINDIGKEIT
Die typische Trainingszeit auf einer GPU beträgt 5-15 Minuten. Die Inferenzzeit variiert je nach Werkzeug und Hardware zwischen 5 und 100 ms pro Bild. Die höchste Leistung garantiert WEAVER, eine industrielle Inferenzmaschine.
Trainingsprozess
1. Bilder erheben und normalisieren
- Beschaffen Sie 20 - 50 Bilder, die richtige und unrichtige Beispiele schildern und alle möglichen Abarten der Objekte darstellen; speichern Sie sie auf der Platte.
- Sorgen Sie dafür, dass die Skala, die Orientierung und die Beleuchtung möglichst einheitlich sind.
Training
- Öffnen Sie das FabImage Studio Professional und aktivieren Sie eines der Deep Learning Add-on-Tools
- Öffnen Sie einen mit dem Tool verknüpften Editor und laden Sie Ihre Trainingsbilder in das Programm rein
- Sie können Ihre Bilder beschriften oder Markierungen mit Zeichenwerkzeugen hinzufügen
- Klicken Sie auf "Train" (Trainieren)
Trainings- und Validierungsdaten
Beim tiefen Lernen und in sonstigen Bereichen des maschinellen Lernens ist die Anwendung der richtigen Methodik von besonderer Bedeutung. Am wichtigsten ist es, die Trainingsdaten von den Validierungsdaten abzutrennen. Die Trainingsdaten sind eine Aufstellung von Bildern, die genutzt wird, um das Modell zu trainieren. Diese Daten können für die Leistungsmessung des Modells nicht angewendet werden, denn im Endresultat werden unrealistisch gute Ergebnisse geliefert. Daher ist es notwendig, eine separate Datensammlung, d.h. Validierungsdaten zu nutzen, um das Modell richtig einzuschätzen. Unser Tool für das tiefe Lernen bildet beide Datensammlungen auf Basis der Bilder, welch durch den Nutzer benennt werden.
Merkmalserkennung
Beim Vorgang mit Überwachung hat der Nutzer Pixel zu markieren, welche die Defekte auf den Trainingsbildern darstellen. Unser Tool lernt, richtige und richtige Merkmale durch die Beobachtung ihrer grundlegenden Eigenschaften zu unterscheiden.
Inspektion von Photovoltaikmodulen
Bei dieser Anwendung müssen Risse und Kratzer auf einer Oberfläche mit komplexen Merkmalen erkannt werden. Bei herkömmlichen Methoden erfordert dies komplizierte Algorithmen mit Dutzenden von Parametern, die für jeden Paneltyp geändert werden müssen. Mit dem Deep Learning Add-on reicht es aus, das System im überwachten Modus mit einem einzigen Tool zu trainieren.
Segmentierung der Satellitenbilder
In Hinsicht auf das Vorkommen mehrerer unterschiedlicher Elemente lassen sich die Satellitenbilder schwierig analysieren. Unser Deep Learning Modul kann austrainiert werden, um Straßen und Gebäude mit höchster Präzision zu erkennen. Das Training kann mittels eines richtig markierten Bildes durchgeführt werden, und die Ergebnisse sind sofort überprüfbar. Legen Sie mehr markierte Proben bei, um die Richtigkeit des Modells zu steigern.
Erkennung von Anomalien
Im Vorgang ohne Überwachung ist der Trainingsprozess einfacher. Eine konkrete Definition des Defekts besteht hier nicht: das Tool wird mittels der richtigen Proben trainiert. Auf ihrer Basis werden sämtliche Abweichungen auf geprüften Bildern gezeigt.
Überprüfung von Verpackungen
Wenn eine Sushi-Packung dem Verkäufer geliefert wird, müssen sich alle Elemente in einer bestimmten Lage befinden. Es ist schwierig, Defekte zu definieren, wenn die Form der richtigen Stücke auch variieren kann. Das Problem lässt sich lösen, indem man das tiefe Lernen ohne Überwachung anwendet, wodurch alle bedeutenden Abweichungen davon erkannt werden, was das Tool im Training gelernt hat.
Kunststoffe, Spritzgussformen
Das Ausformen im Spritzgussverfahren ist ein komplizierter Prozess, in dessen Ablauf mehrere Probleme entstehen können. Gegenstände, die aus Kunststoff hergestellt werden, können für das Biegen bzw. andere Deformationen anfällig sein, welche für den Kunden akzeptabel sind. Unser Deep Learning Modul kann auf Basis der gelieferten Proben alle akzeptablen Verformungen lernen, und anschließend allerlei Abweichungen an der Produktionsanlage erkennen.
Objektklassifizierung
Das Objektklassifizierungswerkzeug unterteilt Eingabebilder in Gruppen, die vom Benutzer entsprechend ihrer besonderen Merkmale erstellt wurden. Als Ergebnis werden der Name einer Klasse und das Klassifizierungsvertrauen angegeben.
Kunststoffkappen: vorne oder hinten
Kunststoffkappen können manchmal versehentlich in der Produktionsmaschine umdrehen. Der Kunde möchte diese Situation erkennen. Die Aufgabe kann mit herkömmlichen Methoden erledigt werden, erfordert jedoch einen Experten, um einen bestimmten Algorithmus für diese Anwendung zu entwerfen. Auf der anderen Seite können wir eine Deep-Learning-basierte Klassifizierung verwenden, die automatisch lernt, Vorder- und Rückseite anhand einer Reihe von Trainingsbildern zu erkennen.
3D Leichtmetallrad Identifikation
In einem Werk können Hunderte verschiedener Leichtmetallradtypen hergestellt werden. Die Identifizierung eines bestimmten Modells mit solchen Modellmengen ist mit herkömmlichen Methoden praktisch unmöglich. Das Anpassen von Vorlagen würde sehr viel Zeit in Anspruch nehmen, um Hunderte von Modellen abzugleichen, während die Herstellung maßgeschneiderter Modelle einfach zu viel Entwicklung und Wartung erfordern würde. Deep Learning ist eine ideale Lösung, die direkt aus Beispielbildern ohne maßgeschneiderte Entwicklung lernt.
Instanzsegmentierung
Die Instanzsegmentierungstechnik wird verwendet, um einzelne oder mehrere Objekte innerhalb eines Bildes zu lokalisieren, zu segmentieren und zu klassifizieren. Im Gegensatz zur Merkmalerkennungstechnik erkennt diese Technik einzelne Objekte und kann sie möglicherweise trennen, selbst wenn sie sich berühren oder überlappen.
Nuss Segmentierung
Gemischte Nüsse sind ein sehr beliebtes Snack-Food, das aus verschiedenen Arten von Nüssen besteht. Da die prozentuale Zusammensetzung der Nüsse in einer Packung der Liste der auf der Packung aufgedruckten Zutaten entsprechen muss, möchten die Kunden sicherstellen, dass die richtige Menge an Nüssen jeder Art verpackt wird. Das Instanzsegmentierungswerkzeug ist eine ideale Lösung in einer solchen Anwendung, da es Masken zurückgibt, die den segmentierten Objekten entsprechen.
Überprüfung von Verpackungen
Ein typischer Satz Suppengrün, der in Europa verwendet wird, wird in zufälliger Position auf einem weißen Plastikteller verpackt. Produktionslinienarbeiter vergessen manchmal versehentlich, eines der Gemüse auf den Teller zu legen. Obwohl es ein System gibt, das die Platten wiegt, möchte der Kunde die Vollständigkeit des Produkts unmittelbar vor dem Versiegelungsprozess überprüfen. Da es keine zwei Gemüse gibt, die gleich aussehen, besteht die Lösung darin, eine auf tiefem Lernen basierende Segmentierung zu verwenden. In der Schulungsphase muss der Kunde lediglich Regionen markieren, die Gemüse entsprechen.
Punktorung
Das Werkzeug Punktposition sucht nach bestimmten Formen, Merkmalen oder Markierungen, die als Punkte in einem Eingabebild identifiziert werden können. Es kann mit dem herkömmlichen Template-Matching verglichen werden, aber hier wird das Tool mit mehreren Samples trainiert und wird robust gegen große Variabilität der interessierenden Objekte.
Bienen verfolgen
Die Aufgabe, die mit herkömmlichen Bildverarbeitungsmethoden unmöglich zu erfüllen scheint, kann mit unserem neuesten Tool erledigt werden. In diesem Fall verwenden wir es, um Bienen zu erkennen. Wenn dies erledigt ist, können wir überprüfen, ob sie durch Varroose infiziert sind - die Krankheit, die durch die parasitären Milben verursacht wird, die die Honigbienen angreifen. Der Parasit bindet sich an ihren Körper und aufgrund einer charakteristischen roten Entzündung können wir ihn nach seinem Gesundheitszustand klassifizieren. Dieses Beispiel zeigt nicht nur, dass es eine einfache Lösung für eine komplexe Aufgabe ist, sondern dass wir auch für viele verschiedene Industriezweige offen sind, z. Landwirtschaft.
Pick-and-Place
In diesen Anwendungen müssen wir einen Roboterarm führen, um Gegenstände aufzunehmen, typischerweise von einem Förderband oder von einem Behälter. Ein gutes Beispiel für eine solche Anwendung ist das Pflücken kleiner Stecklinge und das vertikale Einsetzen in Töpfe. Ungenauigkeiten bei der Erkennung können dazu führen, dass sie zu tief oder verkehrt herum gepflanzt werden, was dazu führt, dass Stecklinge keine Wurzeln bilden. Unsere Deep-Learning-Tools ermöglichen es, die gewünschten Pflanzenteile schnell zu lokalisieren und genaue Ergebnisse zu liefern, die für diesen Vorgang erforderlich sind.