Mit Machine Learning Kratzer auf Metalloberflächen detektieren

Mit Machine Learning Kratzer auf Metalloberflächen detektieren

Mit dem neuen Machine Learning Tool von EVT können selbst Kratzer auf Metalloberflächen sicher detektiert werden.

Machine Learning für Metalloberflächen

Je nach Oberfläche genügt ein einfacher Kameraaufbau mit einem Domlicht um die Kratzer zu detektieren. Ebenfalls gibt es die Möglichkeit den EyeMulti-Inspect zu verwenden, welcher bereits Rechner, Kamera, Optik und Beleuchtung integriert hat und ready-to-use zur Verfügung steht. Der EyeMulti-Inspect ist ein robuster Aufbau für die Industrie in einem Gehäuse, welches auch unter rauen Umgebungen standhält. Damit kann auch ein Tracking der Bauteile auf einem Förderband erfolgen. Dazu reicht es aus den Sensor über dem Förderband aufzubauen, den Inkrementalgeber anzuschließen und in der Software die Auswerfkanäle zu bestimmen.

Dank der EyeVision Software erfolgt dies komplett in einer grafischen Benutzeroberfläche. Das Machine Learning Tool ist rein mit einem Befehl in der Software aufruf- und einstellbar.

Machine Learming für nicht solide Bauteile

Das System ist allerdings nicht nur für solide Bauteile gedacht. Die separat steuerbaren, integrierten Beleuchtungssysteme erlauben es auch bei schwierigen, nicht soliden Bauteilen wie z.B. Gummi, die Bauteile, optimal auszuleuchten. Das Machine Learning Tool kann daraufhin Kratzer und Risse finden und die Analyse sicher umsetzten.

Durch die Flexibilität der Software ist es einfach, auf alle gängigen Kameraauflösungen zurück zu greifen und eine optimale Auflösung für die Fehleranalyse zu realisieren.

Verschiedene Protokolle verfügbar

Die einfache Integration in bestehende Anlagen oder auch in neue Anlagen wird durch diverse Protokolle vereinfacht. Hier stehen Profinet, Modbus oder auch TwinCat als Standardinterface zur Verfügung. Über die Software ist auch jedes beliebige Protokoll basierend auf TCP/IP oder UDP nachzubilden.

Ein umfangreicher Baukasten für Beleuchtungs- wie Optikkomponenten erlaubt es, das Produkt an unterschiedliche Anwendungsfälle anzupassen. Es sind verschiedene Brennweiten und verschieden Beleuchtungsarten wie Domlicht, Gegenlicht, usw. verfügbar.

Firmenkontakt und Herausgeber der Meldung:

EVT Eye Vision Technology GmbH
Ettlinger Straße 59
76137 Karlsruhe
Telefon: +49 (721) 66800423-0
Telefax: +49 (721) 62690596
http://www.evt-web.com

Ansprechpartner:
Margarita Palmer
EVT Eye Vision Technology GmbH
Telefon: +49 (721) 66800423-0
Fax: +49 (721) 626905-96
E-Mail: margarita.palmer@evt-web.com
Für die oben stehende Pressemitteilung ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel

Comments are closed.

Für die oben stehenden Pressemitteilungen, das angezeigte Event bzw. das Stellenangebot sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Herausgeber verantwortlich. Dieser ist in der Regel auch Urheber der Pressetexte sowie der angehängten Bild-, Ton- und Informationsmaterialien. Die Nutzung von hier veröffentlichten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber.