Clarkson Informatik-Doktorand präsentiert Arbeiten zur KI-gesteuerten Reparatur beschädigter Objekte mithilfe der additiven Fertigung am führenden Ort für Geometrieverarbeitung

Home » Clarkson Informatik-Doktorand präsentiert Arbeiten zur KI-gesteuerten Reparatur beschädigter Objekte mithilfe der additiven Fertigung am führenden Ort für Geometrieverarbeitung

Nikolas Lamb, PhD-Student in Clarkson Computer Science und Preisträger des NSF Graduate Research Fellowship, präsentierte seine Forschung zur Verwendung von Techniken aus der künstlichen Intelligenz (KI), insbesondere Computer Vision und Deep Learning, zur Reparatur beschädigter Objekte auf dem Eurographics Symposium on Geometry Processing (SGP), dem höchsten Ranking-Veranstaltungsort für Geometrieverarbeitungstechniken am 5. Juli. Nikolas wird bei seiner Forschung von Dr. Natasha Banerjee und Sean Banerjee, beide außerordentliche Professoren am Fachbereich Informatik. Die Forschungsergebnisse von Nikolas aus den Verfahren des Veranstaltungsortes werden als veröffentlichte Arbeiten im Computer Graphics Forum 2022 erscheinen, der führenden Zeitschrift für ausführliche technische Artikel zur Computergrafik. Die Arbeit von Nikolas ist die erste von Clarkson, die auf der SGP präsentiert wird und in gedruckter Form in der Zeitschrift Computer Graphics Forum erscheint.

Die Arbeit von Nikolas bietet Benutzern einen neuartigen Ansatz namens MendNet – ein Objekt Heilening Deep Neural Netzwork – die additiv gefertigte Reparaturteile automatisch zu 3D-Modellen beschädigter Objekte synthetisiert. Der Ansatz von Nikolas zur automatisierten 3D-Reparatursynthese ist der erste seiner Art. Wenn vor der Forschung von Nikolas das wertvolle Erbstück eines Benutzers kaputt ging und abgebrochene Teile irreparabel beschädigt waren, war die Wiederherstellung des kaputten Objekts eine große Herausforderung, da der Benutzer die komplexe Geometrie des kaputten Teils sorgfältig in 3D modellieren musste. Dies ist etwas, was die meisten Benutzer wahrscheinlich nicht tun werden, und es ist keine Überraschung, dass eine große Anzahl beschädigter Gegenstände am Ende weggeworfen wird, was die Umweltverschwendung erhöht und die Nachhaltigkeit stark beeinträchtigt.

Die Forschung von Nikolas spielt eine Schlüsselrolle bei der Förderung von Clarksons Engagement für Nachhaltigkeit, indem sie KI zur Automatisierung des Reparaturprozesses einsetzt und Endbenutzer dazu anregt, „Reparieren“ statt „Ersetzen“ zu wählen. Benutzer können nun mit minimalem Aufwand kaputte Gegenstände reparieren, z. B. Keramikgegenstände wie kostbares Geschirr. Der automatisierte Reparaturalgorithmus von Nikolas ermöglicht es Benutzern, ihren defekten Artikel einzuscannen und das Reparaturteil automatisch zu synthetisieren und an einen 3D-Drucker zu senden. Die Arbeit von Nikolas nutzt die weit verbreitete Allgegenwart von 3D-Druckern und das Aufkommen von 3D-Druckern für Materialien wie Keramik und Holz auf dem Verbrauchermarkt. Durch die Verknüpfung von KI, Computer Vision und Deep Learning mit dem Fertigungsprozess verändert die Arbeit von Nikolas die Landschaft der fortschrittlichen Fertigung erheblich und bringt die schnelle Fertigung in die Hände des durchschnittlichen Benutzers.

Die Arbeit von Nikolas hat eine breitere Wirkung bei der Förderung des Wissens in Bereichen wie Archäologie, Anthropologie und Paläontologie, indem sie einen benutzerfreundlichen Ansatz zur Reparatur von Kulturerbeartefakten, beschädigten Fossilien und fragmentierten Überresten bietet, wodurch die anstrengende Arbeit für Forscher reduziert und ihnen ermöglicht wird die Aufmerksamkeit auf Forschungsfragen von Domäneninteresse richten. Die Arbeit wirkt sich auch auf die Automatisierung von Reparaturen in der Zahnmedizin und Medizin aus.

Nikolas ist Mitglied des Terascale All-Sensing Research Studio (TARS) an der Clarkson University. TARS unterstützt jedes Semester die Forschung von 15 Doktoranden und fast 20 Studenten im Grundstudium. TARS verfügt über eine der größten High-Performance-Computing-Einrichtungen bei Clarkson mit über 275.000 CUDA-Kernen und über 4.800 Tensor-Kernen, verteilt auf über 50 GPUs, und 1 Petabyte an (fast vollem!) Speicher. TARS beherbergt den Gazebo, eine äußerst dichte, multimodale, markerlose Bewegungserfassungsanlage mit mehreren Blickwinkeln zur Abbildung von Interaktionen mit mehreren Personen, die 192 Hochgeschwindigkeitskameras mit 226 FPS, 16 Microsoft Azure Kinect RGB-D-Sensoren, 12 Sierra Olympic Viento-G-Wärmebildkameras, und 16 Oberflächen-Elektromyographie (sEMG)-Sensoren und der Cube, eine 3D-Bildgebungseinrichtung für eine oder zwei Personen, die 4 Hochgeschwindigkeitskameras, 4 RGB-D-Sensoren und 5 Wärmebildkameras enthält. TARS forscht an der Verwendung von Deep Learning, um aus riesigen Datensätzen Verständnis für natürliche Interaktionen zwischen mehreren Personen zu gewinnen, damit Technologien der nächsten Generation, z. B. intelligente Agenten und Roboter, nahtlos in zukünftige menschliche Umgebungen integriert werden können.

Das Team dankt dem Office of Information Technology für die Bereitstellung des Zugriffs auf den ACRES-GPU-Knoten mit 4 V100s, die 20.480 CUDA-Kerne und 2.560 Tensor-Kerne enthalten.