{"id":33881,"date":"2024-06-18T12:39:14","date_gmt":"2024-06-18T10:39:14","guid":{"rendered":"https:\/\/www.l3s.de\/?p=33881"},"modified":"2024-06-18T12:39:16","modified_gmt":"2024-06-18T10:39:16","slug":"how-robots-perceive-objects","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/how-robots-perceive-objects\/","title":{"rendered":"Wie Roboter Objekte wahrnehmen"},"content":{"rendered":"<p><strong>L3S Best Paper of the Quarter<\/strong>\u00a0<br><strong>Category: Haptic Perception\u00a0<\/strong><\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>Visuo-Haptische Objektwahrnehmung f\u00fcr Roboter: Ein \u00dcberblick<\/strong><\/p>\n\n\n\n<p>Authors: Nicol\u00e1s Navarro-Guerrero, Sibel Toprak, Josip Josifovski, Lorenzo Jamone<\/p>\n\n\n\n<p><em>Published in the Q1 journal \u201cAutonomous Robots\u201d \u00a0<br><\/em><a href=\"https:\/\/link.springer.com\/article\/10.1007\/s10514-023-10091-y\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/link.springer.com\/article\/10.1007\/s10514-023-10091-y<\/a>\u00a0<\/p>\n\n\n\n<p><em>Unser Artikel \u201eVisuo-haptic object perception for robots: an overview\u201d ist einer der am h\u00e4ufigsten heruntergeladenen Artikel im Jahr 2023. Das hat das Autonomous Robots Journal der Springer Nature Group best\u00e4tigt.<\/em> <a href=\"https:\/\/link.springer.com\/journal\/10514\/updates\/20394502\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/link.springer.com\/journal\/10514\/updates\/20394502<\/a>\u00a0<\/p>\n\n\n\n<div style=\"height:28px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Die Ver\u00f6ffentlichung in K\u00fcrze:<\/strong><\/p>\n\n\n\n<p>In diesem Artikel liefern wir eine ganzheitliche Beschreibung der multimodalen Objektwahrnehmung f\u00fcr Roboter. Wir beginnen mit den biologischen Grundlagen der Objektwahrnehmung und zeigen auf, wie diese die Entwicklung von Sensortechnologien und Anwendungen inspiriert haben. Wir beschreiben auch den aktuellen Stand der Forschung, einschlie\u00dflich der Herausforderungen bei der Datenerfassung im Austausch gegen wissenschaftliche Ergebnisse aufgrund der Heterogenit\u00e4t von Sensoren, Robotern und Datenerfassungsverfahren. Schlie\u00dflich gehen wir auf die Herausforderungen bei der multimodalen Signalverarbeitung (KI\/ML) ein, die auf die multimodale Objektwahrnehmung angewendet wird.<\/p>\n\n\n\n<p><strong>Welche potenziellen Auswirkungen haben Ihre Ergebnisse?<\/strong><\/p>\n\n\n\n<p>Multimodale Objektwahrnehmung f\u00fcr Roboter ist ein entscheidender Schritt f\u00fcr die Entwicklung intelligenter Roboter, die mit Objekten interagieren k\u00f6nnen. Die Technologie er\u00f6ffnet eine Vielzahl von Anwendungsm\u00f6glichkeiten, nicht nur f\u00fcr autonome Roboter, sondern auch f\u00fcr intelligente Prothesen und die ferngesteuerte Manipulation von Objekten durch Roboter, beispielsweise im Weltraum oder unter Wasser. Unser Artikel senkt die Einstiegsh\u00fcrde in dieses Forschungsgebiet, indem er die aktuelle wissenschaftliche Landschaft im Bereich der multimodalen Objektwahrnehmung beschreibt und vielversprechende zuk\u00fcnftige Forschungsrichtungen aufzeigt. <\/p>\n\n\n\n<p><strong>Was ist neu an Ihrer Forschung?<\/strong><\/p>\n\n\n\n<p>In unserem Projekt \u201eROMEO: Robot-MEdiated Object manipulation with haptic feedback\u201d erforschen wir Technologien zur Umsetzung der taktilen Wahrnehmung von Robotern in haptische Stimulationsger\u00e4te f\u00fcr Menschen. Diese Forschung findet Anwendung bei chirurgischen Robotern, ferngesteuerter Objektmanipulation und intelligenter Prothetik. Im Projekt \"Vibro-Sense: Bioinspirierter taktiler Sensor f\u00fcr die Robotik\" untersuchen wir dynamische taktile Sensoren, bei denen wir die Vibrationen messen, die bei der Interaktion mit Objekten entstehen und sich ausbreiten, und diese verarbeiten, um Textur, Objekte, Schlupf und die Position von taktilen Reizen zu erkennen. Ein weiteres verwandtes Projekt, an dem wir arbeiten, ist \"ACROSS: Adaptive Cross-Modal Representation for Robotic Transfer Learning\". In diesem Projekt geht es darum, taktile Informationen \u00fcber verschiedene Sensortechnologien hinweg zu \u00fcbersetzen, damit wir Forscher Algorithmen und Daten leichter austauschen k\u00f6nnen. <\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p>Navarro-Guerrero, N., Toprak, S., Josifovski, J., &amp; Jamone, L. (2023). Visuo-Haptic Object Perception for Robots: An Overview. Autonomous Robots, 47(4), 377\u2013403. <a href=\"https:\/\/doi.org\/10.1007\/s10514-023-10091-y\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/doi.org\/10.1007\/s10514-023-10091-y<\/a>\u00a0<\/p>","protected":false},"excerpt":{"rendered":"<p>The introduction to multimodal object perception is the best L3S publication of the quarter in the category &#8220;Haptic Perception&#8221;.<\/p>","protected":false},"author":11,"featured_media":33882,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-33881","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/33881","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=33881"}],"version-history":[{"count":1,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/33881\/revisions"}],"predecessor-version":[{"id":33883,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/33881\/revisions\/33883"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/33882"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=33881"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=33881"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=33881"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}