{"id":35719,"date":"2024-10-02T12:00:15","date_gmt":"2024-10-02T10:00:15","guid":{"rendered":"https:\/\/www.l3s.de\/?p=35719"},"modified":"2024-10-07T12:11:26","modified_gmt":"2024-10-07T10:11:26","slug":"structured-reinforcement-learning","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/structured-reinforcement-learning\/","title":{"rendered":"Stukturiertes Reinforcement Learning"},"content":{"rendered":"<p><strong>L3S Best Paper of the Quarter (Q3\/2024)\u202f<\/strong>\u202f&nbsp;<br><strong>Kategorie: Reinforcement Learning&nbsp;<\/strong><\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>Structure in Deep Reinforcement Learning: A Survey and Open Problems<\/strong>&nbsp;<\/p>\n\n\n\n<p>Autoren:<strong> <\/strong>Aditya Mohan,&nbsp; Amy Zhang, Marius Lindauer<\/p>\n\n\n\n<p><em>Ver\u00f6ffentlicht im <a href=\"https:\/\/www.jair.org\/index.php\/jair\/article\/view\/15703\/27028\" target=\"_blank\" rel=\"noopener\" title=\"\">Journal of Artificial Intelligence Research<\/a><\/em> <em>(Q1 journal)<\/em>\u00a0<\/p>\n\n\n\n<div style=\"height:28px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Das Papier in K\u00fcrze<\/strong>:\u202f&nbsp;<\/p>\n\n\n\n<p>Deep Reinforcement Learning (RL)-Algorithmen eignen sich hervorragend f\u00fcr sequenzielle Entscheidungen in kontrollierten Umgebungen wie Spielen und simulierter Robotik. Sie lassen sich jedoch nur schwer auf reale Anwendungen, wie komplexe industrielle Systeme, \u00fcbertragen und erfordern oft hochentwickelte Simulationen, nur um loszulegen. In dieser Arbeit schlagen wir vor, dass die direkte Einbeziehung von problemspezifischen Informationen in den Entwurf von RL-Algorithmen ein effektiverer Ansatz ist. Es wurden bereits viele Versuche in diese Richtung unternommen, und wir analysieren, wie diese Methoden strukturelle Informationen \u00fcber die Probleme integrieren, die sie l\u00f6sen sollen. Wir f\u00fchren einen neuen Rahmen ein, der RL-Algorithmen als eine Reihe von Designentscheidungen betrachtet, die auf die Art der Struktur eines bestimmten Problems zugeschnitten sind. Mit Hilfe dieses Rahmens kann gezeigt werden, wie verschiedene Algorithmen an verschiedene reale Entscheidungsaufgaben angepasst werden k\u00f6nnen, was sie effektiver und anpassungsf\u00e4higer an komplexe Umgebungen macht.&nbsp;<\/p>\n\n\n\n<p><strong>Welches Problem l\u00f6sen Sie mit Ihrer Forschung?<\/strong>\u202f&nbsp;<\/p>\n\n\n\n<p>Wir befassen uns mit der Herausforderung, Deep Reinforcement Learning (RL) auf reale Anwendungen wie selbstfahrende Autos oder industrielle Systeme zu skalieren, bei denen herk\u00f6mmliche RL-Modelle ohne umfangreiche, von Hand durchgef\u00fchrte Simulationen nur schwer lernen k\u00f6nnen. Wir untersuchen, wie verschiedene Methoden problemspezifische Informationen direkt in RL-Algorithmen einbetten und so besseres Lernen und bessere Leistung in komplexen Umgebungen erm\u00f6glichen.&nbsp;<\/p>\n\n\n\n<p><strong>Welche potenziellen Auswirkungen haben Ihre Ergebnisse?<\/strong>\u202f&nbsp;<\/p>\n\n\n\n<p>Indem wir verstehen, wie wir Algorithmen entwickeln k\u00f6nnen, die f\u00fcr einzelne Problemtypen besser geeignet sind, k\u00f6nnen wir die komplizierte Technik, die erforderlich ist, um RL-Algorithmen in der realen Welt leistungsf\u00e4hig zu machen, reduzieren und RL zug\u00e4nglicher und praktischer machen.&nbsp;<\/p>\n\n\n\n<p><strong>Was ist das Neue an Ihrer Forschung?<\/strong>\u202f&nbsp;<\/p>\n\n\n\n<p>Die Forschung f\u00fchrt einen neuen Rahmen ein, der RL-Algorithmen als eine Reihe von Designentscheidungen auf der Grundlage der Struktur des Problems neu definiert. Diese neue Perspektive zeigt, wie verschiedene RL-Modelle auf bestimmte reale Aufgaben zugeschnitten werden k\u00f6nnen, wodurch sie effektiver werden und auf eine breitere Palette komplexer Herausforderungen anwendbar sind.&nbsp;<\/p>\n\n\n\n<p><strong>Link zum Paper:<\/strong><strong>\u202f<\/strong>\u202f<a href=\"https:\/\/www.jair.org\/index.php\/jair\/article\/view\/15703\/27028\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/www.jair.org\/index.php\/jair\/article\/view\/15703\/27028<\/a>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>Die beste L3S-Publikation des Quartals in der Kategorie \"Reinforcement Learning\" besch\u00e4ftigt sich mit der Frage, wie Deep Reinforcement Learning komplexe Probleme effizienter l\u00f6sen kann.<\/p>","protected":false},"author":11,"featured_media":35720,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-35719","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35719","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=35719"}],"version-history":[{"count":4,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35719\/revisions"}],"predecessor-version":[{"id":35750,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35719\/revisions\/35750"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/35720"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=35719"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=35719"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=35719"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}