{"id":35978,"date":"2024-10-10T14:08:35","date_gmt":"2024-10-10T12:08:35","guid":{"rendered":"https:\/\/www.l3s.de\/?p=35978"},"modified":"2024-10-10T14:12:17","modified_gmt":"2024-10-10T12:12:17","slug":"defusing-toxic-online-debates-with-ai","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/defusing-toxic-online-debates-with-ai\/","title":{"rendered":"KI im Einsatz gegen toxische Online-Debatten"},"content":{"rendered":"<p><strong>L3S Best Publication of the Quarter (Q3\/2024)<br>Category: Natural Language Processing, Large Language Models<\/strong><\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>LLM-based Rewriting of Inappropriate Argumentation using Reinforcement Learning from Machine Feedback<\/strong>&nbsp;<\/p>\n\n\n\n<p>Authors: Timon Ziegenbein, Gabriella Skitalinskaya, Alireza Bayat Makou, Henning Wachsmuth&nbsp;<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><em>Erschienen in <a href=\"https:\/\/aclanthology.org\/2024.acl-long.244.pdf\" target=\"_blank\" rel=\"noopener\" title=\"\">Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics <\/a>(A* conference)&nbsp;<\/em><\/p>\n\n\n\n<div style=\"height:28px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Das Papier in K\u00fcrze<\/strong>:\u202f&nbsp;<\/p>\n\n\n\n<p>Eine gro\u00dfe Herausforderung f\u00fcr Social-Media-Plattformen ist es, daf\u00fcr zu sorgen, dass Online-Diskussionen zivil und produktiv verlaufen. Solche Plattformen verlassen sich in der Regel sowohl auf Nutzer als auch auf automatische Erkennungsinstrumente, um unangemessene Argumente anderer Nutzer zu markieren, die dann von Moderatoren \u00fcberpr\u00fcft werden. Diese Art der Post-Hoc-Moderation ist jedoch teuer und zeitaufw\u00e4ndig, und die Moderatoren sind mit der Menge und Schwere der markierten Inhalte oft \u00fcberfordert. Eine vielversprechende Alternative besteht darin, negatives Verhalten bereits bei der Erstellung von Inhalten zu verhindern. In diesem Beitrag wird untersucht, wie unangemessene Sprache in Argumenten rechnerisch entsch\u00e4rft werden kann. Wir schlagen einen rechnerischen Ansatz vor, der auf der Grundlage eines gro\u00dfen Sprachmodells (LLM) ein Gleichgewicht zwischen dem Erhalt des Inhalts und der Angemessenheit herstellt. Wir evaluieren verschiedene Grade der Inhaltserhaltung und Angemessenheit in menschlichen Bewertungsstudien. Systematische Experimente zeigen, dass unser Ansatz die Unangemessenheit von Argumenten abschw\u00e4chen kann, w\u00e4hrend ihr Inhalt weitgehend erhalten bleibt. Er \u00fcbertrifft signifikant konkurrierende Berechnungsgrundlagen und Menschen.\u00a0<\/p>\n\n\n\n<p><strong>Welche potenziellen Auswirkungen haben Ihre Ergebnisse?<\/strong>\u202f&nbsp;<\/p>\n\n\n\n<p>Die Ergebnisse dieser Forschung k\u00f6nnen f\u00fcr die Entwicklung eines computergest\u00fctzten Tools genutzt werden, das Nutzern helfen kann, in Online-Diskussionen angemessenere Argumente zu verfassen. Dieses Tool kann in Social-Media-Plattformen integriert werden, um negatives Verhalten bei der Erstellung von Inhalten zu verhindern. Dies kann dazu beitragen, die Qualit\u00e4t von Online-Diskussionen zu verbessern und Social-Media-Plattformen zivilisierter und produktiver zu machen.\u00a0<\/p>\n\n\n\n<p><strong>Was ist das Neue an Ihrer Forschung?<\/strong>\u202f&nbsp;<\/p>\n\n\n\n<p>Diese Forschungsarbeit ist die erste, die einen rechnerischen Ansatz vorschl\u00e4gt, der die Erhaltung des Inhalts und die Angemessenheit beim Umschreiben unangemessener Argumente in Einklang bringt. Der Ansatz basiert auf einem gro\u00dfen Sprachmodell (Large Language Model, LLM) und nutzt Verst\u00e4rkungslernen, um zu lernen, wie man Argumente umschreibt, ohne dass parallele Daten ben\u00f6tigt werden.\u00a0<\/p>\n\n\n\n<p><strong>Link zum Paper:<\/strong><strong>\u202f<\/strong>\u202f<a href=\"https:\/\/aclanthology.org\/2024.acl-long.244.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/aclanthology.org\/2024.acl-long.244.pdf<\/a>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>In der Kategorie \"Natural Language Processing, Large Language Models\" bietet die beste L3S-Ver\u00f6ffentlichung des Quartals eine L\u00f6sung an, wie KI den Diskurs in den sozialen Medien versachlichen kann.<\/p>","protected":false},"author":11,"featured_media":35979,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-35978","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35978","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=35978"}],"version-history":[{"count":3,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35978\/revisions"}],"predecessor-version":[{"id":39367,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/35978\/revisions\/39367"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/35979"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=35978"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=35978"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=35978"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}