{"id":34752,"date":"2024-08-13T15:12:25","date_gmt":"2024-08-13T13:12:25","guid":{"rendered":"https:\/\/www.l3s.de\/?p=34752"},"modified":"2024-09-05T15:48:40","modified_gmt":"2024-09-05T13:48:40","slug":"language-models-for-medical-text-summarisation","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/language-models-for-medical-text-summarisation\/","title":{"rendered":"Mit Sprachmodellen medizinische Texte zusammenfassen"},"content":{"rendered":"<p><strong>L3S Bestes Paper des Quartals (Q2\/2024)&nbsp;<\/strong>&nbsp;<br><strong>Category: NLP, Generative AI<\/strong><\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>MEDVOC: Vokabularanpassung zur Feinabstimmung vorab trainierter Sprachmodelle f\u00fcr die Zusammenfassung medizinischer Texte<\/strong>&nbsp;<\/p>\n\n\n\n<p>Autoren: Gunjan Balde, Soumyadeep Roy, Mainack Mondal, Niloy Ganguly&nbsp;<\/p>\n\n\n\n<p><em>Pr\u00e4sentiert auf der IJCAI 2024, der 33. Internationalen gemeinsamen Konferenz f\u00fcr k\u00fcnstliche Intelligenz (A*-Konferenz)<\/em>&nbsp;<\/p>\n\n\n\n<p><a href=\"https:\/\/arxiv.org\/abs\/2405.04163\">https:\/\/arxiv.org\/abs\/2405.04163<\/a><\/p>\n\n\n\n<div style=\"height:28px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Die Ver\u00f6ffentlichung in K\u00fcrze:<\/strong>&nbsp;<\/p>\n\n\n\n<p>Unsere Arbeit pr\u00e4sentiert eine dynamische Vokabelanpassungsstrategie, MEDVOC, zur Feinabstimmung vorab trainierter Sprachmodelle (PLMs) f\u00fcr eine verbesserte medizinische Zusammenfassung. Wir schlagen eine neuartige, effiziente, dynamische und zielaufgabenbewusste Vokabelanpassungsstrategie vor, die das Vokabular als optimierbaren Parameter behandelt und das PLM-Vokabular basierend auf einem Fragmentwert optimiert, der nur von den Referenzzusammenfassungen der Zielaufgabe abh\u00e4ngt. Dieser Ansatz verbessert die Modellleistung in anspruchsvollen Szenarien mit hoher OOV-Konzentration (Out-Of-Vocabulary) und Langformgenerierung f\u00fcr die Zusammenfassung medizinischer Texte.&nbsp;<\/p>\n\n\n\n<p><strong>Welches Problem l\u00f6sen Sie mit Ihrer Forschung?<\/strong>&nbsp;<\/p>\n\n\n\n<p>In dieser Arbeit l\u00f6sen wir das Problem der fehlerhaften Tokenisierung, das bei der Zusammenfassung medizinischer Texte in Bezug auf PLM-Vokabular auftritt. Dieses Problem betrifft sowohl den Encoder als auch den Decoder von PLM: In der Encoderphase f\u00fchrt \u00fcberm\u00e4\u00dfiges Aufteilen zu einer schlechten Darstellung und Bedeutungsverlust, und in der Decodierungsphase muss das Modell mehr Token generieren, um das entsprechende medizinische Wort zu generieren.&nbsp;<\/p>\n\n\n\n<p><strong>Welche potenziellen Auswirkungen haben Ihre Ergebnisse?&nbsp;&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>Die potenziellen Auswirkungen sind im Bereich der medizinischen Zusammenfassung vorteilhaft, insbesondere in Szenarien, in denen die faktische Konsistenz ein wichtiger Aspekt ist. Unser Ansatz ist im Vergleich zu Baselines faktisch konsistenter, wie medizinische Experten bei der Einrichtung der menschlichen Evaluierung festgestellt haben.&nbsp;<\/p>\n\n\n\n<p><strong>Was ist neu an Ihrer Forschung?<\/strong>&nbsp;<\/p>\n\n\n\n<p>Unsere Arbeit ist die erste, die eine Vokabelanpassung zur Feinabstimmung von vorab trainierten Open-Domain-Sprachmodellen f\u00fcr die Zusammenfassung medizinischer Texte vorschl\u00e4gt. Unsere vorgeschlagenen Methoden \u00fcbertreffen Baselines in anspruchsvollen Szenarien deutlich, wenn die Referenzzusammenfassung viele W\u00f6rter enth\u00e4lt, die nicht im Vokabular enthalten sind, und wenn die Zusammenfassungen typischerweise l\u00e4nger sind. Unser Ansatz ist auch in Zero-Shot- und Few-Shot-Einstellungen (10.100) besser als Baselines.&nbsp;<\/p>\n\n\n\n<p><strong>Vorabdruck<\/strong>: Balde, G., Roy, S., Mondal, M. und Ganguly, N. (2024). MEDVOC: Vokabularanpassung zur Feinabstimmung vorab trainierter Sprachmodelle bei der Zusammenfassung medizinischer Texte. <em>arXiv-Vorabdruck arXiv:2405.04163<\/em>.&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>The best L3S paper of the quarter in the category &#8220;NLP,Generative AI&#8221; shows how to translate medical texts with language models. <\/p>","protected":false},"author":11,"featured_media":34755,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-34752","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/34752","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=34752"}],"version-history":[{"count":4,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/34752\/revisions"}],"predecessor-version":[{"id":34979,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/34752\/revisions\/34979"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/34755"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=34752"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=34752"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=34752"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}