Vier Papiere auf der ACL
BamNLP präsentiert nächste Woche vier Beiträge auf der ACL-Konferenz in Bangkok, Thailand.
Wir haben untersucht, wie sich die Beschreibung wissenschaftlicher Erkenntnisse verändert, wenn über sie in Nachrichten oder sozialen Medien berichtet wird. Werden Korrelationen als kausale Zusammenhänge dargestellt? Wird die Gewissheit des Ergebnisses mit höherem Vertrauen berichtet? Verändert sich die Ergebnisberichterstattung in Richtung Sensationslust, und wird übergeneralisiert berichtet?
Modelle, die lernen, Hassrede automatisch zu erkennen, stützen sich auf die Erwähnung bestimmter Zielgruppen. So kann ein Modell beispielsweise vorhersagen, dass ein Beitrag Hassrede enthält, weil in dem Beitrag eine bestimmte Religion erwähnt wird. Wird die Fähigkeit des Modells, sich auf solche Zielgruppen zu stützen, abgeschafft, kann dies jedoch zu einer geringeren Leistung des Modells führen, da das Vorhandensein einer Zielgruppe ein entscheidendes Element von Hassrede ist. In dieser Arbeit testen wir, ob die Korrektur für eine Gruppe von Zielen (z. B. alle Religionen, alle Geschlechter) die Verallgemeinerbarkeit des Modells verbessert.
Rezensionen erwähnen oft Entitäten oder Aspekte, die bewertet werden, aber nicht jede Bewertung in einem Text ist relevant für ein globales Urteil auf Textebene. Dieser Beitrag untersucht die Beziehung zwischen lokalen und globalen Stimmungszuweisungen.
Amelie Wuehrl, Lynn Greschner, Yarik Menchaca Resendiz, und Roman Klinger. IMS_medicALY bei #SMM4H 2024: Detecting impacts of outdoor spaces on social anxiety with data augmented ensembling. In The 9th Social Media Mining for Health Research and Applications Workshop and Shared Tasks (#SMM4H 2024)--Large Language Models and Generalizability for Social Media NLP at ACL 2024, Bangkok, Thailand, 2024.
Dieses Papier ist ein Beitrag zu einem Shared Task. Wir testen, ob Modelle, die soziale Angst messen, durch künstliche Daten und domänenspezifische Modelle verbessert werden können.