Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2019 — 2020

DOI Kapitel:
D. Förderung des wissenschaftlichen Nachwuchses
DOI Kapitel:
II. Das WIN-Kolleg
DOI Kapitel:
Siebter Forschungsschwerpunkt „Wie entscheiden Kollektive?“
DOI Kapitel:
13. Fake News and Collective Decision Making. Rapid Automated Assessment of Media Bias
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.55176#0394
Lizenz: Freier Zugang - alle Rechte vorbehalten

DWork-Logo
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
13. Fake News (WIN-Programm)

die Softwarearchitektur entworfen und implementiert. Ein Ablaufdiagramm mit
den wichtigsten Komponenten der Analyse findet sich in Abbildung 1. Diese
stellt das Grundgerüst für alle weiteren Arbeiten an der automatischen Erken-
nung sowie Visualisierung von verzerrter Berichterstattung in Nachrichtenarti-
keln dar. Zweitens wurden ein bereits bestehendes System zur Erkennung von
Koreferenzen in die Architektur integriert und zahlreiche, kleinere Verbesserun-
gen umgesetzt. Während die Auflösung nominaler und pronominaler Korefe-
renzen bereits recht verlässlich mit Methoden des Natural Language Processing
(NLP) adressiert werden kann, ist dies im obenstehenden Beispiel nicht der Fall:
wenn teils gegensätzliche Referenzen verwendet werden („Freiheitskämpfer“
vs. „Terrorist“), stoßen Standardmethoden der Koreferenz-Auflösung an ihre
Grenzen. Hierzu hatte Felix Hamborg bereits vor Projektbeginn einen Ansatz
erforscht, der darauf abzielt, auch solche Koreferenzen auflösen zu können. Als
dritter Beitrag des ersten Teilprojekts konnte eine Methode entwickelt werden,
die automatisiert erkennt, ob Politiker, Institutionen oder andere Entitäten posi-
tiv oder negativ dargestellt werden. Im Gegensatz zur bisherigen Forschung der
sogenannten Sentimentanalyse ist die entwickelte Methode speziell auf Charak-
teristika von Nachrichtenartikeln abgestimmt.

Frame Identification

05

WordNet

ra

Empath

Frame Clustering I

Frame Prop. Estimation
ConceptNet


Preprocessing

Target Concept Analysis
| Sentence Splitting
Candidate Extraction
Corefs || NPs
Tokenization
POS tagging
Candidate Merging
I Representative phrases' heads |
Parsing
Sets of phrases' heads
| Dependency parsing
| Representative labeling phrases |
NE recognition
Compounds
Representative wordsets
| Coref.-resolution
| Representative frequent phrases |

Abbildung 1: Hauptkomponenten der Analysearchitektur

Im zweiten Projektteil, der vom Team von JProf. Karsten Donnay verant-
wortet wird, hat unser zweiter Projektmitarbeiter Timo Spinde erste Tests und
eine Vorstudie zum Design einer Plattform für die annotierte Darstellung ent-
wickelt. Auf der Plattform werden nicht nur Nachrichtenartikel anzeigt, son-
dern auch systematisch die Wirkung von Strategien zur Anzeige tatsächlicher
Medienverzerrungen getestet. Dabei sind vor allem zwei Bereiche der Visualisie-
rung dieser Verzerrungen relevant: Einerseits ein Überblick über verschiedene
Nachrichtenthemen, also eine Plattform ähnlich zu Diensten wie Google News,
die jedoch die sprachlichen Unterschiede in der Berichterstattung der Medien
untereinander durch einen Vergleich aufzeigt. Andererseits die Anzeige von ver-
zerrten Darstellungen und Textpassagen in den Artikeln selbst. Grundsätzlich

395
 
Annotationen
© Heidelberger Akademie der Wissenschaften