Nature-Studie: Über 140.000 gefälschte KI-Zitate in Forschungsarbeiten allein im Jahr 2025
Eine in Nature veröffentlichte Studie identifizierte mehr als 140.000 KI-generierte Falschzitate in vier großen Forschungsrepositorys — verteilt auf begutachtete Arbeiten und Preprints, die allein im Jahr 2025 erschienen sind. Dies ist die erste großangelegte empirische Quantifizierung von LLM-Halluzinationen, die Eingang in das akademische Schrifttum gefunden haben. Am selben Tag aktualisierte arXiv seinen Verhaltenskodex: Autoren tragen demnach die volle Verantwortung für sämtliche Inhalte ihrer Einreichungen — unabhängig davon, wie diese erzeugt wurden.
Einordnung
Wissenschaftliche Fachliteratur ist eine der wichtigsten Trainingsquellen für künftige KI-Modelle. Falschzitate, die in diesem Umfang in den Publikationsbestand gelangen, erzeugen eine Rückkopplungsschleife, in der KI-generierte Fehler sich über aufeinanderfolgende Trainingsgenerationen potenzieren können.