
Die rasante Entwicklung von Large Language Models (LLM), wie ChatGPT, hat dazu geführt, dass aktuelle Modelle Texte erzeugen können, die von menschlich verfassten Texten kaum zu unterscheiden sind. Dies ist mit Risiken verbunden, vor allem in Bezug auf die Verbreitung von Falschinformationen. Um diese Risiken zu minimieren, ist die Entwicklung von Detektoren, welche von Künstlicher Intelligenz (KI) generierte Texte identifizieren können, erforderlich. Während moderne Detektoren englischsprachige Texte mit hoher Genauigkeit klassifizieren können, stellt die Erkennung in anderen Sprachen, wie beispielsweise im Deutschen, ein weitgehend unerforschtes Gebiet dar. Ein zusätzliches Problem ist die mangelnde Robustheit aktueller Detektoren. Selbst einfache Manipulationen des zu klassifizierenden Textes können diese Detektoren vor erhebliche Herausforderungen stellen.
Diese Thesis präsentiert einen robusten Detektor zur Erkennung von Kigenerierten deutschen Texten. Für dessen Training und Evaluation wird der erste deutschsprachige Datensatz im Forschungsbereich erstellt, bestehend aus 70.749 menschlichen und 70.617 KI-generierten Texten. Dieser Datensatz, bereichert durch acht verschiedene Textgattungen und sieben unterschiedliche Prompt -Vorlagen, ist in seiner Art sprachübergreifend einzigartig. Der Detektor erreicht ein F1-Maß von 97,89% und demonstriert eine hohe Generalisierungsfähigkeit. Weiterhin stellt die Thesis wirksame Maßnahmen vor, die die Erfolgsraten möglicher Angriffe auf ein Minimum reduzieren. Dies legt den Grundstein für zukünftige Forschungen zur Robustheit in der Erkennung von KI-generierten Texten.