Artificial Writing and Automated DetectionBrian Jabarian, Alex Imas
Publikationsdatum:
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit Dezember 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Artificial intelligence (AI) tools are increasingly used for written deliverables. This has created demand for distinguishing human-generated text from AI-generated text at scale, e.g., ensuring assignments were completed by students, product reviews written by actual customers, etc. A decision-maker aiming to implement a detector in practice must consider two key statistics: the False Negative Rate (FNR), which corresponds to the proportion of AI-generated text that is falsely classified as human, and the False Positive Rate (FPR), which corresponds to the proportion of human-written text that is falsely classified as AI-generated. We evaluate three leading commercial detectors—Pangram, OriginalityAI, GPTZero—and an open-source one —RoBERTa—on their performance in minimizing these statistics using a large corpus spanning genres, lengths, and models. Commercial detectors outperform open-source, with Pangram achieving near-zero FNR and FPR rates that remain robust across models, threshold rules, ultra-short passages, "stubs" (≤ 50 words) and ’humanizer’ tools. A decision-maker may weight one type of error (Type I vs. Type II) as more important than the other. To account for such a preference, we introduce a framework where the decision-maker sets a policy cap—a detector-independent metric reflecting tolerance for false positives or negatives. We show that Pangram is the only tool to satisfy a strict cap (FPR ≤ 0.005) without sacrificing accuracy. This framework is especially relevant given the uncertainty surrounding how AI may be used at different stages of writing, where certain uses may be encouraged (e.g., grammar correction) but may be difficult to separate from other uses.
Von Brian Jabarian, Alex Imas im Text Artificial Writing and Automated Detection (2025)
Dieser Text erwähnt ...
![]() Personen KB IB clear | Alla Anohina-Naumeca , Sonja Bjelobaba , Yu-Neng Chuang , Tomáš Foltýnek , Jean Guerrero-Dib , Xia Hu , Olumide Popoola , Petr Šigut , Ruixiang Tang , Lorna Waddington , Debora Weber-Wulff | |||||||||||||||||||||||||||
![]() Begriffe KB IB clear | Chat-GPT
, false positive rate
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, GMLS-Detektor
, GPT Zero
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Originality.AI
, Schreibenwriting
, Statistik statistics
, Toleranztolerance
| |||||||||||||||||||||||||||
![]() Bücher |
| |||||||||||||||||||||||||||
![]() Texte |
|
Dieser Text erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Artificial Writing and Automated Detection: Artikel als Volltext ( : , 671 kByte; : ) |
![]() | Artificial Writing and Automated Detection: Artikel als Volltext ( : , 671 kByte; : ) |
Anderswo suchen 
Beat und dieser Text
Beat hat Dieser Text erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Text einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Chat-GPT
false positive rate
Generative Machine-Learning-Systeme (GMLS)
Künstliche Intelligenz (KI / AI)
Statistik


, 671 kByte;
)
Biblionetz-History