Heads we win, tails you loseAI detectors in education
Mark A. Bassett, Wayne Bradshaw, Alyce Hogg, Kane Murdoch, Hannah Bornsztejn, Bridget Pearce, Colin Webber
Publikationsdatum:
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit November 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
The increasing use of generative artificial intelligence in student assessment has led to reliance on generative artificial intelligence detection tools by educational institutions. Unlike plagiarism detection, which identifies direct matches, AI detectors rely on unverifiable probabilistic assessments. False positives are indistinguishable from genuine cases. In this paper, we argue that generative artificial intelligence detection should not be used in education due to its methodological imperfections, violation of procedural fairness, and unverifiable outputs. Generative artificial intelligence detectors cannot be tested in real-world conditions where the true origin of a text is unknown. Attempts to validate results through linguistic markers, multiple tools, or comparisons with past work introduce confirmation bias rather than independent verification. Moreover, categorising text as human- or AI-generated imposes a false dichotomy that ignores work created with, not by, AI. Generative artificial intelligence detection also raises security concerns, as many tools lack transparency regarding data security. Academic integrity investigations must rely on evidence meeting the balance of probabilities standard, which generative artificial intelligence detection scores do not satisfy. Educational institutions and sectors should move away from punitive detection policies and focus on assessment design that integrates AI’s role in learning, ensuring fairness, transparency, and pedagogical integrity.
Von Mark A. Bassett, Wayne Bradshaw, Alyce Hogg, Kane Murdoch, Hannah Bornsztejn, Bridget Pearce, Colin Webber im Text Heads we win, tails you lose (2025)
Dieser Text erwähnt ...
![]() Personen KB IB clear | Emily M. Bender , Timnit Gebru , Angelina McMillan-Major , Shmargaret Shmitchell | ||||||||||||||||||
![]() Aussagen KB IB clear | Jede automatisierte KI-Erkennung lässt sich auch automatisiert umgehen | ||||||||||||||||||
![]() Begriffe KB IB clear | Bildungeducation (Bildung)
, confirmation bias
, Daten data
, false dilemmafalse dilemma
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, GMLS-Detektor
, Künstliche Intelligenz (KI / AI) artificial intelligence
, Lernen learning
, Plagiarismus plagiarism
| ||||||||||||||||||
![]() Texte |
|
Dieser Text erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | argumentum ad hominem, argumentum ad hominem circumstantial, argumentum ad hominem tu quoque, Chat-GPT, Digitalisierung, GMLS & Bildung, LehrerIn, Schule, slippery slope, straw man, Unterricht |
Tagcloud
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Heads we win, tails you lose: Artikel als Volltext ( : , 284 kByte; : ) |
Anderswo suchen 
Beat und dieser Text
Beat hat Dieser Text erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Text einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Daten
Generative Machine-Learning-Systeme (GMLS)
Künstliche Intelligenz (KI / AI)
Lernen
Plagiarismus

, 284 kByte;
)
Biblionetz-History