From Offloading to EngagementAn Experimental Study on Structured Prompting and Critical Reasoning with Generative AI
Publikationsdatum:
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit Februar 2026.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
The rapid adoption of generative AI raises questions not only about its transformative potential but also about its cognitive and societal risks. This study contributes to the debate by presenting cross-country experimental data (n = 150; Germany, Switzerland, United Kingdom) on how individuals engage with generative AI under different conditions: human-only, human + AI (unguided), human + AI (guided with structured prompting), and AI-only benchmarks. Across 450 evaluated responses, critical reasoning was assessed via expert rubric ratings, while perceived reflective engagement was captured through self-report indices. Results show that unguided AI use fosters cognitive offloading without improving reasoning quality, whereas structured prompting significantly reduces offloading and enhances both critical reasoning and reflective engagement. Mediation and latent class analyses reveal that guided AI use supports deeper human involvement and mitigates demographic disparities in performance. Beyond theoretical contributions, this study offers practical implications for business and society. As organisations integrate AI into workflows, unstructured use risks undermining workforce decision making and critical engagement. Structured prompting, by contrast, provides a scalable and low-cost governance tool that fosters responsible adoption, supports equitable access to technological benefits, and aligns with societal calls for human-centric AI. These findings highlight the dual nature of AI as both a productivity enabler and a cognitive risk, and position structured prompting as a promising intervention to navigate the emerging challenges of AI adoption in business and society.
Bemerkungen

Ref. 1 – Baasch & Sætra (2023) NICHT VERIFIZIERBAR Zitiert als: Ethics Inf. Technol. 2023, 25, 39–52. Trotz mehrfacher Suche ist dieser Artikel mit genau diesen Autoren und diesem Titel in Ethics and Information Technology nicht nachweisbar. Der Autor Henrik Sætra ist real und publiziert in diesem Bereich, aber ein Artikel „Who owns the thought?" ist weder mit einem Baasch noch mit einem Autor Sætra zu finden im Internet.
Ref. 2 – Rahimi & Reeves (2022) NICHT VERIFIZIERBAR Zitiert als: Br. J. Educ. Technol. 2022, 53, 1124–1140. Trotz mehrfacher Suche nicht auffindbar. Im gesamten Internet ist kein Artikel mit dem Titel "Automation and metacognition" zu finden.

Ref. 3 – Schmid, Abele & Rey (2023) NICHT VERIFIZIERBAR Zitiert als: Comput. Educ. 2023, 191, 104649. Im gesamten Internet ist kein Artikel mit dem Titel "Predictive text and learning performance" zu finden.

Ref. 4 – Liu, Li & Lajoie (2024) NICHT VERIFIZIERBAR Zitiert als: Learn. Instr. 2024, 85, 101782. Nicht verifizierbar. Im gesamten Internet ist kein Artikel mit dem Titel "Cognitive Load in AI-Supported Learning" auffindbar.

Ref. 9 – Schluter & von Eschenbach (2021) NICHT VERIFIZIERBAR Zitiert als: AI Ethics 2021, 2, 601–613. Trotz mehrfacher Suche nicht auffindbar. AI Ethics startete 2021 mit vol. 1, Band 2 wäre 2022. Kein Artikel mit „Schluter" und „von Eschenbach" zu Prompt Literacy gefunden. Kein Artikel mit dem Titel "Prompt Literacy and Human Autonomy" im Internet auffindbar.

Ref. 20 – Yeo, Xie & Schreurs (2023) NICHT VERIFIZIERBAR Zitiert als: AI Soc. 2023, 38, 433–450. Im Internet ist kein Artikel mit dem Titel "The Persuasive Power of AI" zu finden mit einem Autoren Yeo, Xie oder Schreurs zu finden.

Ref. 22 – Dwivedi, Hughes, Ismagilova et al. (2023) ARTICLE NUMBER FEHLER Zitiert mit Artikelnummer 102653, aber das einzige nachweisbare Dwivedi/Hughes-Artikel in Int. J. Inf. Manag. 71 (2023) hat die Nummer 102642 (das „So what if ChatGPT wrote it?"-Paper). Eine Nummer 102653 existiert nicht. Entweder die Artikelnummer und der Titel ist falsch, oder es handelt sich um einen anderen, nicht verifizierbaren Artikel.

Ref. 23 – Leufer & Floridi (2022) NICHT VERIFIZIERBAR Zitiert als: AI Ethics 2022, 2, 439–451. Nicht bestätigbar. Im Internet ist kein Artikel mit dem Titel "Trustworthy AI in the Workplace" und einem Autor "Floridi" oder "Leufer" zu finden.
Drei generative Sprachmodelle (Claude Opus 4.5, Notebook LM und ChatGPT 5.2) und ein Wissenschaftler mit entsprechender Methodenkompetenz haben dieses Paper methodisch stark kritisiert.
Im Papier werden drei Expert:innen mit Dissertation erwähnt, welche die Antworten der Teilnehmenden gerated haben (450 Teilnehmende x 3 Experimentalbedingungen x 5 Dimensionen = 6750 Beurteilungen). Trotzdem werden die drei Expert:innen weder als Co-Autor:innen aufgeführt noch verdankt.
Das Paper macht widersprüchliche Aussagen dazu, ob die Proband:innen eine der vier Experimentalbedingungen absolviert haben ("Participants were randomly assigned to one of four conditions") oder ob sie alle drei Experimentalbedingungen absolviert haben ("All participants completed three experimental conditions" und "All participants first completed the task in the human-only condition, without access to AI. In the second condition (human + AI unguided), participants were given access to ChatGPT but were not provided with any guidance on how to use it. In the third condition (human + AI guided), participants received structured training designed to promote deliberate engagement and reduce cognitive offloading.").
Das eine würde eine "Between-Subjects"-Untersuchung bedeuten, das andere eine "Within-Subjects"-Untersuchung.
Des weiteren gibt es widersprüchliche Aussagen, ob die drei Experimentalbedingungen randomisiert waren oder alle in der gleichen Reihenfolge absolviert wurden.
Dieser wissenschaftliche Zeitschriftenartikel erwähnt ...
![]() Personen KB IB clear | Richard Banks , Ashly Vivian Beresnitzky , Iris Braunstein , Ian Drosos , Michael Gerlich , Eugene Hauptmann , Nataliya Kosmyna , Hao-Ping (Hank) Lee , Xian-Hao Liao , Pattie Maes , Donald A. Norman , Sean Rintel , Advait Sarkar , Jessica Situ , Lev Tankelevitch , David C. Wilson , Ye Tong Yuan | ||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear |
Arbeitwork
, cognitive offloading
, Deutschland germany
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, GMLS als Abkürzung
, Produktivität productivity
, Schweiz Switzerland
, United Kingdom United Kingdom
| ||||||||||||||||||||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, GMLS & Bildung, GMLS als Werkzeug |
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
1 Erwähnungen 
Anderswo finden
Volltext dieses Dokuments
![]() | From Offloading to Engagement: Artikel als Volltext ( : , 699 kByte; : ) |
Anderswo suchen 
Beat und dieser wissenschaftliche Zeitschriftenartikel
Beat hat Dieser wissenschaftliche Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.).


Deutschland
Generative Machine-Learning-Systeme (GMLS)
GMLS als Abkürzung
Produktivität
Schweiz
United Kingdom






, 699 kByte;
)
Biblionetz-History