ChatGPT-Klick kostet Professor zwei Jahre Forschung

Zusammenfassung zeigen Zusammenfassung verbergen

Ein einziger Klick hat einem Kölner Universitätsprofessor offenbar Jahre an Forschungsergebnissen genommen – und wirft Fragen zur Verlässlichkeit von ChatGPT für professionelle Arbeit auf. Der Fall zeigt, wie schnell digitale Arbeitsstände verloren gehen können und warum Forscher jetzt ihre Arbeitsroutinen neu prüfen sollten.

Was genau passiert ist

Der Informatik-Professor Marcel Bucher nutzte ChatGPT über längere Zeit als zahlender Abonnent: als Assistenz zur Erstellung von E‑Mails, zur Vorbereitung von Vorlesungen, zur Auswertung von Prüfungen und sogar als interaktives Element in Lehrveranstaltungen. Viele Projekte und Gesprächsverläufe hatte er in der Plattform gesammelt.

Im vergangenen August deaktivierte Bucher in den Einstellungen die Option „Das Modell für alle verbessern“ im Bereich der Datenkontrollen – offenbar nur aus Neugier, um zu prüfen, ob sich die Funktionalität des Dienstes ändert. Kurz darauf zeigte die Chat‑Übersicht keinerlei Einträge mehr: sämtliche Konversationen und Projektordner waren verschwunden.

Versuche zur Rettung und die Antwort von OpenAI

Cache leeren, Browserwechsel, Neustart — nichts half. Der Kontakt mit dem Support von OpenAI brachte die Erklärung, dass die betreffende Einstellung unter dem Prinzip „Privacy by design“ fällt: nach Deaktivierung gebe es kein Zurück, weil keine Wiederherstellungsbackups existierten. Einige Dateien hatte Bucher zuvor lokal gesichert, doch ein großer Teil seiner Arbeit war nicht wieder auffindbar.

Der Professor zieht daraus ein klares Fazit: Solange ein einziger Klick Jahre an Arbeit unwiderruflich löschen kann, sei ChatGPT für professionelle Forschungsarbeit nicht ausreichend abgesichert. Er erwartet als zahlender Nutzer zumindest Warnhinweise, Wiederherstellungsoptionen oder zeitlich begrenzte Backups.

Warum das für Leserinnen und Leser jetzt relevant ist

Der Vorfall ist kein Einzelfall: In der Vergangenheit kam es bereits zu Situationen, in denen KI‑Systeme unerwartet Daten löschten oder Systeme beeinträchtigten — etwa Vorfälle mit Entwickler‑Tools, die Nutzerdaten verloren oder Datenträger beeinträchtigten. Für Wissenschaftler, Lehrende und alle, die KI in produktiven Arbeitsabläufen einsetzen, hat der Fall unmittelbare Konsequenzen:

  • Vertrauen in kostenpflichtige Dienste darf nicht automatisch Sicherheit bedeuten; Anbieter können funktionale Entscheidungen treffen, die Daten unwiederbringlich entfernen.
  • Haftung und Archivierung sind besonders in Forschung und Lehre relevant: Instituts‑ und universitäre Richtlinien müssen den Umgang mit cloudbasierten KI‑Tools adressieren.
  • Arbeitsabläufe sollten so gestaltet werden, dass wichtige Zwischenergebnisse außerhalb von Drittplattformen gesichert werden.

Praktische Schutzmaßnahmen für Forschende und Lehrende

Wer routinemäßig mit generativen KI‑Tools arbeitet, sollte konkrete Vorkehrungen treffen. Die folgenden Maßnahmen helfen, das Risiko eines Totalverlusts zu minimieren:

  • Regelmäßig exports oder Downloads von Konversationen und Arbeitsergebnissen anlegen und versioniert ablegen.
  • Wichtiges Material zusätzlich in institutionalisierten Speichern sichern (z. B. Hochschulserver, Git‑Repository, verschlüsselte Laufwerke).
  • Einstellungen von KI‑Diensten prüfen und Änderungen dokumentieren; vor kritischen Einstellungen Warnhinweise verlangen.
  • Private/öffentliche Backups kombinieren: lokale Kopien plus Cloud‑Redundanz mit Wiederherstellungsoption.
  • Rechtliche und datenschutzrechtliche Vorgaben der Einrichtung beachten; Backup‑Strategien in Forschungsprojekten verbindlich machen.
  • Alternativen in Betracht ziehen: lokale Modelle oder On‑Premises‑Lösungen, wenn Vertraulichkeit und Kontrolle zentral sind.

Diese Maßnahmen sind keine Garantie gegen Datenverlust, reduzieren das Risiko aber deutlich und schaffen Transparenz bei der Nachvollziehbarkeit von Entscheidungen.

Ein Lagebild für die Zukunft

Der Vorfall illustriert eine grundlegende Spannung: Nutzer wünschen intuitive, leistungsfähige Assistenz durch KI, zugleich steigen die Anforderungen an Transparenz, Wiederherstellbarkeit und institutionelle Sorgfaltspflichten. Anbieter wie OpenAI stehen vor der Herausforderung, Datenschutzkonzepte mit praktikablen Recovery‑Mechanismen zu verbinden – besonders, wenn zahlende Kundinnen und Kunden die Dienste in professionellen Kontexten einsetzen.

Bis solche Mechanismen etabliert sind, bleibt die wichtigste Regel: Wer beruflich auf KI‑Tools setzt, muss zusätzlich für eigene Backups und klare Prozesse sorgen. Nur so lassen sich Jahre an Arbeit vor einem einzelnen, folgenreichen Klick schützen.

Der ursprüngliche Beitrag erschien am 02.02.2026; dieser Text wurde aktualisiert, um neue Details zum Vorfall und praktische Empfehlungen zu ergänzen.

Geben Sie Ihr Feedback

Seien Sie der Erste, der dieser Beitrag bewertet
oder hinterlassen Sie eine detaillierte Bewertung



Deejay-Basics.de ist ein unabhängiges Medium. Unterstützen Sie uns, indem Sie uns zu Ihren Google News Favoriten hinzufügen:

Kommentar posten

Kommentar veröffentlichen