OpenAIs CEO Sam Altman bezeichnete das System als „legitimen PhD-Experten in jedem Bereich“ (Fortune, 07.08.2025), und laut OpenAI bietet die neue Generation „das bisher intelligenteste, schnellste und nützlichste Modell“ (OpenAI, 2025).
Doch welche Neuerungen bringt ChatGPT-5 tatsächlich, und wie lassen sich diese im wissenschaftlichen Alltag einsetzen?
In diesem Artikel werden die wichtigsten technischen Verbesserungen, konkrete Anwendungsbeispiele sowie Aspekte von Datenschutz und guter wissenschaftlicher Praxis vorgestellt.
1 Technische Neuerungen von GPT-5
GPT-5 bringt in mehreren zentralen Bereichen spürbare Verbesserungen: Es kombiniert schnellen Standardmodus und tiefgehenden Thinking-Modus in einem System, verarbeitet größere Datenmengen, versteht neben Text auch visuelle Inhalte, arbeitet zuverlässiger als bisherige Modelle, lässt sich stärker an individuelle Bedürfnisse anpassen und bietet neue Sicherheitsmechanismen. Zusammenfassend bilden diese Fortschritte die Grundlage für neue Anwendungsmöglichkeiten und eine einfachere Nutzung, insbesondere bei komplexen Aufgaben in der wissenschaftlichen Arbeit.
Die grundlegenden Schwierigkeiten wie etwa Halluzinationen konnten zwar reduziert, aber bei Weitem nicht vollständig beseitigt werden. Auch GPT-5 ist kein Ersatz für wissenschaftliche Expertise, sondern – richtig eingesetzt – ein vielseitiges Werkzeug, das Forschung nicht nur beschleunigen, sondern auch die Qualität spürbar steigern kann. Trotz der Verbesserungen stellt GPT-5 jedoch keinen wirklich bedeutenden Schritt in Richtung einer allgemeinen künstlichen Intelligenz (AGI) dar, sondern vielmehr eine spannende Optimierung innerhalb der bestehenden Modellgenerationen.
1.1 Einheitliches Modell mit „Thinking-Modus“
Bisher mussten Nutzer:innen zwischen schnellen Standard- und langsameren Reasoning-Modellen wählen. GPT-5 integriert nun mehrere Varianten in ein einheitliches System. Ein sogenannter „Real-Time Router“ bewertet dabei automatisch die Komplexität einer Anfrage und entscheidet selbstständig, ob das schnelle Basismodell oder der Thinking-Modus mit erweiterter logischer Analyse und höherer Denktiefe eingesetzt wird. (Fortune, 07.08.2025,Simon Willison, 07.08.2025).
Dieses On-Demand-Reasoning ermöglicht schnelle Antworten bei einfachen Fragen und längere, präzisere Überlegungen bei komplexen Aufgaben. Forschende können den Thinking-Modus gezielt aktivieren, etwa mit dem Prompt „denk gründlich darüber nach“.
1.2 Erweitertes Kontextfenster und Multimodalität
Laut Fortune (07.08.2025) verfügt GPT-5 über ein kombiniertes Kontextfenster von bis zu 400 000 Tokens (Input + Reasoning/Output; maximale Ausgabelänge 128 000 Tokens, Quelle: OpenAI) — genug, um mehrere Dutzend wissenschaftliche Paper in einem Durchgang zu analysieren. Neben Text versteht das Modell auch Bilder und kann Diagramme oder Fotos zuverlässiger interpretieren. Eine eigene Bild- oder Video-Generierung, wie sie bei GPT-4o nativ integriert war, fehlt jedoch. Stattdessen orchestriert GPT-5 externe Modelle wie DALL·E (Bilder) oder Sora (Videos). Für die praktische Nutzung ändert dies wenig, da diese Tools nahtlos eingebunden und automatisch aufgerufen werden (Simon Willison, 07.08.2025).
1.3 Reduzierte Halluzinationen und höhere Zuverlässigkeit
Ein zentrales Ziel von GPT-5 ist die Verringerung von Fehlern. Interne Angaben und frühe Tests berichten über folgende relative Verbesserungen gegenüber GPT-4o (bei aktiviertem Thinking-Modus)
| Kennzahl | Verbesserung ggü. GPT-4o | Quelle |
|---|---|---|
| Fehlerquote (gesamt) | − 80 % | Fortune |
| Große faktische Fehler | − 78 % | The Effortless Academic |
| Halluzinationsrate | − 65 % | The Effortless Academic |
Hinweis: Die Prozentwerte sind relative Verbesserungen aus OpenAI-Angaben und Early-Access-Berichten; absolute Referenzwerte wurden nicht veröffentlicht.
1.4 Personalisierung und Hilfsfunktionen
GPT-5 bietet vordefinierte Persönlichkeiten wie „Zyniker“, „Roboter“, „Zuhörer“ oder „Nerd“ (Fortune, 07.08.2025).
- „Nerd“-Modus: Detaillierte, technisch präzise Antworten
- „Zuhörer“-Modus: Unterstützt kollaborative Ideengenerierung
Die Integration persönlicher Dienste (z. B. Gmail, Kalender) ermöglicht agentenartige Funktionen wie Terminverwaltung, E-Mail-Zusammenfassungen oder automatisierte Erinnerungen (Fortune). Hierzu wird allerdings ein Zugriff auf diese Daten benötigt. Dies wirft Bedenken beim Datenschutz auf (vgl. Kapitel 3).
Hinweis: Die Funktion wird nach und nach weltweit ausgerollt, es kann also sein, dass sie noch nicht in allen Accounts verfügbar ist.
1.5 Safe-completions Framework
Mit GPT-5 hat OpenAI ein Sicherheitskonzept eingeführt, das nicht nur die Eingabe, sondern auch die geplante Ausgabe prüft. Ziel ist, bei potenziell missbrauchbaren („dual-use“) Anfragen weiterhin nützliche, aber regelkonforme Antworten zu geben
(openai.com).
1.6 Modellvarianten und Preise
Die GPT-5-Familie umfasst: Standardmodell, GPT-5 Thinking, GPT-5 mini, GPT-5 nano sowie GPT-5 Pro (längere Denkzeit, höhere Genauigkeit)
(Simon Willison, 07.08.2025).
Die Preise für GPT-5 über die API betragen mit 1,25 USD pro 1 Mio. Eingabetoken etwas mehr als 60 % des Preises für GPT-4o und mit
10 USD pro 1 Mio. Ausgabetoken gleich teuer wie GPT-4o (Simon Willison). Im Reasoning-Modus kosten die Output-Token damit zwar leicht mehr als z. B. bei GPT-3, es scheint aber, dass GPT-5 50–80 % weniger Output-Token nutzt und damit zu besseren Ergebnissen kommt (www.cursor-ide.com).
1.7. Benchmark Vergleich: Was können die Modelle wirklich?
| OpenAI-Modell | SWE-Bench Verified Coding |
AIME 2025 Mathe |
GPQA Diamond Wissen |
MMMU Multimodal |
|---|---|---|---|---|
| GPT-3.5 | k.A. | k.A. | k.A. | k.A. |
| GPT-4 | k.A. | k.A. | k.A. | k.A. |
| GPT-4.1 | 54.6 % | 46.4 % | 66.3 % | 74.8 % |
| GPT-4o | 33.2 % | k.A. | 46.0 % | k.A. |
| GPT-4o-mini | 8.7 % | k.A. | 40.2 % | k.A. |
| GPT-03 | 69.1 % | 88.9 % | 83.3 % | 82.9 % |
| GPT-5 | 74.9 % | 94.6 % | 88.4 % | 84.2 % |
| Anbieter / Modell | SWE-Bench Verified Coding |
AIME 2025 Mathe |
GPQA Diamond Wissen |
MMMU Multimodal |
|---|---|---|---|---|
| OpenAI GPT-5 | 74.9 % | 94.6 % | 88.4 % | 84.2 % |
| Anthropic Claude Opus 4.1 | 74.5 % | k.A. | ~80.9 % | 73.4 % |
| Google Gemini 2.5 Pro | 53.6 % | 85.8 % | k.A. | 81.5 % |
| Meta Llama 4 Maverick | k.A. | k.A. | 69.8 % | 73.4 % |
| DeepSeek R1 | 50.8 % | 87.5 % | 71.5 % | k.A. |
| Mistral Medium 3 | k.A. | k.A. | 57.1 % | 66.1 % |
Stand: August 2025 – Benchmarks nach Angaben der jeweiligen Anbieter.
Werte können sich durch Updates der Modelle ändern.
* Hinweis: Grok wird im Benchmark-Vergleich nicht berücksichtigt. Wie auch die Plattform X ist die aktuelle Ausrichtung des Unternehmens meiner Ansicht nach nicht mehr mit Weltoffenheit, wissenschaftlicher Integrität, Transparenz und demokratischem Diskurs vereinbar. Vor diesem Hintergrund haben auch zahlreiche Universitäten und Forschungseinrichtungen den Rückzug aus X erklärt.
Erklärung Goethe University Frankfurt
Im OpenAI-internen Vergleich zeigen die vorliegenden Benchmarks einen klaren Leistungssprung von GPT-4.1 über das reasoning-optimierte o3 hin zu GPT-5: o3 setzt bereits starke Marken in Coding, Mathe und wissenschaftlichem Reasoning, während GPT-5 in allen gezeigten Disziplinen die Bestwerte setzt und damit den neuen Referenzpunkt bildet.
Im Anbietervergleich bestätigt sich dieses Bild: GPT-5 liegt in den betrachteten Benchmarks vorn. Claude Opus 4.1 ist im realistischen Coding-Test (SWE-Bench Verified) sehr konkurrenzfähig, Gemini 2.5 Pro überzeugt insbesondere in Mathematik und Multimodalität, und DeepSeek R1 zeigt starke Mathe-Resultate.
Was bedeutet das für Nutzer? Die praktische Hürde, „das richtige Modell“ auswählen zu müssen, sinkt: Mit automatischer Modellwahl und stärkeren Reasoning-Fähigkeiten liefert die Plattform zunehmend „passende“ Ergebnisse ohne Tuning. Offen bleibt, wann Wettbewerber mit ähnlichen Konzepten – etwa einer breiten, automatischen Modellselektion – nachziehen. Die Vergangenheit zeigt jedoch, dass solche Ideen häufig zügig von anderen Anbietern übernommen werden.
Benchmarks erklärt
-
SWE-Bench Verified (Coding)
Misst, wie gut ein KI-Modell echte Programmier- und Debugging-Aufgaben aus GitHub-Repositories löst. Die Aufgaben sind menschlich überprüft und spiegeln realistische Softwareentwicklung wider. -
AIME 2025 (Mathe)
Benchmark für hochanspruchsvolles mathematisches Denken. Stellt Aufgaben im Stil von internationalen Mathematik-Wettbewerben und prüft präzises logisches Reasoning. -
GPQA Diamond (Wissen)
Test auf sehr tiefes akademisches Fachwissen. Enthält Fragen aus den Naturwissenschaften, Medizin, Geisteswissenschaften – in der „Diamond“-Variante besonders anspruchsvoll. -
MMMU (Multimodal)
Bewertet das Verständnis von Text und Bildern gleichzeitig. Typische Aufgaben: Bildinterpretation, Diagrammanalyse oder das Kombinieren von visuellen und sprachlichen Informationen.
2 Praktische Anwendungen im wissenschaftlichen Alltag
Aus den technischen Neuerungen von GPT-5 ergeben sich erweiterte Anwendungsmöglichkeiten in der wissenschaftlichen Arbeit. Das größere Kontextfenster ermöglicht es, umfangreiche Literaturbestände in einem Durchgang zu analysieren, während der integrierte Thinking-Modus komplexe Hypothesen über mehrere Argumentationsschritte hinweg konsistent entwickelt. Verbesserte Tool-Integration erlaubt es zudem, datenintensive Analysen und Automatisierungen stabiler umzusetzen, etwa wenn komplette Code-Repositories bearbeitet oder längere Berechnungs- und Auswertungsprozesse ohne Unterbrechung durchgeführt werden.
2.1 Literaturrecherche und Textzusammenfassungen
GPT-5 kann mehr Volltexte gleichzeitig aufnehmen und in einem Durchlauf strukturieren, während man bei früheren Modellen wie GPT-4.1 oder GPT-4o häufiger in Abschnitten arbeiten musste. Der Thinking-Modus hält mehrstufige Argumentationen konsistenter zusammen, z. B. bei These, Gegenposition und Methodenvergleich. Für systematische Recherchen wissenschaftlicher Literatur sind spezialisierte Werkzeuge oft überlegen (z.B. Elicit und SciSpace), da diese speziell für wissenschaftliche Anwendung optimiert und entwickelt wurden. Tools wie DeepResearch von ChatGPT, Perplexity und Claude eigenen sich aber sehr gut, um sich einen Überblick über ein neues Thema zu verschaffen. Die reduzierte Halluzination ist dabei ein sehr großer Fortschritt, den GPT-5 liefert. Es bleibt zu überprüfen, ob die Versprechen von OpenAI in diesem Bereich eingehalten werden können.
2.2 Hypothesen- und Ideengenerierung
Wie GPT-4 kann auch GPT-5 als kreativer Sparringspartner dienen. Neu ist jedoch, dass nun größere Datenmengen direkt einbezogen werden können (z. B. vollständige Preprint-Sammlungen). Der Thinking-Modus ermöglicht es zudem, Hypothesen nicht nur zu formulieren, sondern diese im selben Ablauf auf methodische Schwächen und offene Datenlücken zu prüfen. Personalisierungsoptionen wie „Listener“ oder „Nerd“ erleichtern es, Ton und Tiefe der Analyse an die jeweilige Arbeitssituation anzupassen (OpenAI, 2025).
2.3 Programmieren, Datenorganisation und Analyse
Gegenüber GPT-4.1 und GPT-4o zeigt GPT-5 moderate Fortschritte beim Arbeiten mit Code: stabilere Verarbeitung großer Codebasen, konsistente Funktionsanpassungen und eine höhere Erfolgsquote bei komplexen Bugfixes (vlg. Benchmarks in Kap. 1.7.). Praktisch bedeutet das zum Beispiel, dass GPT-5 längere Analyse-Skripte in einem Stück verarbeiten kann, ohne den Zusammenhang zu verlieren. Bei der Einrichtung von Simulationen kann es Parameter präziser festlegen, indem es die einzelnen Schritte vorab plant. Auch bei der Erstellung von Diagrammen und Abbildungen hält es Publikationsstandards konsistenter ein – etwa einheitliche Achsenbeschriftungen, Maßstäben oder Formatierungen.
2.4 Automatisierung von Routineaufgaben
GPT-4/4o konnten bereits Tools über Function Calling ansteuern; GPT-5 integriert nun stabilere Agentic Capabilities mit mehrstufigen Tool-Ketten, die automatisch ablaufen können (z. B. PDF-Download → Zusammenfassung → Termineintrag) (ChatGPT Agent (OpenAI), 17.07.2025, GPT-5 für Entwickler (OpenAI)).
Bei der Nutzung von der agentischen Funktionen von GPT‑5 können Prozesse nicht nur völlig eigenständig ablaufen, sondern dabei auch Daten externer Quellen zugreifen und weiterverarbeiten. Funktionen wie Web-Browsing, Tool-Ketten oder Kalender‑Aktionen laufen häufig über Cloud-Server – das heißt: Eingaben könnten von OpenAI oder Drittanbietern eingesehen, gespeichert, oder zur Weiterverarbeitung genutzt werden. Besonders bei agentic Workflows, die Dienste wie Gmail, Drive oder andere Anwendungen betätigen können, besteht die Gefahr, dass sensible Daten von der KI eingesehen werden, dabei kann die KI evtl. auch auf sensible Informationen wie Kalender, Browserverlauf oder Kreditkartendaten zugreifen, ohne dass die Benutzer:in dies immer bewusst kontrolliert (siehe auch Kapitel 3 „Datenschutz“).
2.5 Lern- und Lehrunterstützung
Der Study Mode (neu seit Juli 2025) bietet eine geführte, adaptive Lernumgebung mit Verständnisfragen, Zwischenübungen und individuellen Erklärungen — ein konsistenter Lern-Flow, der über die bloße Antwortgenerierung früherer Modelle hinausgeht (OpenAI Ankündigung).
Insbesondere bei der Nutzung des Study Mode sollte beachtet werden, dass es sich trotz der reduzierten Halluzinationsrate in GPT-5 weiterhin um ein Large Language Model handelt, das nicht frei von Fehlern ist. Neben faktischen Ungenauigkeiten und Fehlern (Halluzinationen) können andere Arten von Verzerrungen auftreten: Trainings-Biases entstehen beispielsweise aus den Inhalten der Trainingsdaten, die bestimmte kulturelle, sprachliche oder thematische Schwerpunkte enthalten und so einzelne Perspektiven bevorzugen können. Algorithmische Biases resultieren aus der Funktionsweise des Modells selbst – etwa aus der Gewichtung bestimmter Informationen, der Struktur der neuronalen Netze oder den Optimierungszielen –, was ebenfalls zu systematischen Bevorzugungen oder Auslassungen führen kann.
Alle generierten Inhalte sollten deshalb kritisch geprüft und nicht ungefiltert in Prüfungsleistungen, Forschungsarbeiten oder Veröffentlichungen übernommen werden.
2.6 Grenzen
GPT-5 hat die Halluzinationsrate im Vergleich zu GPT-4.1 und GPT-4o merklich reduziert (u. a. durch verbesserte interne Konsistenzprüfungen im Thinking-Modus), dennoch können falsche oder erfundene Inhalte auftreten. Dies ist relevant für jede Situation, in der verlässliche Daten entscheidend sind — etwa bei der Angabe von Messwerten, statistischen Kennzahlen, Literatur- und Quellenangaben oder exakten Definitionen.
Weitere bekannte Schwächen:
- Genauigkeit bei Zeichenfolgen: GPT-5 kann in seltenen Fällen einzelne Zeichen oder Symbole in langen, exakten Sequenzen verändern oder vertauschen (z. B. DNA-Basenfolgen, Programmcode in sensiblen Bereichen, kryptografische Schlüssel, Hex/Binär-Strings).
- Fachliche Ungenauigkeiten: Trotz Thinking-Modus sind inhaltliche Fehler möglich — z. B. durch veraltete Quellen, falsche Interpretationen, inkorrekte Schlussfolgerungen oder Haluzinationen. Fachlich relevante Resultate sollten stets unabhängig überprüft werden.
2.7 Kritik an Lizenzverträgen und Mediendeals
OpenAI hat zwischen 2023 und 2025 mit zahlreichen Medienhäusern Lizenzverträge abgeschlossen, darunter Axel Springer (Bild, Welt, Politico), News Corp (Wall Street Journal, The Times), Financial Times, Vox Media, The Atlantic, TIME und Condé Nast (Digiday, 2024).
Politisch decken diese Partner ein breites Spektrum ab (von konservativ/marktwirtschaftlich bis progressiv/liberal); eine eindeutige Bevorzugung einer Richtung lässt sich daraus nicht ableiten. Im Deutschsprachigen Raum scheint es aber mit Axel Springer einen starken Fokus auf ein konservatives Medienspektrum zu geben. Kritisiert werden außerdem fehlende Transparenz bei Vertragsdetails, mangelnde Einbindung von Redaktionen und mögliche Auswirkungen auf den Traffic von Nachrichten-Webseiten (Ars Technica, 2024, Wired, 2024).
Mehrere Medienhäuser haben zudem juristische Schritte gegen OpenAI eingeleitet, da sie ihre Urheberrechte verletzt sehen. Den Unternehmen zufolge habe OpenAI Inhalte ohne Genehmigung genutzt, um seine Modelle zu trainieren oder direkt in ChatGPT auszugeben. Besonders prominent ist die Klage der New York Times, die im Dezember 2023 eingereicht wurde und sich gegen die unerlaubte Verwendung urheberrechtlich geschützter Artikel richtet (NYT Coverage). In Kanada läuft eine Sammelklage der Aldean Times Group und weiterer Publisher mit ähnlichen Vorwürfen (AP, 2024). In den USA hat zudem die Muttergesellschaft des Chicago Tribune, Alden Global Capital, Klage eingereicht; der Vorwurf lautet, OpenAI habe Artikel in großem Umfang ohne Lizenz in seine Trainingsdaten übernommen, was urheberrechtliche Verstöße und wirtschaftliche Schäden verursache (Reuters, 2024).
3 Datenschutz bei der Nutzung von ChatGPT-5 (Stand: August 2025)
Der Einsatz generativer KI im Forschungsumfeld erfordert besondere Sorgfalt beim Umgang mit sensiblen Daten. Grundsätzlich gilt: Auch mit GPT-5 haben sich die rechtlichen Rahmenbedingungen nicht grundlegend verändert – bestehende Regeln behalten ihre Gültigkeit, die größere Leistungsfähigkeit des Modells macht ihre Beachtung jedoch praktischer relevanter.
3.1 Datenspeicherung und Transparenz
ChatGPT speichert Eingaben (Prompts, Antworten, hochgeladene Dateien), Kontodaten (z. B. Name, E-Mail, IP-Adresse) sowie Nutzungsinformationen. In Standard- und Pro-Plänen ist die Verwendung für Modelltraining und Qualitätskontrolle ohne aktives Opt-out aktiviert. Zudem können Inhalte im Rahmen von Gerichtsverfahren herausgegeben werden (z. B. im laufenden Verfahren New York Times vs. OpenAI, 2025).
3.2 Risiken und rechtlicher Rahmen
Die Nutzung bewegt sich im Spannungsfeld verschiedener Rechtsordnungen. In Europa ist die Datenschutz-Grundverordnung (DSGVO) maßgeblich, die strenge Anforderungen an Verarbeitung, Speicherung und Übermittlung personenbezogener Daten stellt. In den USA und anderen Regionen gelten abweichende Standards; zusätzlich greifen nationale Gesetze sowie instituts- und förderrechtliche Vorgaben.
Zentrale Risiken einer unkritischen Nutzung sind:
-
Offenlegung sensibler Informationen: Hochgeladene Forschungsdaten können zu internen Prüf- oder rechtlichen Zwecken eingesehen werden.
-
Re-Identifizierung: Auch pseudonymisierte Daten können durch Zusatzinformationen rückführbar sein.
-
Rechtliche Konsequenzen: Verstöße gegen Datenschutzrecht können Bußgelder, Auflagen oder Publikationsprobleme nach sich ziehen.
-
Reputationsschäden: Fehlender Schutz kann das Vertrauen von Teilnehmenden, Partnern oder Förderern untergraben.
Mit GPT-5 treten diese Risiken nicht neu auf, sie gewinnen aber an Bedeutung: Das größere Kontextfenster erleichtert zwar die Arbeit mit kompletten Manuskripten oder Datensätzen, erhöht zugleich aber die Gefahr, versehentlich große Datenmengen offenzulegen. Ebenso ermöglicht die stabilere Tool-Integration automatisierte Abläufe, bei denen Daten an mehrere Dienste weitergegeben werden können – was die Nachvollziehbarkeit erschwert.
3.3 Praxisleitlinien
Institutionelle Leitfäden (z. B. von Hochschulen oder Fachgesellschaften) empfehlen, bei der Nutzung von ChatGPT-5 im Forschungsumfeld folgende Punkte zu beachten:
-
Nur geeignete Daten hochladen: Öffentliche und unkritische Inhalte sind meist unproblematisch. Bei sensiblen Daten (Gesundheits-, Finanz- oder Bildungsinformationen) ist vorher eine ausdrückliche Genehmigung einzuholen.
-
Anonymisierung prüfen: Vertrauliche Inhalte sollten vor dem Upload anonymisiert oder pseudonymisiert werden, soweit dies möglich ist.
-
Geistiges Eigentum schützen: Beim Hochladen unveröffentlichter Texte oder Projektdaten sollte das Risiko sorgfältig abgewogen werden. Wichtige Faktoren sind:
-
Öffentlichkeitsgrad (frei zugänglich oder vertraulich?)
-
Schutzwürdigkeit (patentierbare Ergebnisse oder neue Verfahren?)
-
Vertrags- und Förderauflagen (bestehen Geheimhaltungspflichten?)
-
Datengehalt (sensible Rohdaten oder proprietäre Informationen?)
Je mehr dieser Faktoren auf „hoch riskant“ hindeuten, desto eher sollten Inhalte nicht in öffentliche KI-Dienste hochgeladen werden.
-
-
Dokumentation sicherstellen: Der Einsatz von KI sollte nachvollziehbar dokumentiert werden – im Sinne von Transparenz und guter wissenschaftlicher Praxis.
4 Gute wissenschaftliche Praxis und KI
Der Einsatz von KI in Forschung und Lehre muss den Grundsätzen der guten wissenschaftlichen Praxis (GWP) entsprechen. Hochschulen, Forschungsförderer und Fachgesellschaften haben hierzu verbindliche Leitlinien veröffentlicht. Neben der Deutschen Forschungsgemeinschaft (DFG) und der US-amerikanischen National Science Foundation (NSF) setzen auch EU-geförderte Projekte wie Horizon Europe verbindliche Regeln: Offenlegungspflicht, Schutz sensibler Daten und Sicherstellung menschlicher Kontrolle. Auch beim Thema GWP hat sich durch GPT-5 nichts Maßgebliches verändert. GWP ist und bleibt ein wichtiges Querschnittsthema, insbesondere, wenn Wissenschaftler:innen mit KI arbeiten.
In der wissenschaftlichen Publikationspraxis herrscht ein klarer Konsens: Kein peer-reviewed Journal erlaubt KI-Tools wie ChatGPT als Autor:innen. Der Grund ist, dass KI weder Verantwortung übernehmen noch Autor:innenpflichten erfüllen kann. Führende Verlage und Ethikorganisationen fordern, dass der Einsatz von KI im Manuskript transparent angegeben wird. In allen Fällen muss die Nutzung von KI – etwa zur Texterstellung, Sprachüberarbeitung oder Datenanalyse – im Methoden- oder einem anderen geeigneten Abschnitt dokumentiert werden.
4.1 Grundprinzipien
Die DFG betont, dass generative Modelle in Forschungsvorhaben eingesetzt werden dürfen, wenn ihre Nutzung transparent offengelegt wird (DFG-Stellungnahme). Offenlegung bedeutet: Modellname (z. B. ChatGPT-5), Version, Datum der Nutzung und Zweck sind in Methodenteil oder Danksagung anzugeben. Die Verantwortung für Inhalt, Methodik und Schlussfolgerungen liegt immer bei den beteiligten Forschenden; KI ist nicht als Mitautor zulässig.
Der Einsatz generativer KI ist in Anträgen gestattet, aber in Begutachtungsverfahren und Peer-Reviews untersagt, um die Vertraulichkeit zu wahren. Zudem darf KI-Nutzung nicht zu Urheberrechtsverletzungen oder wissenschaftlichem Fehlverhalten führen. Internationale Richtlinien wie die der NSF ergänzen dies: Gutachter:innen dürfen keine Teile von Vorschlägen in nicht genehmigte KI-Dienste hochladen (NSF-Mitteilung).
4.2 Anforderungen an Forschende
- Transparenz: Offenlegung von Modell, Version, Datum und Zweck in Methoden- oder Danksagungsteil (GWP-Leitlinien 12 & 13, DFG-Kodex).
- Verifikation: Sämtliche von KI erzeugten Fakten, Formeln, Zitate und Referenzen müssen geprüft und mit Primärquellen abgesichert werden.
- Plagiats- und Textähnlichkeiten: KI-Text gilt juristisch meist nicht als Plagiat, kann jedoch bestehenden Publikationen ähneln oder falsche Quellen enthalten. Daher sind Ausgaben auf inhaltliche Überschneidungen, Textähnlichkeiten und die Korrektheit der Quellen zu prüfen.
- Datenschutz: Nur anonymisierte oder öffentliche Daten hochladen; keine vertraulichen Manuskripte, Anträge oder Patient:innendaten verarbeiten.
- Reflexion und Weiterbildung: Regelmäßige Schulungen zum verantwortungsvollen KI-Einsatz (z. B. Prompt-Design, Limitationen, Fehlermanagement) durchführen (MSU Interim Guidance, UIUC Best Practices).
4.3 GPT-5-spezifische Anforderungen
Die neuen technischen Möglichkeiten von GPT-5 (größeres Kontextfenster, Thinking-Modus, stabilere Tool-Integration) verändern die Grundprinzipien der guten wissenschaftlichen Praxis nicht. Transparenz, Verifikation, Datenschutz und Dokumentation bleiben unverändert gültig. Neu ist lediglich, dass bestehende Anforderungen in größerem Umfang oder in komplexeren Workflows umgesetzt werden müssen:
- Größeres Kontextfenster: Erlaubt die Verarbeitung umfangreicherer Texte und Datensätze in einem Schritt. Das erhöht die Tragweite möglicher Verstöße oder Fehler, ändert aber nicht die zugrunde liegenden Pflichten.
- Thinking-Modus: Unterstützt komplexere Analysen, die eine präzisere Dokumentation von Eingaben, Zwischenschritten und verwendeten Tools erfordern.
- Stabilere Tool-Integration: Erleichtert die Umsetzung automatisierter Workflows und damit auch die Dokumentation; gleichzeitig ist eine kritische Prüfung aller automatisierten Ergebnisse erforderlich.
4.5 Generelle Praxisempfehlungen für die Arbeit mit KI
- Offenlegen (Tool, Version, Datum, Zweck) in Publikationen und Anträgen.
- Prompts und Roh-Outputs revisionssicher archivieren.
- KI-Ausgaben kritisch prüfen und durch Primärquellen verifizieren.
- Keine vertraulichen oder nicht freigegebenen Dokumente hochladen.
- Urheberrechtliche Fragen bei KI-Outputs klären, bevor diese veröffentlicht werden.
- Institutionelle und journalspezifische Policies regelmäßig prüfen und einhalten.
Schlussfolgerung: GWP und GPT-5
Mit GPT-5 ergeben sich keine wesentlichen Änderungen bei der Umsetzung der Grundprinzipien der guten wissenschaftlichen Praxis. Bestehende Anforderungen wie Transparenz, Verifikation, Datenschutz und Dokumentation bleiben unverändert. Der größere Funktionsumfang – etwa das erweiterte Kontextfenster, der integrierte Thinking-Modus und die stabilere Tool-Integration – kann in bestimmten Workflows eine sorgfältigere Anwendung dieser Prinzipien erfordern, führt aber nicht zu neuen oder geänderten Grundpflichten.
Quellen und Richtlinien (Auswahl)
- DFG-Stellungnahme „Textgenerierende KI und gute wissenschaftliche Praxis“ (2023)
- NSF Notice on the Use of Generative AI in the Proposal Process (2023)
- GWP-Leitlinien 12 & 13, DFG-Kodex (Ombudsgremium)
- Interim Guidance on Generative AI in Research (MSU, 2024)
- Best Practices in Using Generative AI in Research (UIUC)
- COPE Position Statement: Authorship and AI Tools
- Nature Portfolio – Editorial policies for AI
- Science Journals – Editorial Policies
5 Tipps zur effektiven Nutzung und zum Prompting mit GPT-5
Die Qualität der Ergebnisse von GPT-5 hängt stark von der Formulierung der Anfrage ab. Zwar ist das Modell flexibler als seine Vorgänger, doch gutes Prompt-Design bleibt entscheidend. Die folgenden praxisnahen Strategien helfen präzise und reproduzierbare Ergebnisse zu erzielen.
5.1 Kontext und Klarheit
Formulieren Sie Ihre Aufgabe präzise und geben Sie alle relevanten Informationen mit. Dank des großen Kontextfensters (Kontextfenster bis zu 400 000 Tokens – kombiniert aus Eingabe + Reasoning/Output; maximale Ausgabelänge 128 000 Tokens, Quelle: OpenAI) können Sie nun ganze Artikelserien oder umfangreiche Datensätze in einem einzigen Prompt analysieren lassen, ohne sie in Teile zu splitten.
Beispiel:
Analysiere die Abstracts der beigefügten 40 Artikel über Topologie und fasse die wichtigsten Konzepte in drei Sätzen zusammen.
Nutzen: GPT-5 kann die kompletten Abstracts in einem Durchlauf verarbeiten. In GPT-4o oder GPT-4.1 wären dafür mehrere Iterationen nötig gewesen.
Zusätzlich interpretiert GPT-5 den wirklichen Willen hinter einem Prompt spürbar besser als frühere Modelle (Verbesserungen bei Instruction-Following und geringere Halluzinationsrate), was die präzise Ausführung komplexer Aufgaben erleichtert (OpenAI System Card, TechRadar).
5.2 Explizites Nachdenken anstoßen
Nutzen Sie den integrierten Thinking-Modus, um mehrstufige Analysen zu fördern. Der Parameter reasoning_effort steuert dabei die Denktiefe:
- Niedriger Wert = kürzere, schnellere Antworten
- Hoher Wert = tiefere, strukturierte Ausarbeitungen
Beispiel:
Führe eine dreistufige Analyse durch: (1) Erläutere den Stand der Forschung zur Nanoplasmonik, (2) identifiziere offene Fragen, (3) denke gründlich darüber nach, welche experimentellen Methoden geeignet wären.
Hinweis: Ein höherer reasoning_effort garantiert nicht automatisch bessere Qualität; Ergebnisse sollten stets kritisch geprüft werden (OpenAI System Card).
5.3 Steuerung der Agentik
GPT-5 kann mehrere Tools sequenziell nutzen und dabei Pläne verfolgen. Steuern Sie diese Prozesse durch klare Anweisungen und Abbruchkriterien.
Beispiel:
Recherchiere die neuesten Studien zu Quantenfehlerkorrektur, fasse sie in einer Tabelle zusammen und beende die Suche, wenn keine relevanten Publikationen der letzten 12 Monate mehr gefunden werden.
Praxis-Tipp: Ein klarer Ablaufplan für den Tool-Einsatz – etwa durch vordefinierte Regeln oder Einschränkungen, sogenannte „Tool-Preambles“ – hilft, unnötige Aktionen zu vermeiden und die Ergebnisse konsistenter zu machen.
5.4 Modellmodi in der ChatGPT-Oberfläche: Auto, Fast & Thinking
In der ChatGPT-5-Oberfläche kannst du zwischen drei Modi wählen:
-
Auto
Standardmodus, bei dem das System automatisch zwischen dem schnellen Fast-Modell und dem tiefer denkenden Thinking-Modell wählt – je nach Komplexität der Aufgabe. Dies basiert auf Signalen wie dem Kontext, Personalisierungspräferenzen, und bisheriger Modell-Performance.
The Times of India+10OpenAI+10TechRadar+10TechRadar -
Fast
Fokus auf Geschwindigkeit – schnelle Antworten mit einfacher Struktur, ideal für kurze Rückfragen oder definierte Aufgaben. -
Thinking
Der Modus investiert mehr Rechenzeit und Kontext, um durch strukturierte Innenlogik (z. B. mehrstufige Schlussfolgerungen, Argumentationsketten) überzeugendere Antworten zu liefern. Besonders sinnvoll bei komplexen Fragestellungen oder Forschungsanalysen.
Kurz erklärt: Was passiert beim Klick auf „Schnelle Antwort anzeigen“?
Während das Modell im Thinking-Modus gerade komplexe Denkprozesse abbildet, kannst du mit dem Link „Schnelle Antwort anzeigen“ eine vorläufige Antwort anfordern – ohne den Denkprozess anzuhalten. Diese erscheint schnell, basiert aber auf dem Fast-Modell, nicht auf dem Nachdenk-Kanal.
Eine offizielle Quelle beschreibt dies technisch so:
-
Bei aktiviertem Thinking-Modus erscheint ein schlanker „Thinking“-Statusbildschirm. Dort gibt es den Button „Get a quick answer“, der die aktuelle Antwort durch die schnelle Variante ersetzt, ohne das laufende Denken zu stoppen.
OpenAI Help Center
Wann nutzt man welchen Modus sinnvoll?
| Einsatzszenario | Empfohlener Modus |
|---|---|
| Alltagsfragen, freie Konversation | Auto |
| Kurze Rückfragen oder Definitionen | Fast |
| Komplexe Recherche/ Analyse | Thinking |
| Bedarf an schneller Teillösung | Den „Schnelle Antwort“-Link im Thinking-Modus nutzen |
| Tiefgehende, präzise Antworten | Thinking, ggf. „Thinking-mini“ nach Nutzungslimit |
Fazit: Was kann das neue GPT-5?
GPT-5 bringt für die wissenschaftliche Nutzung vor allem eine spürbar reduzierte Fehlerrate: Halluzinationen und Verzerrungen treten seltener auf als bei früheren Modellen, bleiben aber bestehen und machen eine kritische Prüfung der Ergebnisse weiterhin unverzichtbar.
Darüber hinaus erleichtert die automatische Modellwahl zwischen schnellen und reasoning-orientierten Modi die Arbeit, da sie Zeit spart und in API-Szenarien auch Kosten reduziert. In Kombination mit der stabileren Tool-Integration lassen sich erstmals durchgängige Workflows abbilden – etwa von der Literaturrecherche über die Datenanalyse bis hin zur Planung von Folgeschritten. Das größere Kontextfenster erweitert den Einsatzbereich auf umfangreiche Texte und Datensätze, verbessert vor allem den Komfort, ist aber eher eine inkrementelle Verbesserung. Die präzisere Intentionserkennung trägt ebenfalls zu einer flüssigeren Nutzung bei, ersetzt jedoch lediglich Schritte, die bisher durch iterative Prompts erreichbar waren.
Im Ergebnis ist GPT-5 damit kein fundamentaler Sprung, sondern eine zielgerichtete Optimierung: Forschung wird verlässlicher, effizienter und anwendungsnäher – ohne dass sich die Grundanforderungen an die Prinzipien guter wissenschaftlicher Praxis und den Datenschutze verändern. Wie auch die Vorgängermodelle ist GPT-5 damit kein Ersatz für Expertise, sondern ein vielseitiges Werkzeug, das Forschung beschleunigen, präzisieren und zugänglicher machen kann.
