Zum Inhalt springen

ChatGPT, Gemini & Co.: Wie evidenzbasiert sind KI-Antworten?

Elias Goeser
Wissenschaftliche Referenz: Accuracy of ChatGPT-3.5, ChatGPT-4o, Copilot, Gemini, Claude, and Perplexity in advising on lumbosacral radicular pain against clinical practice guidelines: cross-sectional study G. Rossettini et al., “Accuracy of ChatGPT-3.5, ChatGPT-4o, Copilot, Gemini, Claude, and Perplexity in advising on lumbosacral radicular pain against clinical practice guidelines: cross-sectional study,” Front. Digit. Health, vol. 7, p. 1574287, Jun. 2025, doi: 10.3389/fdgth.2025.1574287 [1].

Vor ein paar Jahren war es noch Doktor Google, heute sind es ChatGPT, Claude und Google Gemini. Die Nutzung von Large Language Models (LLMs) und KI-gestützten Chatbots in der Gesellschaft hat in den letzten Jahren exponentiell zugenommen. Modelle wie ChatGPT scheinen Informationen schnell und interaktiv bereitzustellen, sowohl für Patient:innen als auch für medizinisches Fachpersonal. In der klinischen Entscheidungsfindung bergen sie möglicherweise Potenzial zur Unterstützung diagnostischer und therapeutischer Überlegungen, gleichzeitig bestehen jedoch substanzielle Risiken für Patientensicherheit und Entscheidungsfindung der Therapiestrategie.

Jetzt Mitglied der DK Academy werden und diesen Artikel weiterlesen

Bereits Mitglied? Jetzt einloggen