Option
Heim
Nachricht
Studie zeigt Herausforderungen bei der Erlangung zuverlässiger Gesundheitsberatung durch Chatbots auf

Studie zeigt Herausforderungen bei der Erlangung zuverlässiger Gesundheitsberatung durch Chatbots auf

10. Oktober 2025
6

Studie zeigt Herausforderungen bei der Erlangung zuverlässiger Gesundheitsberatung durch Chatbots auf

Da die Gesundheitssysteme mit langen Wartezeiten und eskalierenden Kosten zu kämpfen haben, experimentieren immer mehr Patienten mit KI-Chatbots wie ChatGPT, um erste medizinische Ratschläge zu erhalten. Jüngste Daten zeigen, dass etwa 17 % der Erwachsenen in den USA diese Tools jeden Monat für Gesundheitsinformationen nutzen. Neue Forschungsergebnisse deuten jedoch darauf hin, dass diese neue Praxis erhebliche Risiken birgt, insbesondere dann, wenn die Nutzer keinen angemessenen Kontext liefern oder die Antworten der KI falsch interpretieren.

Die von Oxford geleitete Studie zeigte kritische Grenzen bei der effektiven Nutzung von KI für die medizinische Selbsteinschätzung auf. Das Forschungsteam arbeitete mit 1.300 britischen Teilnehmern und präsentierte ihnen von Ärzten entwickelte medizinische Szenarien. Die Teilnehmer versuchten, Diagnosen zu stellen, indem sie entweder KI-Assistenten oder herkömmliche Methoden wie Internetsuchen verwendeten, wobei die Ergebnisse über mehrere KI-Plattformen hinweg beunruhigend waren.

"Wir haben ein grundlegendes Kommunikationsdefizit in beiden Richtungen festgestellt", erklärt Adam Mahdi, Mitautor der Studie vom Oxford Internet Institute. "Die KI-Nutzer zeigten keine besseren Entscheidungsfähigkeiten als diejenigen, die traditionelle Ansätze verwendeten - und in einigen Fällen schnitten sie sogar schlechter ab."

In der Studie wurden drei führende KI-Modelle getestet: GPT-4o von OpenAI (das ChatGPT zugrunde liegt), Command R+ von Cohere und Llama 3 von Meta. Die Ergebnisse zeigten zwei beunruhigende Muster:

  • Teilnehmer, die KI-Tools verwendeten, waren weniger erfolgreich bei der Identifizierung relevanter Gesundheitszustände
  • KI-Interaktionen führten zu einer gefährlichen Unterschätzung des Schweregrads der Erkrankung

Mahdi stellte erhebliche Probleme mit der Qualität der Eingaben und der Interpretation der Ergebnisse fest: "Die Nutzer ließen bei der Formulierung ihrer Fragen oft wichtige medizinische Details aus, während die KI-Antworten häufig korrekte Ratschläge mit problematischen Vorschlägen vermischten." Diese Kombination führte zu besonders gefährlichen Szenarien, in denen die Nutzer unangemessene Entscheidungen in Bezug auf die Gesundheitsversorgung treffen konnten.

Drängen der Industrie vs. medizinische Realitäten

Diese Ergebnisse entstehen in einer Zeit, in der große Technologieunternehmen aggressiv KI-Anwendungen für den Gesundheitsbereich entwickeln:

  • Apple entwickelt Berichten zufolge einen Wellness-Berater für Bewegungs- und Schlafberatung.
  • Amazon analysiert Krankenakten auf soziale Gesundheitsindikatoren
  • Microsoft entwickelt KI-Systeme zur Priorisierung der Patientenkommunikation

Die medizinische Gemeinschaft ist jedoch nach wie vor vorsichtig, was den Einsatz dieser Technologien im klinischen Umfeld angeht. Die American Medical Association warnt Ärzte ausdrücklich vor dem Einsatz von Chatbots zur Entscheidungsunterstützung, eine Warnung, die von den KI-Entwicklern selbst aufgegriffen wird. Die Nutzungsrichtlinien von Open AI verbieten ausdrücklich den Einsatz ihrer Modelle zu Diagnosezwecken.

"Wir raten dringend dazu, verifizierte medizinische Quellen zu konsultieren und nicht die Ergebnisse von Chatbots, wenn es um Entscheidungen im Gesundheitswesen geht", betonte Mahdi. "Vor einem breiten Einsatz müssen diese Systeme rigorosen Tests unter realen Bedingungen unterzogen werden, vergleichbar mit pharmazeutischen Studien.

Fazit

Während KI-Chatbots faszinierende Möglichkeiten bieten, die Gesundheitsversorgung zugänglicher zu machen, weist diese Untersuchung auf erhebliche Risiken bei der derzeitigen Implementierung hin. Während sich die Technologie weiterentwickelt, müssen die Entwickler kritische Lücken in der Zuverlässigkeit schließen, während die Nutzer der medizinischen Beratung durch KI mit der nötigen Skepsis begegnen sollten.

Verwandter Artikel
KI-Rechenzentren könnten bis 2030 200 Milliarden Dollar kosten, Stromnetze belasten KI-Rechenzentren könnten bis 2030 200 Milliarden Dollar kosten, Stromnetze belasten KI-Trainings- und Betriebsrechenzentren könnten bald Millionen von Chips beherbergen, Hunderte von Milliarden kosten und den Strombedarf einer Großstadt erfordern, wenn die Trends anhalten.Eine neue S
Studie zeigt, dass kurze KI-Antworten Halluzinationen erhöhen können Studie zeigt, dass kurze KI-Antworten Halluzinationen erhöhen können Die Anweisung an KI-Chatbots, kurze Antworten zu geben, kann laut einer neuen Studie häufiger zu Halluzinationen führen.Eine aktuelle Studie von Giskard, einem in Paris ansässigen Unternehmen für KI-B
KI-gestützte Lösungen könnten globale Kohlenstoffemissionen erheblich reduzieren KI-gestützte Lösungen könnten globale Kohlenstoffemissionen erheblich reduzieren Eine kürzlich veröffentlichte Studie der London School of Economics und Systemiq zeigt, dass künstliche Intelligenz die globalen Kohlenstoffemissionen erheblich senken könnte, ohne moderne Annehmlichk
Kommentare (0)
0/200
Zurück nach oben
OR