Infografik: Seltene Krankheiten in der Schweiz – Definition, Häufigkeit, betroffene Kinder, geringe Therapieoptionen, gesellschaftliche Kosten

Seltene Krankheiten Schweiz: Wie KI Eltern und Fachpersonen neue Hoffnung gibt

Kürzlich war ich bei einer Veranstaltung zum Thema seltene Krankheiten in der Schweiz – dem Co-Pilot Workshop „Wenn Eltern und Fachpersonen Partner werden“ von OrphanHealthcare.

OrphanHealthcare unterstützt Kinder mit seltenen Krankheiten und deren Familien.

Wie in vielen Bereichen spielte auch hier KI eine wachsende Rolle. Seit fast zwei Jahren betreibt der Förderverein einen Chatbot Seltene Krankheiten oder Rare Diseases genannt Cuba’s Academy.

Im Workshop sprachen betroffene Eltern und Fachleute. In Gruppen wurden Checklisten erarbeitet, Vertrauen in KI-Resultate diskutiert und Erfahrungen geteilt. Für Eltern und medizinische Expertinnen war klar: KI kann helfen, wenn die Daten stimmen.

Das Bewusstsein, dass KI im Gesundheitswesen und bei Orphan Drugs Fortschritte macht, war bei allen spürbar. Die Chancen und Herausforderungen sind jedoch immer noch enorm.


Was sind seltene Krankheiten?

Seltene Krankheiten (SK) betreffen in der Schweiz rund 350’000 Kinder. Eine Krankheit gilt als selten, wenn weniger als 5 von 10’000 Menschen betroffen sind (European Commission, Bundesamt für Gesundheit).

Viele Krankheiten bleiben lange unerkannt oder werden falsch diagnostiziert. Das verursacht Leid, hohe Kosten und Belastungen für Familien.

Nur etwa 6 % der seltenen Krankheiten haben eine zugelassene Therapie. Forschung, Datenzugang und internationale Kooperationen sind entscheidend.

Der Förderverein OpenHealthcare (FOHC) setzt hier an. Er fördert Forschung und Vernetzung, um Versorgungslücken zu schliessen und langfristig Gesundheitskosten zu senken.

Prävention, Früherkennung und digitale Lösungen sind der Schlüssel für ein effizienteres Health Care Management.

Die Schweiz hat, wie das Bundesamt für Gesundheit festhält, noch Nachholbedarf in diesem Bereich.


1️⃣ Seltene Krankheiten Schweiz: Kann KI helfen?

Seit Turing’s Artikel von 1950 ist Artificial Intelligence ein zentrales Thema. Large Language Models (LLMs) verarbeiten grosse Datenmengen und erzeugen Antworten nach statistischer Wahrscheinlichkeit.

Gemäss Russel & Norvig (2010) gibt es vier Arten von KI: menschliches Denken, rationales Denken, menschliches Handeln und rationales Handeln. Rationales Handeln spielt bei Generativer KI eine Rolle – maschinelles Lernen, das neue Daten erzeugt. KI kann Muster in Daten erkennen und dadurch Diagnose und Behandlung unterstützen.

Heute kennen 97 % der Schweizer Bevölkerung generative KI wie ChatGPT, Gemini oder Claude. 73 % der Schweizerinnen und Schweizer haben diese Chatbots bereits mindestens einmal genutzt – ein internationaler Spitzenwert. Siehe mehr Infos zur Studie sowie Download der Studie (Grafik unten)

Generative KI Nutzung Schweiz 2025: 97% kennen Chatbots wie ChatGPT, 73% haben sie genutzt. Relevanz für Gesundheits-Chatbots von OrphanHealthcare.

Generative KI in der Schweiz 2025: 97 % der Bevölkerung kennt Chatbots wie ChatGPT, Gemini oder Claude. 73 % haben sie mindestens einmal genutzt. Diese hohe Nutzung unterstreicht die Bedeutung spezialisierter Gesundheits-Chatbots wie Cuba’s Academy von OrphanHealthcare. Quelle: Universität Zürich – WIP-CH

Die hohe Verbreitung zeigt: Auch bei spezialisierten Anwendungen wie dem Cuba’s Academy Chatbot profitieren Eltern und Fachpersonen von der wachsenden Vertrautheit mit KI-Systemen. Diagnosen können schneller überprüft, relevante Studien gefunden und der Austausch zwischen Familien und medizinischem Personal unterstützt werden.

Im Workshop „Co-Pilot – Wenn Eltern und Fachpersonen Partner werden“ sprachen betroffene Eltern und Fachleute. Checklisten wurden erarbeitet, Vertrauen in KI-Resultate diskutiert und Erfahrungen geteilt. Für Eltern und medizinische Expertinnen war klar: KI kann helfen, wenn die Daten stimmen.

Das Bewusstsein, dass KI im Gesundheitswesen und bei Orphan Drugs Fortschritte macht, war bei allen spürbar. Die Chancen und Herausforderungen bleiben jedoch enorm.


2️⃣ Seltene Krankheiten Schweiz: Datenqualität entscheidet bei der KI

Die Achillesferse der KI sind die Daten. Nur korrekte Daten führen zu verlässlichen Ergebnissen. Schon in den 1990er Jahren zeigte Raymond Panko, dass bis zu 10 % der Zellen in Kalkulationstabellen Fehler enthielten. Solche Ungenauigkeiten mindern die Verlässlichkeit – auch bei KI.

🇦🇺 Beispiel Australien – Consulting: Das australische Bundesamt für Beschäftigung und Arbeitsbeziehungen (Department of Employment and Workplace Relations) wies 2024 Deloitte nach, dass ein Bericht mit KI-Elementen Fehler enthielt.

KI-Halluzinationen führten zu falschen Zitierungen und der Erwähnung von nicht existierenden Studien von Forschenden der Universitäten Sydney und Lund (Schweden).

Auch im Gesundheitswesen sind solche Fehler möglich (5 Fehlerquellen für Algorithmen). Besonders kritisch ist das, wenn es um Leben geht.

🇳🇱 Beispiel Niederlande – Wahlen: Die Datenschutzbehörde führte ein Experiment durch, bei dem sie ChatGPT, Mistral, Grok und Gemini um Wahlberatung für die Parlamentswahlen vom 29. Oktober 2025 bat.

Zwei Parteien – die Allianz aus Grünen und Sozialdemokraten sowie die rechtsextreme Partei für die Freiheit – wurden unabhängig von den Präferenzen der Nutzer:innen immer wieder vorgeschlagen [Autoriteit Persoonsgegevens, 21. Oktober 2025]. Die Zentrumspartei D66 lag dabei auffällig oft an erster Stelle.

Die niederländische Datenschutzbehörde warnte, dass die Empfehlungen der Chatbots „unzuverlässig und eindeutig voreingenommen“ seien. „Chatbots verfehlen ihr Ziel“, erklärte die stellvertretende Vorsitzende Monique Verdier.

Modelle, die nach dem 2. August 2025 veröffentlicht wurden, könnten gemäss EU AI Act als „Systeme mit systemischem Risiko“ eingestuft werden, wenn sie eine Rechenleistung von über 10²⁵ FLOPs erreichen. Chatbots, die Wahlentscheidungen beeinflussen, würden dann unter die Kategorie high risk fallen – mit deutlich strengeren Vorschriften.

KI-Unternehmen erklärten zwar, sie unterstützten keine Wahlempfehlungen – doch in 99,9 % der 21 000 Testabfragen antworteten die Systeme trotzdem mit konkreten Parteiempfehlungen.

Ob bei Wahlen oder im Gesundheitswesen – die Lehre ist dieselbe: Wenn Daten verzerrt oder Bewertungslogiken intransparent sind, kann KI bestehende Ungleichheiten nicht abbauen, sondern verstärken. Genau das zeigt auch das nächste Beispiel aus dem Gesundheitsbereich.


3️⃣ Algorithmen und Fairness: Transparenz

Das National Liver Offering Scheme (NLOS) im Vereinigten Königreich (UK) soll Entscheidungen bei Organtransplantationen fairer machen. Jedes Mal, wenn eine Spenderleber verfügbar wird, berechnet der Algorithmus eine Punktzahl für alle Patient:innen auf der Warteliste.

Die Punktzahl basiert auf 28 Variablen – 7 vom Spender und 21 vom Empfänger. Auf dieser Grundlage entscheidet das System, wer an die Spitze der Liste kommt.

Doch Studien wie Attia et al. (2023) zeigen: Algorithmen sind nicht neutral (siehe auch unseren ersten Bericht zu diesem Thema). Der Algorithmus benachteiligt jüngere Patient:innen auf der Warteliste durch:

  • Altersverzerrung: Unter 45-Jährige erhalten schlechtere Bewertungen, obwohl sie bessere Überlebenschancen haben.
  • Fehlerhaftes Ziel: Bewertet wird nur die Sterblichkeit nach fünf Jahren, nicht die Lebensqualität.
  • Unrealistischer Vergleich: Die Todesrate auf der Warteliste wird künstlich ausgeglichen.

Der Zweck solcher Algorithmen ist Fairness – doch wenn Daten oder Gewichtungen verzerrt sind, entstehen neue Ungerechtigkeiten. Transparenz bleibt der Schlüssel.

Mehr dazu im Financial Times Bericht und im Lancet Kommentar.


4️⃣ Gesundheits-Chatbots und seltene Krankheiten: Wie gute Usability Vertrauen schafft

Eine aktuelle Studie des Oxford Internet Institute zeigt beunruhigende Mängel. Nutzer haben Schwierigkeiten, Gesundheits-Chatbots effektiv zu verwenden.

1.298 Teilnehmer nahmen an einer randomisierten, kontrollierten Studie teil. Sie sollten Chatbots für 10 medizinische Szenarien nutzen, darunter akute Kopfschmerzen, Knochenbrüche und Lungenentzündung.

Die Aufgabe: den Gesundheitszustand identifizieren und eine empfohlene Vorgehensweise finden. Drei Chatbots wurden getestet: GPT-4o von OpenAI, Llama 3 von Meta und Command R+ von Cohere.

Direkt eingegebene Szenarien wurden von den Chatbots zu 94,9 % korrekt identifiziert. Die Modelle funktionierten also technisch einwandfrei.

Die Teilnehmer lieferten jedoch unvollständige Eingaben. Die Chatbots interpretierten sie oft falsch. Die Erfolgsquote sank auf nur 34,5 %.

Seltene Krankheiten Schweiz – Vater und Tochter auf Vespa: Symbol für Vertrauen und Menschlichkeit in der digitalen Medizin. Veranstaltung Co-Pilot Workshop OrphanHealthcare, 30. Oktober 2025.

Notiz: Die Eltern werden zu Experten um ihre Kinder mit seltener Krankhgeit zu unterstützen

Schlimmer noch: Eine Kontrollgruppe, die keine Chatbots nutzte, sondern normale Suchmaschinen, schnitt in einigen Szenarien besser ab.

Die Ergebnisse bedeuten nicht, dass Chatbots für Gesundheitsratschläge unbrauchbar sind. Sie zeigen aber: Designer müssen stärker berücksichtigen, wie normale Menschen ihre Dienste nutzen.

Oft wird angenommen, dass Fehlfunktionen die Schuld der Nutzer sind. Besser ist, die technologischen Fähigkeiten der Menschen zu verstehen und das Design darauf abzustimmen. Usability (Nutzbarkeit) und Usefulness (Nützlichkeit) können durch die Beobachtung der Nutzung eines Chatbots geprüft und optimiert werden.

Dies ist umso wichtiger, da auch eine Studie die weit verbreitete Annahme widerlegte, dass Nutzer:innen KI mehr Vertrauen in die Resultate geben, wenn sie besser verstehen, wie das Modell arbeitet oder Prognosen erstellt.

Der grössere Einflussfaktor in Sachen AI Trust war das Ergebnis-Feedback, also ob die Vorhersagen der KI richtig oder falsch waren. Beispiele sind die Wettervorhersagen mit KI wie Google Cast oder aber eine korrekte Diagnose des Chatbot dank den richtigen Prompts. 

🇨🇭Beispiel: – Chatbot Seltene Krankheiten: Der Chatbot Cuba’s Academy – Rare Diseases – Seltene Krankheiten Schweiz wurde gezielt mit Hilfe von Nutzerfeedback weiterentwickelt.

Die Art der Nutzung und typische Fragestellungen von Eltern und Fachpersonen wurden berücksichtigt, um die Resultate für Nutzer:innen zu optimieren.

Mehr zur Verwendung von KI und Data Analytics lesen Sie hier.

🌱 Up to date mit DrKPI:
KI, KMU, Strategie und Trends – kompakt erklärt.
Jetzt Newsletter abonnieren und keine Insights mehr verpassen!



📌 Zusammenfassung und Ausblick

Seltene Krankheiten erfordern Geduld, Wissen und Zusammenarbeit. KI kann Eltern und Fachpersonen unterstützen, ersetzt aber nicht die Empathie und Erfahrung, die Betroffene brauchen.

Ebenfalls muss die Arbeit der KI Systeme auf deren Korrektheit überprüft werden. Ansonsten z.B. Halluzination einem einen Streich spielen kann (siehe Deloitte Beispiel oben).

Gesundheits-Chatbots haben enormes Potenzial, doch nur, wenn Nutzer (Patienten, Familien, Gesundheitspersonal) die Systeme korrekt bedienen. Schulungen, intuitive Interfaces und Unterstützung durch Fachpersonen sind entscheidend.

Ergebnis-Feedback über seltene Krankheiten oder Rare Diseases schafft Trust in AI / Vertrauen in KI (5 Faktoren zur Sicherung von AI Trust – KI Vertrauen). Nur vertrauenswürdige KI bringt die Unterstützung für Kinder mit seltenen Krankheiten und deren Familien welche diese dringend brauchen.

KI kann Eltern und Fachpersonen bei seltenen Krankheiten unterstützen – wenn Technologie, Menschlichkeit und Datenqualität zusammenkommenErfahren Sie mehr bei OrphanHealthcare.

Über den Autor:
Der Autor ist Vize-Präsident und Mitgründer des Fördervereins OpenHealthcare (FOHC) und engagiert sich für Familien mit seltenen Krankheiten in der Schweiz.

❤️ Unterstützen Sie OrphanHealthcare
Jede Spende hilft Familien mit seltenen Krankheiten in der Schweiz.

📜 DrKPI CyTRAP AI-Verantwortlichkeitserklärung

Dieser Beitrag wurde mit KI-Unterstützung erstellt. Eigene Recherchen, Erfahrungen und Entwürfe bildeten die Grundlage.

KI diente als Schreibassistenz, nicht als Ghostwriter. Keine Fakten wurden erfunden, keine Quellen konstruiert.

Der Autor hat alle Inhalte geprüft und verantwortet die Aussagen. Das ist für uns: ethisch und transparent mit KI arbeiten.

Beitrag teilen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Überblick

Erhalten Sie jetzt unseren Newsletter!