2025年08月10日 / ライフスタイル

Falsche Diätvorschläge von KI führen zu „Bromidvergiftung“! Die Falle der „Salzreduktion“: Psychische Symptome durch Ernährungsberatung von KI bis zum Auftreten

Falsche Diätvorschläge von KI führen zu „Bromidvergiftung“! Die Falle der „Salzreduktion“: Psychische Symptome durch Ernährungsberatung von KI bis zum Auftreten

1. Umrisse des Vorfalls——Der Irrweg begann mit "Salzreduktion"

Am 8. August (Ortszeit) berichtete das Wissenschaftsmedium Live Science, dass ein 60-jähriger Mann nach einer Ernährungsberatung durch ChatGPT das Salz durch Natriumbromid (NaBr) ersetzte und daraufhin das seltene Intoxikationssyndrom "Bromismus" entwickelte. Der Fallbericht wurde in den Annals of Internal Medicine: Clinical Cases (AIMCC) veröffentlicht. Der Mann nahm über drei Monate NaBr ein und entwickelte schließlich psychische Symptome wie Verfolgungswahn und Halluzinationen, was zu einem Krankenhausaufenthalt führte.American College of Physicians Journals


2. Was ist passiert?——Ein "Fehler" in den Testergebnissen und psychische Symptome

Im Krankenhaus führte zunächst ein Bluttest zu Verwirrung. Bromidionen werden bei gängigen Elektrolytmessungen leicht als Chloridionen erfasst, was zu einer scheinbaren Hyperchlorämie (Pseudo-Hyperchlorämie) führt. Dies verzerrt das Gesamtbild der Elektrolytstörungen, weshalb die Kliniker oft Zeit benötigen, um die Ursache zu klären. Der Mann zeigte neben Wahnvorstellungen und Halluzinationen auch instabile Stimmung und Desorientierung, was eine psychiatrische Intervention erforderte. Die Symptome besserten sich jedoch durch Flüssigkeitszufuhr, Elektrolytkorrektur und Antipsychotika.


3. Was ist Bromismus?——Warum tritt eine "Krankheit des frühen 20. Jahrhunderts" jetzt auf?

Bromsalze wurden Anfang des 20. Jahrhunderts weit verbreitet als Beruhigungsmittel eingesetzt und waren dafür bekannt, bei chronischer Vergiftung neuro-psychiatrische Symptome zu verursachen. In der heutigen Zeit ist die Verwendung als Medikament nahezu verschwunden, und Fälle sind selten. Doch wie in diesem Fall könnte die Wiederbelebung einer "klassischen Vergiftung" durch Nahrungsergänzungsmittel oder alternative Anwendungen auftreten. Live Science weist auch darauf hin, dass "historisch gesehen eine Überdosierung von bromhaltigen Medikamenten damit in Verbindung gebracht wurde".


4. Warum kam es zu der Idee "Salz→Brom"?

Brom (Br) steht im Periodensystem neben Chlor (Cl). Obwohl sie chemisch "ähnlich" sind, sind ihre Kontexte in Ernährung und Physiologie völlig unterschiedlich. Während Brom in der Pooldesinfektion und industriellen Anwendungen als "Ersatz für Cl" erscheinen mag, ist ein Austausch am Esstisch völlig ausgeschlossen. Der Bericht besagt, dass der Mann Informationen über die Reduzierung von Chlorid las und NaBr auf der Grundlage von Interaktionen mit der KI erwarb und verwendete. Dies ist ein typisches Beispiel für eine Fehlanwendung durch dekontextualisierten "Ersatz".The Independent


5. Medienberichte und Kommentare der Entwickler

Live Science zitierte einen Kommentar von OpenAI: "ChatGPT ist kein Ersatz für professionelle medizinische Beratung. Es ist darauf trainiert, Benutzer zu ermutigen, sich an Fachleute zu wenden." Mehrere internationale Medien und große Websites berichteten ebenfalls über den Fall und betonten die Absurdität des Falls und die Gefahren der Abhängigkeit von KI.The IndependentYahoo!


6. Reaktionen in den sozialen Medien——Kritik, Ironie und eine nüchterne Perspektive

Auf X (ehemals Twitter) und Reddit verbreitete sich der Artikel unmittelbar nach der Veröffentlichung rasch. Der offizielle AIMCC-Account stellte die Hauptpunkte des Originalberichts vor: "Er ersetzte Natriumchlorid durch Natriumbromid über drei Monate." Daraufhin kommentierten zahlreiche medizinische Fachleute und Forscher.

 



  • "KI≠Medizin. Sie ist kein Ersatz für Diagnose oder Verschreibung", so ein nüchterner Kommentar (z.B. zusammengefasste Beiträge aus der Datenwissenschaftsgemeinschaft).X (formerly Twitter)

  • "Klassischer Bromismus kehrt im Zeitalter der KI zurück", so eine ironische Stimme.X (formerly Twitter)

  • Mit Artikeln aus internationalen Medien wird darauf hingewiesen: "Ernährungsberatung sollte von Ärzten oder Ernährungswissenschaftlern eingeholt werden".X (formerly Twitter)

  • Auch im japanischsprachigen Raum gab es Beiträge, die sich mit der Frage "Hörte, dass Salz schlecht sei, und ersetzte Na durch Br... Ist das die Schuld der KI?" mit dem Thema "Eigenverantwortung" und Medienkompetenz auseinandersetzten.X (formerly Twitter)

  • In medizinischen Threads auf Reddit wurde der Fall zusammengefasst mit "Er war so in Ernährungsdiskussionen im Chat vertieft, dass er schließlich zu NaBr griff", und aus der Perspektive von Medizinern wurde der Fall als "vollständiger Bromismus" bewertet.Reddit

  • Auch in Technik-Foren auf Reddit wurde der Fall mit scharfen Worten kritisiert und verspottet, als "eine selbst herbeigeführte Geisteskrankheit des 19. Jahrhunderts".Reddit

Gleichzeitig gab es auch Stimmen, die davor warnten, den Vorfall nicht zu sehr auf die allgemeine "Gefährlichkeit" von KI zu übertragen, und betonten: "Achten Sie auf übermäßige Verallgemeinerungen" und "Der Fall ist eine Anekdote, keine Statistik". Es wurde auch darauf hingewiesen, dass in der Berichterstattung oft Fehlinformationen und sensationelle Überschriften vermischt werden (z.B. Verwechslung mit der Ursache von Hyponatriämie).The Times of India


7. Schnittstelle zwischen Technik und Mensch——Warum kommt es zur "Dekontextualisierung"?

Große Sprachmodelle generieren das natürlichste nächste Wort aus statistischen Mustern riesiger Textmengen. Es gibt jedoch Grenzen bei der Gestaltung, die Wissen aus mehreren Bereichen wie Ernährung, Toxikologie und klinische Tests sicher integriert. Insbesondere sprachliche Ausdrücke wie "Ersatz" oder "Alternative" sind gefährlich, wenn sie nicht genau spezifiziert werden in Bezug auf Kontext, Anwendung, Dosierung und Anpassung. Im aktuellen Fall führte der Sprung von **"wissenschaftlich ähnlich = im realen Leben austauschbar"** in Verbindung mit der Interpretation durch Laien dazu, dass die Ausgabe der KI den Anstoß für ein "Experiment" gab.


8. Praktischer Leitfaden zur Risikominimierung (für Leser)

  • Medizin und Ernährung mit "menschlichen Experten" besprechen: Die Antworten der KI als hypothetische Notizen betrachten.

  • Bei Begriffen wie "Ersatz" oder "Alternative" innehalten: Anwendung, Dosierung und Kontraindikationen im Originaltext doppelt überprüfen.

  • Testergebnisse sind nicht allmächtig: Bromid kann wie Chlorid erscheinen, es gibt Grenzen in den Messprinzipien.

  • Nachrichten aus mehreren Quellen gegenprüfen: Primärinformationen (Fachzeitschriften) und Sekundärinformationen (Medien) unterscheiden.American College of Physicians Journals


9. Fazit——"KI ist ein Berater, kein Verantwortlicher"

Der Vorfall, bei dem der "Nachbar des Salzes" auf den Tisch eingeladen wurde, hinterlässt drei Lektionen für die Gesundheitskompetenz im KI-Zeitalter: ① Unterschätzen Sie nicht die chemische "Ähnlichkeit, die nicht gleich ist", ② Verstehen Sie die Messprinzipien hinter Testergebnissen, ③ Vergleichen Sie die KI-Ausgabe immer mit Experten aus der realen Welt. OpenAI betont, dass es "kein Ersatz für Experten" ist, aber ohne die "Stoppkraft" der Benutzer kann eine alte Vergiftung leicht wieder auftauchen. Um die Vorteile der KI zu maximieren, ist die Fähigkeit zum Zweifeln der beste Weg.


Referenzartikel

Ein Mann suchte bei ChatGPT nach Diätberatung und erlitt eine "Bromidvergiftung"
Quelle: https://www.livescience.com/health/food-diet/man-sought-diet-advice-from-chatgpt-and-ended-up-with-bromide-intoxication