2025年08月10日 / ライフスタイル

AI의 잘못된 다이어트 제안으로 "브롬화물 중독"에! "저염"의 함정: AI의 식사 조언으로 정신 증상이 나타날 때까지

AI의 잘못된 다이어트 제안으로 "브롬화물 중독"에! "저염"의 함정: AI의 식사 조언으로 정신 증상이 나타날 때까지

1. 사건의 윤곽——「저염」에서 시작된 혼란

8월 8일(현지), 과학 미디어 Live Science는 60세 남성이 ChatGPT에 식사 상담을 한 결과, 소금을 브롬화나트륨(NaBr)으로 대체하고 드문 중독 증후군인 「브롬 중독(bromism)」을 발병했다고 보도했다. 사례 보고는 Annals of Internal Medicine: Clinical Cases(AIMCC)에 게재되었다. 남성은 3개월에 걸쳐 NaBr을 섭취하고, 결국 피해망상과 환각 등의 정신 증상을 나타내 입원했다.American College of Physicians Journals


2. 무슨 일이 일어났는가——검사 수치의 “버그”와 정신 증상

병원에서는 먼저 혈액 검사가 혼란을 초래했다. 브롬화 이온은 일반적인 전해질 측정에서 염화 이온으로 쉽게 인식되어, 겉으로 보기에 고염소혈증(가성 고염소혈증)을 만든다. 결과적으로 전해질 이상 전체의 모습이 왜곡되어, 임상의는 원인 규명에 시간이 걸리기 쉽다. 남성은 망상과 환각 외에도 불안정한 기분, 지남력 장애 등을 나타내어 정신과적 개입도 필요했으나, 수액·전해질 보정과 항정신병 약물로 개선되었다고 한다.


3. 브롬 중독(bromism)이란——“20세기 초의 병”이 왜 지금?

브롬염은 20세기 초, 진정제로 널리 사용되었으며, 만성 중독으로 신경·정신 증상을 일으키는 것으로 알려져 있었다. 현대에서는 약제로서의 이용이 거의 사라져 사례는 드물지만, 이번처럼 보충제나 대체 용도를 통해 재연되는 「고전적 중독」의 가능성이 부상했다. Live Science도 「역사적으로 브롬 함유 약물의 과다 사용과 관련되어 있었다」고 지적하고 있다.


4. 왜 「소금→브롬」이라는 발상이 생겼는가

주기율표에서 염소(Cl) 옆에 위치한 브롬(Br). 화학적으로 “비슷하지만” 영양·생리학의 맥락은 전혀 다르다. 수영장 살균이나 산업 용도에서는 「Cl의 대체」로 보이는 경우가 있는 반면, 식탁에서의 대체는 논외이다. 보고에 따르면, 남성은 염화물을 줄이라는 정보를 읽고, AI와의 상호작용을 단서로 NaBr을 입수·사용했다고 한다. 탈문맥화된 “대체”의 오용이 발생한 전형적인 사례이다.The Independent


5. 미디어 보도와 개발 측의 코멘트

Live Science는 OpenAI의 코멘트로 「ChatGPT는 전문가의 의료 조언의 대체가 아니다. 사용자에게 전문가에게 상담하도록 촉구하도록 훈련하고 있다」고 기록했다. 여러 국제 미디어와 대형 사이트도 후속 보도하며, 사례의 이례성과 AI 의존의 위험성을 강조했다.The IndependentYahoo!


6. SNS의 반응——비판, 풍자, 그리고 현장의 냉정한 시각

X(구 Twitter)와 Reddit에서는 기사 공개 직후부터 급속히 확산되었다. AIMCC의 공식 계정은 「3개월 동안 염화나트륨을 브롬화나트륨으로 대체했다」고 원저의 요점을 소개했다. 이에 의료 관계자와 연구자가 잇따라 코멘트를 했다.

 



  • 「AI≠의료. 진단이나 처방의 대체가 아니다」라고 냉정하게 경계하는 게시물(예: 데이터 사이언스 커뮤니티의 요약 게시물).X (formerly Twitter)

  • 「고전적인 bromism이 AI 시대에 부활했다」고 풍자하는 목소리.X (formerly Twitter)

  • 해외 미디어 기사를 첨부하여 「영양 상담은 의사·영양사에게」라고 주의를 환기하는 게시물.X (formerly Twitter)

  • 일본어권에서도 「소금이 나쁘다고 듣고, Na를 Br로 바꿨다…그것은 AI의 탓인가?」라고 “자기 책임”이나 리터러시의 논점에 들어가는 글이 보였다.X (formerly Twitter)

  • Reddit의 의료계 스레드에서는 「채팅으로 영양 논의에 열중하고, 결국 NaBr로」라는 요약과 함께, 의료인의 시각에서 「완전한 bromism이다」라는 평가가 다수.Reddit

  • 테크 계열 게시판에서도 「19세기의 정신 질환을 스스로 초래했다」고 강한 말로 비판·풍자하는 스레드가 늘어났다.Reddit

한편, 사건을 AI 일반의 “위험성”으로 확대하지 않도록 「과도한 확장 해석에 주의」「사례는 일화(anecdote)이며, 통계가 아니다」라고 하는 냉정한 정리도 산견되었다. 보도의 연쇄로, 오정보나 선정적인 제목이 섞이는 경향도 지적되고 있다(예: 저나트륨혈증 원인과 혼동한 해설).The Times of India


7. 기술과 인간의 접점——왜 “탈문맥화”가 일어나는가

대규모 언어 모델은 방대한 텍스트의 통계적 패턴에서 가장 자연스러운 다음 단어를 생성한다. 영양·독성·임상 검사 등의 여러 영역의 지식을 횡단하여 안전 측면에서 통합하는 설계에는 한계가 있다. 특히 「대체」「대용」과 같은 언어 표현은, 문맥·용도·용량·적응을 엄밀히 지정하지 않으면 위험이 따른다. 이번 사례는, **“과학적으로 비슷하다=실생활에서 대용할 수 있다”**라는 도약이, 비전문가의 해석과 결합되어, AI의 출력이 “실험”의 방아쇠가 된 형태다.


8. 위험 최소화의 실무 가이드(독자용)

  • 의료·영양은 “인간 전문가”에게 상담: AI의 응답은 가설 메모 취급으로.

  • 용어에 「대용」「대체」가 나오면 일단 멈춤: 용도·용량·금기를 원저에서 이중 확인.

  • 검사 수치는 만능이 아님: 브롬화물이 염소로 보이는 등, 측정 원리의 한계가 있다.

  • 뉴스는 여러 소스로 크로스 체크: 1차 정보(학술지)와 2차 정보(미디어)를 구분하여 읽기.American College of Physicians Journals


9. 요약——「AI는 조언자, 책임자가 아니다」

소금의 “이웃”을 식탁에 초대한 이 사건은, AI 시대의 건강 리터러시에 세 가지 교훈을 남겼다. ①화학의 “비슷하지만 다름”을 과소평가하지 않기, ②검사 수치 뒤에 있는 측정 원리를 알기, ③AI의 출력은 반드시 현실 세계의 전문가와 대조하기. OpenAI는 「전문가의 대체가 아니다」라고 강조하지만, 사용자 측의 “멈추는 힘”이 없으면, 오래된 중독은 쉽게 되살아난다. AI의 혜택을 극대화하려면, 의심하는 기술이야말로 지름길이다.


참고 기사

남성이 ChatGPT에 다이어트 조언을 구한 결과, 「브롬화물 중독」이 되었다
출처: https://www.livescience.com/health/food-diet/man-sought-diet-advice-from-chatgpt-and-ended-up-with-bromide-intoxication