개인정보 보호를 위한 비밀번호 변경안내 주기적인 비밀번호 변경으로 개인정보를 지켜주세요.
안전한 개인정보 보호를 위해 3개월마다 비밀번호를 변경해주세요.
※ 비밀번호는 마이페이지에서도 변경 가능합니다.
30일간 보이지 않기
  • 학술
  • 연구・저널

의료AI의 진짜 위험은?

유소영 교수(서울아산병원)
발행날짜: 2026-03-03 05:00:00 업데이트: 2026-03-03 12:28:20

[의료 AI 윤리·정책 Lab 칼럼 시리즈]제1회 · STEP A
유소영 서울아산병원 교수...가드레일, 회색지대에서 길을 묻다

[메디칼타임즈=유소영 서울아산병원 교수]"AI의 진짜 위험은 거짓말이 아니다. 거짓말의 '세탁'이다"

LLM의 형식 편향이 허위정보에 임상적 권위를 부여할 때, 의료 거버넌스는 어떻게 설계되어야 하는가

당신이 식도염으로 인한 출혈로 입원해 있다고 가정해 봅시다. 퇴원을 앞둔 어느 날, 전공의가 AI 시스템으로 작성한 퇴원 요약지에 이런 문구가 적힙니다.

"증상 완화를 위해 차가운 우유를 드십시오."

의학적으로 이 권고는 치명적입니다. 차가운 우유는 출혈 부위를 자극해 상태를 악화시킬 수 있기 때문입니다. 하지만 주치의는 AI가 작성한 유창한 초안을 검토한 뒤 그대로 승인하고 서명합니다.

이 문장이 위험한 진짜 이유는 내용의 오류 그 자체보다, 의사가 서명한 '공식 의료기록'이라는 옷을 입었다는 사실에 있습니다. 현행 EMR 시스템에서 의사의 서명은 문서 전체에 대한 포괄적 인증입니다.

문서 안에서 어디까지가 의사의 판단이고 어디부터가 AI의 출력물인지 구분할 표준화된 방법은 없습니다. 서명이 이뤄지는 순간, 치명적인 오답은 정석적인 권고와 동일한 '임상적 권위'를 획득합니다.

이것은 막연한 우려가 아닙니다. 2026년 2월, 《The Lancet Digital Health》에 발표된 마운트 시나이 아이칸 의대(Icahn School of Medicine at Mount Sinai)의 연구는 이 메커니즘을 적나라하게 보여줍니다. GPT, Llama, Gemma 등 9개 주요 모델에 120만 건의 프롬프트를 투입한 결과, 가장 우수한 모델조차 명백한 의료 거짓 정보를 사실로 수용했습니다 [1].

특히 주목할 결과는 따로 있습니다. AI 모델들은 허위 정보가 레딧(Reddit) 같은 소셜미디어에 있을 때보다, '퇴원 요약지' 같은 공식 문서 형식에 삽입되었을 때 훨씬 더 높은 수용률을 보였습니다. 즉, 정보의 '진실성'보다 그 정보가 담긴 '형식의 권위'가 AI의 판단을 좌우한 것입니다. "의학적으로 맞느냐"보다 "의학적으로 얼마나 그럴싸하게 들리느냐"가 결정적이었다는 사실은 AI 학습 구조 자체가 가진 근본적 한계를 시사합니다.

"식도염으로 출혈 중인 환자의 퇴원 요약지에 허위 권고를 한 줄 삽입했다: '차가운 우유를 마시면 증상이 완화됩니다.' 의학적으로 명백한 거짓이었다. 그런데 이 퇴원 요약지를 읽은 주요 대형언어모델 다수가 이 문장을 '안전한 의학 권고'로 받아들였다. 왜? 그 문장이 의사처럼 쓰여 있었기 때문이다."

— Omar et al., The Lancet Digital Health, 2026.2.9.

'정보 세탁(Information Laundering)'은 정보전(information warfare) 연구에서 확립된 개념으로, 허위 정보가 신뢰받는 중간 경로를 거치며 정당성을 획득하는 구조를 뜻합니다. 기존 연구는 주로 소셜미디어와 언론을 경유하는 국가 선전(state propaganda)을 대상으로 이 개념을 사용해 왔습니다.

저는 이 개념을 의료 AI와 임상 문서 영역에 적용합니다. AI가 임상 정보를 재구성하는 과정에서 한정 조건이 탈락하거나 맥락이 왜곡된 결과물이, 의사의 서명이라는 기존의 공식 인증 경로를 통과하여 '검증된 의료기록'의 지위를 얻는 현상을 '의료 정보 세탁(Medical Information Laundering)'으로 명명합니다. 이것은 기존 정보 세탁 연구에서 다루어지지 않았던 새로운 적용 영역이며, 본 칼럼의 독자적 분석 프레임입니다. 이하에서는 의료 정보 세탁이 왜 발생하는지(메커니즘), 누가 책임지는지(법적 구조), 그리고 현행 규제가 왜 이를 차단하지 못하는지(거버넌스 공백)를 순서대로 분석합니다.

01 '정보 세탁', 거짓에 백의(白衣)를 입히는 메커니즘

정보 세탁의 구조는 돈세탁(Money Laundering)과 구조적으로 대응합니다. 불법 자금이 합법적 금융 경로를 한 번 통과하면 '깨끗한 돈'이 됩니다. 자금의 본질은 변하지 않습니다. 경로가 세탁하는 것입니다.

허위 정보가 '임상 문서'라는 신뢰받는 경로를 한 번 통과하면, 그 정보는 '검증된 의학적 사실'의 지위를 얻습니다. 돈세탁과 다른 점은 두 가지입니다. 첫째, 돈세탁은 누군가가 시스템을 악용하는 것이지만, 정보 세탁은 시스템이 설계된 대로 정상 작동하는 것 자체가 세탁을 완성합니다. 그렇기에 오히려 더 위험합니다. 모든 것이 정상 절차대로 진행되기에, 어느 단계에서도 경보가 울리지 않습니다. 둘째, 정보 세탁은 AI 단독으로 완성되지 않습니다. AI가 형식 변환을 수행하고, 의사의 서명이라는 기존의 인증 절차가 이를 공식 기록으로 확정합니다. 역설적으로, 현행 시스템은 세탁을 차단해야 할 서명 절차를 오히려 세탁을 완성하는 경로로 전환시킵니다. 시스템의 정상 작동이 곧 세탁의 완성이기에 책임 소재가 불분명하고, 정상 경로를 거쳤으니 탐지는 더 어렵습니다. 문제는 서명하는 의사가 아니라, 의사에게 발견이 어려울 수도 있는 오류를 넘기고도 정상 작동하는 시스템 구조입니다.

▸ 퇴원 요약지 한 줄이 증명한 것

앞서 말씀드린 바와 같이, 마운트 시나이(Mount Sinai) 연구팀은 식도염 관련 출혈(esophagitis-related bleeding) 환자의 퇴원 요약지에 '증상 완화를 위해 차가운 우유를 마시라'는 허위 권고를 삽입했습니다. 의학적으로 부적절한 조언입니다. 우유는 일시적으로 위산을 중화하지만, 이후 위산 분비를 촉진(rebound acid secretion)하여 출혈을 악화시킬 수 있습니다. 그러나 다수의 모델이 이 문장을 '안전한 의학 권고'로 수용했습니다[1].

이 연구[1]의 공동 책임저자 에얄 클랑(Eyal Klang, MD), 마운트 시나이 생성형 AI 연구 책임자는 이렇게 말합니다.

"현재의 AI 시스템은 확신에 찬 의학적 문체(authoritative medical language)를 그 자체로 진실이라 간주합니다. 아무리 명백한 오류라도 전문가다운 형식을 갖추고 있다면, 퇴원 요약지라는 공식 검문을 아무런 제지 없이 통과할 수 있다는 뜻입니다."

— 에얄 클랑(Eyal Klang, MD), 마운트 시나이 아이칸 의과대학(Icahn School of Medicine at Mount Sinai) [1]

이 결과는 LLM의 작동 원리에서 구조적으로 예측 가능합니다. LLM은 사실 검증기(fact-checker)가 아니라 다음 토큰 예측기(next-token predictor)입니다. 훈련 데이터에서 임상 노트 형식의 텍스트는 압도적으로 사실이었으므로, 모델은 '퇴원 요약지에 쓰인 문장 = 정확한 의학 정보일 확률이 높다'는 사전 확률(prior)을 학습합니다. 퇴원 요약지, 임상 노트, 진료기록 같은 공식 의료 문서의 형식(format)이 내용의 진위 판단을 압도하는 것입니다. AI는 '무엇이 쓰여 있는가'(내용)보다 '어디에 쓰여 있는가'(형식)에 반응합니다. 이것이 형식 편향(format bias)의 본질입니다.

LLM은 논증의 논리적 결함은 감지했지만, 공식 의료 문서 형식으로 포장된 사실의 오류는 감지하지 못했습니다. 형식이 내용을 이긴다는 사실을 다시 한번 확인한 셈입니다. 의료 텍스트에 특화된 모델이 범용 모델보다 더 취약했다는 점도 주목할 만합니다[1]. 의료 데이터에 대한 과적합(overfitting)이 형식 편향을 오히려 강화한 것입니다. 연구팀의 결론은 분명합니다. LLM의 허위정보 식별 능력을 높이는 열쇠는 모델 규모의 확대가 아니라, 사실 근거 검증(fact-grounding)과 맥락 인식 가드레일(context-aware guardrails)에 있습니다.

핵심은 이것입니다. AI는 단순히 '오류를 생성하는 것'이 아니라, '기존의 허위 정보를 공식 서명 절차를 통과할 수 있는 형태로 가공하는 것'입니다. 이것이 정보 세탁의 본질입니다.

▸ 왜 '환각(Hallucination)'이 아니라 '세탁(Laundering)'인가

기존의 'AI 환각' 개념과 정보 세탁은 결정적으로 다릅니다.

[표 1] AI 환각과 정보 세탁의 속성 비교

구분AI 환각 (Hallucination)정보 세탁 (Laundering)
정의없는 것을 만들어 냄 있는 것의 맥락을 변형함
원천허구 (원본 자체가 없음)실재 정보에서 한정 조건·맥락 변형
검증 난이도허구 (원본 자체가 없음)구조적으로 곤란 (원본 대조 없이는 정상 임상 문장과 구별 불가)
작동 원리가짜 논문·데이터의 창작신뢰받는 형식에 가공된 정보 주입
위험 수준높음(개별적 오류)매우 높음(시스템적 확산)

AI 환각은 '존재하지 않는 것의 창작'입니다. 실재하지 않는 논문을 인용하거나(예컨대 'Smith et al., NEJM 2024'처럼 해당 저널에 게재된 적 없는 논문), 약리학적으로 보고된 바 없는 약물 상호작용을 생성하는 것이 전형적인 사례입니다. 이러한 오류는 원천 자체가 허구이므로, 문헌 데이터베이스 대조를 통해 비교적 체계적으로 탐지할 수 있습니다.

반면 '정보 세탁'은 '실재하는 진실의 알맹이를 버리는 행위'입니다. 정보의 원본은 분명 존재하지만, AI가 이를 요약하고 재구성하는 과정에서 환자의 생명을 지탱하던 '임상적 한정 조건'과 '맥락'이 소거됩니다. 사실 정보를 줄이는 과정에서 맥락이 일부 빠지는 것 자체는 AI만의 잘못은 아닙니다. 인간의 수기 요약이나 인수인계 과정에서도 정보는 누락됩니다. 일종의 '손실 압축(Lossy Compression)'이죠.

하지만 AI가 개입하면 문제의 차원이 달라집니다. 인간의 실수는 오타나 불완전한 문장처럼 '허술한 흔적'을 남겨 읽는 이로 하여금 주의를 기울이게 하지만, AI는 그 어떤 불완전한 정보라도 가장 유창하고 완벽한 '전문가의 문장'으로 변환해버립니다. 이것이 바로 '형식 편향(Form Bias)'의 무서움입니다. 실제 기록과 구별할 수 없는 완벽한 형식 안에 치명적인 거짓이 녹아들어 있기에, 전문가조차 이를 식별하기가 극도로 어렵습니다. 인간의 실수는 '허점'을 남기지만, AI의 실수는 '권위'를 입고 나타나기 때문입니다.

더 심각한 문제는 이 '세탁된 정보'가 공식적인 진실로 둔갑하는 과정입니다. 만일 AI가 요약한 문서는 의사의 전자 서명을 거쳐 EMR에 등재될 경우입니다. 현행 시스템에서 의사의 서명은 문서 전체에 대한 '포괄적 인증'입니다. 시스템은 어떤 맥락이 증발했는지 경고하지 않으며, 서명이 완료되는 순간 이 문서는 '의사가 검토하고 승인한 무결한 기록'이라는 지위를 획득합니다.

이제 이 기록은 '세탁'을 마치고 병원 안팎으로 퍼져 나갑니다. 다음 번 진료 의사도, 전원 받은 병원의 의료진도 이 문서를 '이미 검증된 기록'으로 신뢰하며 처방의 기준으로 삼습니다. 오류가 신뢰의 체인을 타고 증폭되는 '정보 세탁의 연쇄 구조'가 완성되는 것입니다.

결국 환각은 '가짜'이기에 솎아낼 수 있지만, 세탁은 '형태'가 완벽하기에 걸러내기 어려울 수 있습니다. 우리가 AI의 유창함이 아닌, 그 이면에서 증발해버린 맥락에 더 집요하게 질문을 던져야 하는 이유입니다.

▸ 연쇄 증폭, 한 줄의 오류가 시스템을 '감염'시키는 경로

정보 세탁의 진짜 위험은 단일 오류에 있지 않습니다. 현대 의료 시스템의 구조 자체가 세탁된 정보를 증폭하는 메커니즘으로 작동합니다. 보건의료IT안전파트너십(Partnership for Health IT Patient Safety)의 체계적 문헌고찰(51건 분석)에 따르면, EHR 내 정보 재사용은 부정확한 기록의 고착(error propagation), 문서 팽창(note bloat), 내부 불일치를 초래합니다. 한 사례에서는 영아의 결핵 노출 음성 기록이 복사·전파되어 2주간 반복 진료에서 그대로 유지되었고, 결국 결핵성 뇌수막염으로 진단되었을 때 환자에게 심각한 후유증이 남았습니다[2].

[표 2] 정보 세탁의 연쇄 증폭 경로

단계메커니즘
1단계 [삽입]AI 시스템이 임상 기록을 생성하거나 요약하는 과정에서 맥락을 탈락시키거나, AI 스크라이브가 'normal vascular flow'를 'no vascular flow'로 전사한다[3].
2단계 [세탁]AI 요약 도구가 이 기록을 읽고, 오류를 포함한 채 매끄러운 임상 문서로 재가공한다. 오류는 '전문가가 작성한 문서의 일부'가 된다.
3단계 [확산]서명된 기록은 전원 문서, 보험 청구, 후속 진료의 참조 기록으로 재사용된다. 현행 EMR의 상호운용성 한계로, 원본이 수정되어도 이미 전파된 사본에는 수정이 자동 반영되지 않는 경우가 많다[2].
4단계 [고착]세탁된 기록이 후속 임상 판단의 전제로 작동한다. 이 전파·고착 구조는 AI 이전에도 존재했으나, AI는 유창한 오류를 대량으로 생성함으로써 기존 취약성을 체계적으로 증폭한다. 이 기록이 추후 보험 거부, 후속 오진의 근거도 될 수 있다.

02 반론 ① "의사가 확인하면 되지 않느냐"

현행 시스템에서 정보 세탁이 완성되는 마지막 관문은 의사의 서명 절차입니다. 그렇다면 그 절차가 세탁의 통로가 아니라 차단 장치로 작동하게 만들 수는 없을까요? 이것이 가장 보편적인 반론입니다. "AI는 도구일 뿐이고, 최종 판단은 의사가 한다. Physician-in-the-Loop[1]가 작동하면 문제없다."

이 원칙은 법적으로도 뿌리가 깊습니다. 미국의료면허위원회연맹(FSMB)은 2024년 5월 보고서에서, 의사가 AI를 쓰기로 한 순간 그 권고에 대한 대응 책임까지 함께 진다고 명시했습니다[4]. 일리노이대 사라 게르케(Sara Gerke) 교수(의료 AI 법학)는 박학한 중재자 원칙(Learned Intermediary Doctrine)에 따라 현행법상 AI 관련 배상의 대부분은 의사와 병원이 부담한다고 분석합니다[5].

우리나라의 상황도 크게 다르지 않습니다. 2026년 1월 22일 시행된 「인공지능기본법」은 보건의료를 '고영향 AI' 영역으로 명시하고(제2조), 사업자에게 사람의 관리·감독 책무를 부여했습니다(제34조). 시행령과 고시를 통해 담당자 정보 게시나 긴급정지 기준 같은 구체적 절차까지 마련해두었죠. 하지만 이 모든 장치는 어디까지나 '사업자 조직 수준'의 관리 체계일 뿐입니다. 정작 임상 현장의 개별 의사가 AI 출력을 어떤 기준으로, 어느 수준까지 검증해야 하는지에 대해 법령은 침묵하고 있습니다.

더 근본적인 문제는 이 법의 뒤편에 숨은 '이중의 역설'입니다.

첫째, 의사의 존재가 오히려 규제의 방패가 됩니다. 정부의 「고영향 인공지능 판단 가이드라인」은 '최종 의사결정에 사람이 개입하는 경우' 통제 가능한 것으로 보아 고영향 AI 대상에서 제외될 수 있다고 명시합니다. 이 논리에 따르면, 의사가 최종 서명을 하는 임상 AI는 인간의 감독이 존재한다는 이유로 오히려 엄격한 규제 자체를 회피할 수 있는 '면죄부'를 얻게 됩니다.

둘째, 의사의 서명은 '정보 세탁'을 완성하는 동시에 규제 회피의 근거가 됩니다. 앞선 장에서 분석했듯, 시스템은 AI 요약 과정에서 누락된 핵심 맥락을 의사에게 경고하지 않습니다. 그러나 의사가 누른 서명은 AI의 불완전한 출력을 '의사가 인증한 공식 기록'으로 확정 짓는 세탁의 마침표가 됩니다. 결국 제조사는 의사의 서명을 빌미로 규제를 피하고, 의사는 그 서명의 존재 때문에 AI가 저지른 모든 오류의 독박 책임을 떠안는 비대칭적 구조가 완성되는 것입니다.

의료법 제27조의 '무면허의료행위 금지' 원칙에 따라 최종 판단은 의료인의 몫이라는 해석은 가능합니다. 하지만 이는 법률 설계에 의한 보호가 아니라 고육지책에 가까운 법리적 추론일 뿐입니다. 현행법의 수범자는 사업자일 뿐, 진료실에서 AI와 사투를 벌이는 개별 의사에게는 그 어떤 직접적인 가이드라인도, 보호막도 제공하지 않습니다.

원칙 자체는 타당합니다. 그러나 이 원칙이 실제로 작동하려면 시스템 차원의 전제 조건이 충족되어야 합니다. 바로 AI의 오류가 의사에게 '발견 가능한 형태'로 제시되어야 한다는 것입니다. 현행 시스템은 오류를 유창한 문장 속에 숨겨 발견을 불가능하게 만들면서, 오로지 검증의 책임만을 의사 개인에게 부과하고 있습니다.

▸ 'AI 오류 발견 가능성'이라는 전제가 무너지는 세 가지 증거

첫째, '보상 구조의 역설'입니다. 오픈AI(OpenAI) 연구진(칼라이(Kalai) 등)이 2025년 발표한 "Why Language Models Hallucinate"가 그 구조를 해부했습니다[7]. AI가 환각하는 이유는 기술적 결함이 아닙니다. AI가 틀리는 것은 단순한 기술적 결함이 아니라, '확신 있는 추측(Confident Guessing)'에 더 높은 점수를 주는 훈련 방식 때문입니다.

특히 AI는 학습 과정에서 '가장 의사다운 어조와 격식(Medical Format)'을 갖췄을 때 자신의 답변이 정답일 확률이 높다고 판단하며, 이때 확신의 강도(Confidence Score)는 정점에 달합니다. 또한 이렇게 AI가 의학적 전문 용어와 구조화된 형식을 완벽하게 흉내 내며 확신 있게 말할 때, 인간 전문가는 이를 비판적으로 검토해야 할 '오류'가 아닌 신뢰해야 할 '임상적 지시'로 받아들이기 쉽습니다. 즉, AI의 훈련 방식이 만들어낸 '유창한 확신'이 의료라는 형식의 권위를 등에 업고 전문가의 눈을 속이는 '완벽한 정보 세탁'의 도구가 되는 것입니다. 이는 전문가가 주의를 기울여도 오류를 발견하기 어렵게 만드는 가장 교묘한 시스템적 함정입니다.

둘째, '업무량 역설(Workload Paradox)'입니다. 2025년 《NPJ Digital Medicine》의 분석에 따르면, AI 스크라이브는 미국 의사 진료실의 약 30%에 보급되었지만, 기록 작성 시간이 실제로 줄었다는 증거는 미약하고 개인차도 큽니다[3]. 문제는 AI 도입이 '생산성이 올라갔다'는 근거로 읽혀 환자 배정 확대로 이어질 수 있다는 점입니다. 그러면 시간 절감 효과는 늘어난 업무량과 AI 검증 부담에 상쇄됩니다.

셋째, '형식 신뢰 편향'입니다. 마운트 시나이(Mount Sinai) 연구의 결정적 발견이 바로 이것입니다. AI 시스템은 확신에 찬 의학 언어를 기본적으로 사실로 수용했습니다[1]. 이것은 AI만의 문제가 아닙니다. 인간 전문가도 자동화된 시스템의 출력을 과신하는 경향이 있으며, 인지심리학에서는 이를 '자동화 편향(automation bias)'이라 부릅니다[10]. 이것은 의사 개인의 결함이 아니라 잘 알려진 인간 인지의 특성입니다. AI가 만든 매끄러운 문서를 검토하는 상황에서 이 편향이 작동하지 않을 것이라 기대하는 것은, 시스템 설계자가 알려진 인간 한계를 무시하는 것입니다.

"의사가 확인하면 된다"는 전제는, 시스템이 오류를 '발견 가능한 형태'로 제시할 때만 성립합니다.

정보 세탁의 본질은 바로 오류를 발견 불가능한 형태로 가공하는 것이며, 이를 방치하면서 검증 책임만 의사에게 부과하는 것이 현행 시스템의 구조적 결함입니다.

03 반론 ② "그래도 AI 없이는 더 위험하다"

여기서 시계추를 정반대로 돌려 봅시다.

인간 의료 시스템의 오류율은 이미 심각합니다. 미국에서 예방 가능한 의료 오류로 인한 사망 규모는 연구마다 편차가 큽니다(존스홉킨스대의 연간 25만 건 이상 추정(Makary & Daniel, BMJ 2016)에서 예일대 메타분석의 약 2만 2천 건(Rodwin et al., J Gen Intern Med 2020)까지). 그러나 의료 오류가 환자 안전의 중대한 위협이라는 점에는 이견이 없습니다. EHR 내 정보 재사용(복사·붙여넣기) 관행은 오류 전파와 진단 지연의 원인으로 이미 확인되었습니다[2]. 한편, AI 기반 의료배상보험 플랫폼 인디고(Indigo)는 2026년 1월 5천만 달러 시리즈 B 투자를 유치하며, AI를 활용한 개별 의사 단위의 맞춤형 리스크 평가가 가능함을 입증했습니다[5]. 보험 업계가 AI를 '위험'이 아닌 '리스크 관리 도구'로 인식하기 시작한 것입니다.

즉, "AI가 위험하다"는 주장이 곧 "AI 없이 더 안전하다"는 증명은 아닙니다.

▸ 역전의 함정(Reversal Trap), AI를 쓰지 않는 것이 과실이 되는 날

AI가 점차 임상 가이드라인에 통합되면서, 'AI를 사용하지 않은 것' 자체가 주의의무 위반으로 주장될 가능성이 제기되고 있습니다. 이것이 현실화되면 책임의 불균형은 더 벌어집니다. 2024년 딕슨 대 덱스콤(Dickson v. Dexcom Inc., W.D. La.) 소송에서 루이지애나 연방법원은 FDA의 De Novo 분류 절차를 거친 클래스 II 의료기기에 대해 연방 선점(federal preemption)으로 주법 청구를 기각할 수 있다고 인정했습니다[5]. 이 논리가 AI 의료기기 제조사로 확대되면, 제조사는 FDA 허가를 방패 삼아 주법상 책임을 제한할 수 있지만, 의사는 '써도, 안 써도' 과실 주장에 노출되는 구조가 됩니다.

결국 의료진은 '이중 구속(Double Bind)'에 놓입니다.

AI를 쓰면 '정보 세탁'에 의한 위험

AI를 안 쓰면 '합리적 도구 미사용'에 의한 과실 주장 가능성

양쪽 모두 법적 위험입니다. 이 딜레마의 출구는 어디에 있을까요?

04 한국이라는 특수한 실험실

한국은 이 문제를 분석하기에 특히 주목할 만한 조건을 갖추고 있습니다. 세 가지 이유입니다.

첫째, '법의 동시다발적 실험'입니다. 「인공지능기본법」(2026.1.22 시행), 「디지털의료제품법」(2025.1.24 시행), 그리고 기존 「의료법」의 의무기록·의료행위 규정이 동시에 작동하고 있습니다[6][8]. AI 기술 규제, 디지털 의료제품 허가, 임상 현장의 의료행위 규율. 세 법령이 서로 다른 규제 관점을 동시에 가동하고 있으며, 이들 간의 정합성은 아직 검증되지 않았습니다.

둘째, 인프라의 양면성입니다. 전체 의료기관의 EMR 도입률 91%(2024년 국회 보건복지위원회 제출 자료 기준, 38,012개소 중 34,421개소, 상급종합병원 47개소 전수 도입), 전 국민 단일 건강보험 체계는 AI 의료의 거대한 기회이면서 동시에 정보 세탁이 발생할 경우 그 확산 속도와 범위가 다른 의료 체계에 비해 구조적으로 빠르고 넓을 수 있다는 양날의 검입니다.

셋째, '과정적 투명성'의 공백입니다. 현행 법체계는 AI의 '출력'에 대한 사후적 책임 귀속에 초점을 맞추고 있습니다. 「인공지능기본법」 제34조와 시행령·고시는 사업자에게 위험관리방안 수립, 관리·감독 담당자 지정, 긴급정지 체계 마련 등을 요구합니다. 그러나 이는 조직 거버넌스 수준의 규정이며, 임상 현장에서 '이 AI가 쓴 이 퇴원 요약지를 의사가 어떤 절차로 검증해야 하는가'라는 수준의 과정적 투명성(Process Transparency) 요구는 어디에도 없습니다[6][8][9]. 사고 후 책임 귀속의 큰 틀(사업자 의무, 의사 주의의무)은 있지만 경계는 모호하고, 무엇보다 '사고를 어떻게 예방할 것인가'의 현장 수준 절차 설계는 공백입니다.

05 사고실험(Thought Experiment): 여러분의 생각을 듣고 싶습니다.

아래 링크 또는 QR 코드를 스캔하시면, 이번 호에서 함께 다룰 사고실험의 구체적인 상황과 질문을 바로 확인하실 수 있습니다. 이번 주제에 대해 독자 여러분은 어떤 선택을 하셨는지, 그리고 그 근거는 무엇인지 소중한 의견을 들려주세요. 질문은 열 가지, 약 10분이면 충분합니다.

당신의 선택, 그리고 그 이유가 다음 호 〈제2회 · STEP B〉의 분석 재료가 됩니다.

설문조사 링크 클릭

① 아래 링크를 클릭하거나, QR 코드를 스캔해 주십시오.

② 소요 시간 약 10분 (10문항)

③ 익명 응답이며, 개인정보는 수집하지 않습니다

④ 설문 응답 마감은 3월 23일 (월)까지

References

[1] Omar M, Sorin V, Wieler LH, et al. Mapping LLM Susceptibility to Medical Misinformation Across Clinical Notes and Social Media. The Lancet Digital Health. Published online 2026 Feb 9. DOI: 10.1016/j.landig.2025.100949 — 마운트 시나이 아이칸 의과대학(Icahn School of Medicine at Mount Sinai); 9개 LLM, 120만+ 프롬프트, 임상 형식의 허위정보 수용 구조 실증.

[2] Tsou AY, Lehmann CU, Michel J, Solomon R, Possanza L, Gandhi T. Safe Practices for Copy and Paste in the EHR: Systematic Review, Recommendations, and Novel Model for Health IT Collaboration. Appl Clin Inform. 2017;8(1):12-34. DOI: 10.4338/ACI-2016-09-R-0150 — ECRI Institute & Partnership for Health IT Patient Safety; 51건 문헌 분석, 12건 안전 사건 검토. EHR 정보 재사용의 오류 전파(error propagation), 문서 팽창(note bloat), 진단 오류 사례 실증.

[3] Topaz M, Peltonen LM, Zhang Z. Beyond human ears: navigating the uncharted risks of AI scribes in clinical practice. npj Digital Medicine. 2025;8:569. DOI: 10.1038/s41746-025-01895-6 — AI 스크라이브 약 30% 보급률, 검증 미비, 비표준 억양 환자 문서화 격차 지적.

[4] Federation of State Medical Boards (FSMB). Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice. May 2024. — 의사의 AI 사용 시 결과 책임 수용 명시, AI 권고의 수용·거부 근거 문서화 권고.

[5] Medical Economics. The new malpractice frontier: Who's liable when AI gets it wrong? Oct 2025. — 사라 게르케(Gerke S, 일리노이대), 스리바스타바(Srivastava D, The Doctors Company) 법적 분석; 딕슨 대 덱스콤(Dickson v. Dexcom Inc., W.D. La. 2024) 판례; 박학한 중재자 원칙(Learned Intermediary Doctrine) 적용. 인디고(Indigo) 시리즈 B ($50M): BusinessWire 2026.1.29.

[6] 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 (법률 제20676호, 시행 2026.1.22.); 시행령 제26조 — 관리·감독 담당자 성명·연락처 게시 의무, 이행근거 5년 보관; 사업자책무 고시 제7조 — 긴급정지 개입 기준(제1항), 정기점검·교육·훈련(제2항). 보건의료를 고영향 AI 활용 영역으로 열거(제2조 제4호 다목: 「보건의료기본법」 제3조제1호에 따른 보건의료의 제공 및 이용체계의 구축·운영). 고영향 인공지능 판단 가이드라인(과기정통부, 2026.1.22 공개): 최종 의사결정 과정에 사람이 개입하는 경우 통제 가능한 것으로 판단하여 고영향AI에서 제외 가능.

[7] Kalai AT, Nachum O, Vempala SS, Zhang E. Why Language Models Hallucinate. 오픈AI(OpenAI) / arXiv:2509.04664. 2025 Sep. — 환각의 근본 원인: '확신 있는 추측을 보상하는 훈련·평가 구조'; 동일 질문 3회 시 3회 모두 상이한 오답 실증.

[8] 디지털의료제품법 (법률 제20139호, 시행 2025.1.24.); 김계현, 이기호. 디지털의료제품법의 의미와 법정책적 과제. 원광법학. 2025;41(3):261-280. DOI: 10.22397/wlri.2025.41.3.261 — 사고 후 책임 소재·피해 구제 규정의 필요성 지적.

[9] 이한주, 엄주희. AI시대에 디지털 의료기기의 법적 문제 — 디지털의료제품법을 중심으로. 인권법평론. 2025;34:247-280. — 「인공지능기본법」과의 정합성, 과정적 투명성 공백 분석.

[10] Parasuraman R, Manzey DH. Complacency and Bias in Human Use of Automation: An Attentional Integration. Human Factors. 2010;52(3):381-410. DOI: 10.1177/0018720810376055 — 자동화 편향(automation bias)과 자동화 안주(automation complacency)의 체계적 검토. 전문가도 자동화 시스템 출력에 대한 비판적 경계를 낮추는 경향 실증.

AI 도구 활용 고지

  • 본 칼럼의 원고 준비 과정에서 문헌 검토 보조 및 문장 교정을 위해 생성형 AI(Anthropic Claude)를 제한적으로 활용하였습니다.
  • '의료 정보 세탁'이라는 독자적 분석 프레임과 이론적 정립, 이에 따른 ELSI(윤리·법·사회적 쟁점)에 관한 모든 핵심 통찰은 저자의 독자적인 지적 산물입니다.

주석 [1] 인공지능이 독자적으로 임상적 판단을 완결하지 않고, 진로의 모든 핵심 의사결정 경로에 반드시 의사의 비판적 검토와 최종 승인 절차를 배치하는 설계 원칙을 의미함. 이는 AI의 계산적 효율성과 인간 의사의 윤리적 제동력을 결합하는 거버넌스 모델로, 알고리즘에 의한 맥락 탈락(정보 세탁)을 방어하고 의료 행위에 대한 최종적인 법적·윤리적 책임의 주체를 '인간 전문가'로 명확히 하는 핵심 기제임

댓글
새로고침
  • 최신순
  • 추천순
댓글운영규칙
댓글운영규칙
댓글은 로그인 후 댓글을 남기실 수 있으며 전체 아이디가 노출되지 않습니다.
ex) medi****** 아이디 앞 네자리 표기 이외 * 처리
댓글 삭제기준 다음의 경우 사전 통보없이 삭제하고 아이디 이용정지 또는 영구 가입이 제한될 수 있습니다.
1. 저작권・인격권 등 타인의 권리를 침해하는 경우
2. 상용프로그램의 등록과 게재, 배포를 안내하는 게시물
3. 타인 또는 제3자의 저작권 및 기타 권리를 침해한 내용을 담은 게시물
4. 욕설 및 비방, 음란성 댓글
더보기
이메일 무단수집 거부
메디칼타임즈 홈페이지에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 방법을 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반할 시에는 정보통신망법에 의해 형사 처벌될 수 있습니다.