"잘 만드는 AI보다 잘 사용하는 AI"…의료계 활용 원칙 제시
[메디칼타임즈=임수민 기자]의료 현장에서 생성형 인공지능(AI)의 활용이 빠르게 확산되는 가운데, '잘 만드는 AI보다 잘 사용하는 AI'를 강조한 공공적 활용 원칙이 제시됐다.기술 개발 경쟁을 넘어, 실제 의료 현장에서의 안전성과 책임성을 어떻게 확보할 것인가에 초점을 맞춘 접근이라는 점에서 의미가 크다.한국보건의료연구원(원장 이재태)은 '의료 분야 생성형 인공지능 적정 활용 원칙'을 7일 발표했다.한국보건의료연구원(원장 이재태)은 의료 현장에서 생성형 AI를 안전하고 책임 있게 활용하기 위한 '의료 분야 생성형 인공지능 적정 활용 원칙'을 7일 발표했다.최근 대규모 언어모델(LLM)과 다중모달모델(LMM)을 기반으로 한 생성형 AI는 진료 기록 요약, 임상 의사결정 보조, 환자 상담 등 다양한 영역에서 활용 범위를 넓히고 있다.하지만 활용이 늘어날수록 환자 안전 문제, 개인정보 보호, AI 결과에 대한 과신, 의료 판단의 책임 소재 등 복합적인 쟁점도 함께 부각되고 있다. 기존의 제도적 규제만으로는 실제 의료 현장의 다양한 활용 양상을 충분히 포괄하기 어렵다는 한계도 지적돼 왔다.이에 NECA는 2025년 원탁회의 주제를 '의료 AI'로 선정하고, 두 차례에 걸쳐 의료인, 연구자, 산업계, 법·정책 전문가, 국민참여단이 함께 참여하는 논의를 진행했다.그 결과로 도출된 이번 원칙은 세부 규제나 기술 가이드라인이 아닌, 의료 AI를 둘러싼 모든 주체가 공유해야 할 '사회적 약속(Social Compact)'이라는 점을 핵심으로 한다.원칙은 ▲개발자·서비스 제공자 ▲의료인 ▲국민(이용자) 등 세 주체별 역할과 실천 기준으로 구성됐다.개발자와 서비스 제공자에게는 환자 안전과 투명성을 최우선 가치로 삼고, 공정성과 설명가능성을 강화하며, 인간 감독이 전제된 구조(Human-in-the-loop)를 설계할 책임을 명시했다.오류 발생 시 신속한 개선과 정보 공개, AI 생성 결과의 명확한 표시, 정보 취약계층을 고려한 쉬운 말 모드와 필수 정보 자동 확인 기능 등 접근성 강화도 주요 원칙에 포함됐다.의료인에게는 AI를 임상 판단을 돕는 참고 도구로 활용하되, 최종 의사결정의 책임은 의료인에게 있음을 분명히 했다. 보조적 활용 원칙, 근거 기반 검증, 환자 중심의 설명과 동의, 오류 예방과 학습, 지속적인 디지털 역량 강화가 핵심 실천 사항으로 제시됐다.국민(이용자) 역시 의료 AI를 스스로를 보호하고 판단을 보완하는 도구로 인식해야 한다는 원칙이 제시됐다.자율과 책임, 안전한 사용, 개인정보 보호, 비판적 이해가 강조됐으며, 응급·고위험 상황에서는 AI 답변에 의존하지 말고 즉시 의료기관을 이용할 것, AI의 답변이 이상하거나 불편할 경우 사용을 중단할 것 등 일상에서 실천 가능한 행동 수칙도 함께 담겼다.이재태 원장은 "의료 AI는 국민 건강 증진을 위한 중요한 기회이지만, 잘못 활용될 경우 의료에 대한 신뢰를 훼손할 위험도 함께 안고 있다"며 "이번 원칙은 규제를 넘어 의료 현장에서 실제로 참고할 수 있는 공공적 기준점이라는 데 의미가 있다"고 밝혔다.


