의학계에서 올해 가장 뜨거웠던 키워드는 ChatGPT로 대변되는 인공지능(AI)이 아닐까 싶다. 코로나19 팬데믹 사태 이래로 단일 주제에 대해 이렇게 많은 각종 연구 논문들이 쏟아져나온 것을 본적이 없기 때문이다.
이름도 생소했던 ChatGPT가 대중에 공개된지 불과 1년이지만 학술대회의 풍경은 많이 변했다. 상관 없어보이는 학회들도 은근슬쩍 인공지능을 주제로 세션을 마련하는가 하면 주요 학회들 대부분이 인공지능 관련 세션을 단골메뉴처럼 끼워넣고 있다.
과연 인공지능을 임상적으로 활용할 수 있을까에 대한 주제에서 시작했지만 요즘은 인공지능을 어떻게 활용해야 최적의 결과물을 내놓을 수 있을지, 혹은 각종 진단에서의 전문의와의 실제 대결로까지 연구가 확장된 것을 보면 임상적 활용성에 대한 검증은 마무리 단계에 접어들었다는 판단이 가능하다.
이런 상황에서 의대생 교과 과정에 인공지능을 포함시켜야 한다는 논의가 나오는 것도 무리는 아니다. 실제로 최근 의학학림원이 의료 AI 교육과정 개발 가이드라인 및 모델 공청회를 마련한 것도 이런 맥락. 환자들의 임상 자료가 디지털로 데이터베이스화 되면서 이를 통계적으로 처리하는 프로그램을 숙지하는 것이 임상의학자에게 기본 덕목으로 요구된 것처럼 인공지능을 어떻게 활용할 것인지에 대한 '코디네이팅' 능력이 기본 덕목으로 자리잡을 가능성이 높다.
일련의 변화에 대해서 아쉬운 점은 학술적 활용 기준에 대한 기준 마련이 더디다는 점이다.
올해 6월 국제의학저널편집자위원회(ICMJE)는 ChatGPT를 포함한 인공지능 모델의 활용 여부 명시에 대한 규정을 신설하고 연구자가 대형 언어 모델(LLM), 챗봇 또는 이미지 생성기 등 AI 지원 기술을 사용했는지 여부를 명시토록 한 바 있다.
또 ChatGPT는 작업 결과의 정확성, 무결성 및 독창성에 대해 책임을 질 수 없기 때문에 관련 책임은 저작자가 져야 하고 연구자는 인공지능이 부정확하거나 불완전하거나 편향된 결과를 생성할 수 있으므로 결과를 신중하게 검토하고 편집해야 한다. 이를 풀이하면 인공지능은 적어도 연구자를 돕는 보조수단일뿐 의사를 대체할 크리에이터가 아니라는 해석이 가능하다.
아직 고도화되지도 않은 기술을 두고 벌써부터 전문가의 직업을 소멸시킬 적으로 보거나 의사를 대체할 터미네이터 쯤으로 보는 부정적 시각을 가질 필요는 없다. 그리고 그런 가치중립적인 시각을 위해선 국내에서도 ICMJE의 활용 기준처럼 인공지능에 대한 선을 그어주는 작업이 필요하다.
대학 과제물부터 발표자료까지 ChatGPT로 해결한다는 이야기가 심심찮게 들린다. 문제는 인공지능 사용 여부를 저자가 직접 기재하기 전까지 확인할 방법이 없다는 것. 인공지능이 고도화되면 될 수록 의학계에서도 이를 둘러싼 연구 부정 논란은 가까운 미래로 다가올 수 있다. 더 늦기 전에 최소한의 학술적 활용 기준 정립 및 제시가 필요하다.
ex) medi****** 아이디 앞 네자리 표기 이외 * 처리
댓글 삭제기준 다음의 경우 사전 통보없이 삭제하고 아이디 이용정지 또는 영구 가입이 제한될 수 있습니다.
1. 저작권・인격권 등 타인의 권리를 침해하는 경우
2. 상용프로그램의 등록과 게재, 배포를 안내하는 게시물
3. 타인 또는 제3자의 저작권 및 기타 권리를 침해한 내용을 담은 게시물
4. 욕설 및 비방, 음란성 댓글