핵의학 및 의료 영상 학회의 AI 태스크포스인 조나단 헤링턴 박사와 협력하여 다음과 같이 발표했습니다.는 의료 분야에서 AI의 윤리적 발전과 적용을 촉진하기 위한 일련의 권고 사항을 발표했습니다.
인공지능이 의료 분야에서 각광받으며 진단과 치료의 향상을 약속하는 가운데, 태스크포스는 잠재적인 피해와 불평등을 방지하기 위해 인간의 감독을 유지하는 것이 중요한 역할을 한다고 강조합니다.
의료 분야에서 AI의 존재감이 커지면서 투명성은 윤리적 개발 및 배포를 보장하는 데 있어 핵심입니다.
헤링턴 박사는 의료 서비스 제공자가 AI 시스템의 복잡성을 파악하고 의도된 사용, 성능 및 한계를 이해해야 한다고 강조합니다.
"임상의는 AI를 의사 결정을 대체하는 것이 아니라 자신의 의사 결정에 대한 입력으로 사용해야 합니다."
이를 위해서는 의료 기기에 대한 정확한 정보를 제공하는 AI 개발자의 적극적인 참여가 필요합니다.
태스크 포스는 암 스캔의 히트 맵과 같이 예측의 불확실성 수준을 전달하기 위해 AI 시스템에 경고를 포함할 것을 권장합니다.
이러한 접근 방식은 AI의 잠재적 장점과 건강 불평등을 방지해야 하는 의무 사이에서 균형을 맞추기 위해 노력합니다.
또한 개발자는 AI 모델이 자원이 풍부한 병원뿐만 아니라 다양한 환경에서도 효과적으로 작동할 수 있도록 해야 합니다.
헤링턴 박사는 특권층 환자에게 유리한 정교한 시스템에 대해 우려를 표명합니다.
그는 이렇게 말했습니다:
"우려되는 점은 이러한 첨단 기술과 고가의 시스템이 정말 자원이 풍부한 병원에 배치되어 상대적으로 유리한 환자들의 치료 결과를 개선하는 반면, 자원이 부족하거나 지방 병원에 있는 환자들은 이러한 시스템을 이용할 수 없거나, 환자들을 위해 설계되지 않아 치료를 악화시키는 시스템을 이용할 수 있다는 것입니다."
헤링턴 박사는 AI 환경이 빠르게 진화함에 따라 의료 분야에서 AI에 대한 윤리적, 규제적 프레임워크를 확립할 수 있는 기회가 좁아지고 있다고 경고합니다.
개발자와 의료 서비스 제공자는 AI의 잠재적 혜택과 인간의 개입에 따른 윤리적 고려 사항 사이의 균형을 유지해야 할 책임을 공유합니다.
문제는 모든 사람에게 공평한 접근과 치료를 보장하면서 의료 분야에 AI를 통합할 수 있느냐는 것입니다.