核医学・医用画像学会のAIタスクフォースは、ジョナサン・ヘリントン博士と協力して、以下のような活動を行った。は、医療分野におけるAIの倫理的な進歩と応用に舵を切るための一連の提言を明らかにした。
人工知能が医療の分野で脚光を浴び、診断や治療の強化が期待される中、タスクフォースは、潜在的な危害や不平等を回避するために、人間の監視を維持することの重要な役割を強調している。
医療におけるAIの存在感が高まる中、倫理的な開発と配備を確保するためには、透明性が鍵となる。
ヘリントン博士は、医療従事者がAIシステムの複雑さを把握し、その使用目的、性能、限界を理解する必要性を強調する。
「臨床医は、AIを意思決定の代わりに使うのではなく、自らの意思決定のインプットとして使うべきである。
これを実現するには、AI開発者が積極的に関与し、医療機器に関する正確な情報を提供する必要がある。
同タスクフォースは、AIシステムに警告を埋め込んで、がんスキャンのヒートマップのように、予測の不確実性レベルを伝えることを推奨している。
このアプローチでは、AIの潜在的な利点と、健康格差の回避の必要性との間でバランスを取ろうと努めている。
開発者はまた、そのAIモデルが十分な資源を持つ病院だけでなく、多様な環境でも有効であることを保証するよう強く求められている。
ヘリントン医師は、特権階級の患者を優遇する洗練されたシステムについて懸念を表明している。
彼は言った:
"懸念されるのは、このようなハイテクで高価なシステムが、本当に資源の豊富な病院に導入され、比較的恵まれた患者の転帰を改善する一方で、資源の乏しい病院や地方の病院の患者は、そのようなシステムを利用できないか、あるいは、そのような患者のために設計されていないために、治療を悪化させるシステムを利用することになる、ということである。
AIが急速な進化を遂げる中、ヘリントン博士は、医療におけるAIの倫理的・規制的枠組みを確立する窓口が狭まっていると警告している。
AIがもたらす潜在的な利益と、人間が関与することによる倫理的配慮のバランスを保つことは、開発者と医療提供者が共有する責任である。
問題は、すべての人のための公平なアクセスとケアを確保しながら、医療におけるAIの統合をナビゲートできるかどうかである。