Privacy-preserving federated learning and uncertainty quantification in medical imaging

原題: Privacy-preserving federated learning and uncertainty quantification in medical imaging 著者: N Koutsoubis, A Waqas, Y Yilmaz… | 会議: pubs.rsna.org 2025 | 引用: 0 PDF: koutsoubis25a.pdf


Radiology: Artificial Intelligence Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Privacy-preserving Federated Learning and Uncertainty Quantification in Medical Imaging

Nikolas Koutsoubis, MS (http://orcid.org/0000-0001-6195-9360)

Asim Waqas, PhD (http://orcid.org/0000-0002-6834-4710)

Yasin Yilmaz, PhD

Ravi P. Ramachandran, PhD (http://orcid.org/0000-0003-0011-4561)

Matthew B. Schabath, PhD

Ghulam Rasool, PhD (http://orcid.org/0000-0001-8551-0090)

Author affiliations, funding, and conflicts of interest are listed at the end of this article.

https://doi.org/10.1148/ryai.240637

Artificial Intelligence (AI) has demonstrated strong potential in automating medical imaging tasks, with potential applications across disease diagnosis, prognosis, treatment planning, and posttreatment surveillance. However, privacy concerns surrounding patient data remain a major barrier to the widespread adoption of AI in clinical practice, as large and diverse training datasets are essential for developing accurate, robust, and generalizable AI models. Federated Learning offers a privacy-preserving solution by enabling collaborative model training across institutions without sharing sensitive data. Instead, model parameters, such as model weights, are exchanged between participating sites. Despite its potential, federated learning is still in its early stages of development and faces several challenges. Notably, sensitive information can still be inferred from the shared model parameters. Additionally, postdeployment data distribution shifts can degrade model performance, making uncertainty quantification essential. In federated learning, this task is particularly challenging due to data heterogeneity across participating sites. This review provides a comprehensive overview of federated learning, privacy-preserving federated learning, and uncertainty quantification in federated learning. Key limitations in current methodologies are identified, and future research directions are proposed to enhance data privacy and trustworthiness in medical imaging applications.

©RSNA, 2025

This review article provides an in-depth analysis of the latest advancements in federated learning, privacy preservation, and uncertainty quantification in medical imaging. It also highlights current challenges and explores potential opportunities for improvement in these areas.

Abbreviations

AI = Artificial Intelligence, ML = Machine Learning, IID = Independent and Identically Distributed, PFL = Personalized Federated Learning, PPFL = Privacy Preserving Federated Learning

Essentials

  • フェデレーテッドラーニングは、医療画像データを直接共有せずに複数施設が協働でAIモデルを学習できるようにし、重要なプライバシー上の障壁を克服しつつ、モデル性能を維持します。

Radiology: Artificial Intelligence

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

  • プライバシー面での利点があるものの、フェデレーテッド学習は勾配更新を通じて情報漏洩に脆弱である。差分プライバシーやホモモルフィック暗号といったプライバシー保護戦略はこのリスクを低減するが、精度と効率のトレードオフを伴う。

  • フェデレーテッド学習における不確実性定量化はモデルの信頼性を高めるが、データの非IID性や計算コストの増大といった課題により、まだ十分に活用されていない。

Advances in artificial intelligence (AI), driven by deep learning and the availability of large datasets and computational resources, continue to transform medical imaging. AI models trained on radiologic data, such as mammograms, CT scans, and MRIs, are poised to become invaluable tools in both clinical and research settings (1-3). However, curating large, annotated, domain‑specific datasets remains challenging, due to privacy regulations and other factors. Unlike conventional AI model development methods that require pooling data at a single location, federated learning enables decentralized model development without sharing data (4,5). It allows for large‑scale model training by sharing model gradient updates between sites rather than the training data. This enables multiple sites to act as clients and train a global model on the server, which is then shared with all sites.

  • フェデレーテッド学習は医療画像分野における AI モデル訓練のデータ共有に関する多くの課題を解決できる(6)。しかし、独自の課題も存在する。第一に、異なるサイト間でデータが非IIDであることが多く、独立同分布(IID)仮定が破れ、モデル収束の不良、バイアスのかかった結果、汎化性能の低下などの問題を引き起こす。非IIDは撮像プロトコル、患者属性、疾患罹患率の違いなどに起因する。第二に、いくつかの研究ではフェデレーテッド学習サイト間でやり取りされる勾配更新からプライベートデータが抽出できることが示されている(7)。差分プライバシー(8)やホモモルフィック暗号(9)といった手法が通信セキュリティを向上させるために提案されており、しかしプライバシー保護とモデル性能の間には inherent なトレードオフがある(10)。第三の課題は不確実性定量化であり、AI の予測に対する自信度を測ることである(11)。臨床現場での信頼性と堅牢性に不可欠である(11)。ほぼすべてのディープニューラルネットワークベースの AI モデルは正確な不確実性定量化のために出力キャリブレーションが必要である(12)。非IIDデータやクライアント側でのクラス不均衡が起こりやすいため、従来の不確実性定量化手法をフェデレーテッド学習モデルに適応させる必要がある(13)。プライバシー保護と不確実性定量化が強化されたフェデレーテッド学習は、大規模な多機関データを活用した汎用的で頑健かつ信頼できる AI モデルの開発により、医療画像分野を革新する可能性がある。

This work reviews state-of-the-art methods in federated learning, privacy-preserving federated learning (PPFL), and uncertainty quantification, outlining the potential of these advancements to transform medical imaging. The paper is organized as follows: Sections 2, 3, and 4 review federated learning, PPFL, and uncertainty quantification in federated learning, respectively. Section 5 covers the real‑world applications of federated learning in medical imaging and summarizes the current challenges and opportunities. Figure 1 presents the organization of this review paper and Figure 2 presents a summary of the topics covered in this review. Readers are encouraged to refer to Supplementary Material (section 7) for more detailed technical aspects.

  • 本稿ではフェデレーテッド学習、プライバシー保護フェデレーテッド学習(PPFL)、およびフェデレーテッド学習における不確実性定量化に関する最新手法をレビューし、これらの進展が医療画像分野に与える可能性を概観する。論文は以下の通り構成される:第2章でフェデレーテッド学習、第3章でプライバシー保護フェデレーテッド学習、第4章でフェデレーテッド学習における不確実性定量化についてそれぞれ解説する。第5章では医療画像におけるフェデレーテッド学習の実世界応用を取り上げ、現在の課題と機会を総括する。図1は本レビュー論文の構成を示し、図2は本レビューで取り上げたトピックの概要を示す。詳細な技術的側面については補足資料(第7章)をご参照ください。

Radiology: Artificial Intelligence

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

the various federated learning topics discussed in this paper. A GitHub repository with links to papers reviewed in this work is provided here: Awesome List. The primary contributions of this work include:

  • 現在の最先端フェデレーテッド学習手法を、過去5年間の研究を中心にレビューし、分散データから学習しつつ、非IID(non‑IID)データセット、プライバシー保護要件、不確実性定量化の課題に対応した方法を取り上げた。
  • 医療画像におけるフェデレーテッド学習の実世界ユースケースを5つ紹介し、成功事例から得られた洞察を提示するとともに、医療画像分野でのフェデレーテッド学習、PFL(Personalized Federated Learning)、不確実性定量化に関する現在の課題と今後の研究機会についても論じた。

Federated Learning

フェデレーテッドラーニングは、プライベートなデータを外部に公開せずにエッジデバイス上で AI モデルを訓練するために最初に提案された手法である(14)。このアプローチにより、機械学習モデルが分散環境で感度の高いプライベートデータに対してトレーニングされるというパラダイムシフトが実現した。元々提案されたフェデレーテッドラーニングアルゴリズムである FedAvg は、クライアント側でローカルモデルを訓練し、勾配情報を中心サーバーに送信してグローバルモデルを作成するもので、理論的にはすべてのローカルモデルよりも優れた性能を持つことが期待できる(14)。本節ではフェデレーテッドラーニングアルゴリズムに焦点を当て、最新の技術的進展を紹介する。トピックの概要は図 3 に示されている。

Federated Learning Algorithms‑Characterization and Types

フェデレーテッドラーニングは、集中型(centralized)分散型(decentralized) の二つに分類できる。集中型では中心サーバーがアップデートを収集・統合してグローバルモデルを構築し、分散型ではクライアント同士が直接通信することで、プライバシー保護や接続性の制約がある場合でも学習が可能になる。近年は パーソナライズドフェデレーテッドラーニング(Personalized Federated Learning, PFL) が注目されており、従来の集中型フェデレーテッドラーニングを拡張した形で、クライアント間のデータ分布や計算資源の違いといった 非IID データ の特性に対応する。PFL は単一のグローバルモデルだけでなく、各クライアントに最適化された個別モデルを生成しつつ、共有知識も活用することで、異種環境下での適応性とパフォーマンス向上を実現する。本稿で取り上げた PFL アルゴリズムは、集中型フェデレーテッドラーニングの枠組み内で訓練されることが多く、別章で詳細に紹介している。表 1 では、本文中で言及したすべてのフェデレーテッドラーニングアルゴリズムをまとめている。

Centralized Federated Learning

図 3A に示すように、集中型フェデレーテッドラーニング は専用の中心サーバーが必要で、パラメータ集約とフェデレーテッドモデル構築を担う。これは多様な機械学習タスクで広く採用されている形態であり、以下の技術的進展が特徴である。

  1. 分散・異種かつ非IID データからの学習:クライアントごとに異なるデータ分布や計算リソースに対応しながら、効率的にモデルを更新できる。
  2. グローバルモデルとローカルモデルの最適化:全体的な性能向上だけでなく、各クライアント固有の要件に合わせた調整が可能になる。
  3. 安定性の確保:学習過程での振動や過学習を抑制し、収束を安定させる手法が多数提案されている。

(※本文はここで終了していますが、上記が翻訳した内容です。)

Radiology: Artificial Intelligence

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

翻訳
Just Accepted 論文は完全なピアレビューを経て受理され、本稿は最終版として出版される前に校正、レイアウト、校閲を受けます。最終的な校正済み記事の作成過程で誤りが見つかることがあり、内容に影響を与える可能性がありますのでご留意ください。

training across federated runs, locally and globally, to ensure model convergence. Notable centralized federated learning algorithms in recent years include FedProX (16), FedBN (17), FedGen (18), Federated Online Laplace Approximation (FOLA) (19), Train Convexify Train (TCT) (20), Federated Cross-Correlation and Continual Learning (FCCL) (21), and FedFA (22). A technical summary of each algorithm can be found in Supplement S1.

翻訳
フェデレーテッド学習の各ラウンドでローカルとグローバルの両方でモデルが収束するようにトレーニングします。近年注目されている集中型フェデレーテッドラーニングアルゴリズムには、FedProX (16)、FedBN (17)、FedGen (18)、Federated Online Laplace Approximation (FOLA) (19)、Train Convexify Train (TCT) (20)、Federated Cross-Correlation and Continual Learning (FCCL) (21)、そして FedFA (22) があります。各アルゴリズムの技術的要約は補足資料 S1 に掲載されています。

Decentralized Federated Learning

Decentralized federated learning implementations do not rely a central server to coordinate learning, as shown in Figure 3B (23–25). Depending on the application, decentralized federated learning may enhance privacy and security while increasing robustness and fault tolerance by eliminating single points of failure. It also improves scalability by distributing workloads across the network. Decentralized federated learning methods such as Swarm Learning (23), ProxyFL (24), and Fog-FL (25) offer alternative approaches to conducting federated learning experiments when a centralized server is not practical. Additional information about these decentralized methods can be found in Supplement S2.

翻訳
分散型フェデレーテッドラーニングは、図 3B (23–25) に示すように、中心サーバーに依存せずに学習を調整します。用途によっては、単一障害点を排除することでプライバシーとセキュリティが向上し、ロバスト性とフォルトトレランスが高まります。また、ネットワーク全体にワークロードを分散させることでスケーラビリティも改善されます。Swarm Learning (23)、ProxyFL (24)、Fog-FL (25) などの分散型フェデレーテッドラーニング手法は、中心サーバーが利用できない場合でも実験的にフェデレーテッド学習を行う代替手段を提供します。これらの分散型手法に関する追加情報は補足資料 S2 に記載されています。

Personalized Federated Learning (PFL) - Addressing Client Data Heterogeneity

In multi-institutional collaborations, patient demographics often vary widely across sites, a challenge amplified by geographic separation. These demographic differences can lead to substantial variation in datasets used to train a federated learning model across sites (26). In some cases, this can prevent model convergence or lead to underperformance on local data. As shown in Figure 3C, PFL develops tailored models for clients to address the data heterogeneity across sites while leveraging shared learning within the federated learning network (15). Some PFL methods, like pFedBayes (26), FedPop (27), and Self-Aware PFL (28), use probabilistic techniques to mitigate the effects of high data heterogeneity. Other methods, such as FedAP, use batch normalization layers to enhance performance. Detailed information on PFL algorithms can be found in Supplement S3.

翻訳
多施設間の協働では、患者の人口統計が施設ごとに大きく異なることが多く、地理的な分離によりその差異が顕著になります。これらの人口統計的違いは、各施設で使用されるデータセットに大きなばらつきをもたらし、フェデレーテッド学習モデルのトレーニングに影響します (26)。場合によってはモデルの収束が困難になったり、ローカルデータでの性能が低下したりします。図 3C に示すように、PFL(Personalized Federated Learning)はクライアントごとにカスタマイズされたモデルを開発し、施設間のデータ異質性に対応しつつ、フェデレーテッド学習ネットワーク内で共有知識を活用します (15)。pFedBayes (26)、FedPop (27)、Self-Aware PFL (28) などの一部の PFL 手法は確率的手法を用いて高いデータ異質性の影響を緩和し、FedAP のようにバッチ正規化層を使用する手法もあります。PFL アルゴリズムに関する詳細情報は補足資料 S3 に記載されています。

Privacy-preserving Federated Learning (PPFL)

In this section, we present several topics related to PPFL, as depicted in Figure 4 and Table 2. Additional PPFL methods are discussed in detail in Supplement S4.

翻訳
本節では、図 4 と表 2 に示すように、プライバシー保護型フェデレーテッドラーニング(PPFL)に関連するいくつかのトピックを取り上げます。補足資料 S4 でさらに詳細な PPFL 手法について説明しています。

Differential Privacy

One of the most popular methods for PPFL is differential privacy, which introduces noise into the gradients to prevent private information leakage (Fig 4A) (8). It provides mathematical guarantees of privacy preservation but potentially at the cost of model accuracy and convergence (10). Noising before aggregation federated learning (nbAFL), proposed by Wei et al ensures

翻訳
プライバシー保護型フェデレーテッドラーニングで最も一般的に用いられる手法の一つは差分プライバシーです。これは勾配にノイズを加えることで、個人情報が漏洩するリスクを防ぎます (図 4A) (8)。数学的にプライバシー保護を保証しますが、モデルの精度や収束に対して若干のコストがかかることがあります (10)。集約前にノイズを加えるフェデレーテッド学習(nbAFL)は、Wei らによって提案され、

(※本文はここで終了していますが、上記が翻訳した内容です。)

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

Privacy‑Performance Trade‑offs

Differential privacyは、クライアント側でモデルパラメータに人工的なノイズを加えてから集約することでプライバシーリスクを低減します (29)。nbAFL では、‑random scheduling 手法を用いて各集約ラウンドでランダムに 台のクライアントを選択し、攻撃者が有用な情報を抽出しにくくしています。最適な の値はプライバシーとモデル収束のバランスを取るために慎重に決定する必要があり、これは privacy budget allocation と呼ばれる概念です。

Homomorphic Encryption

図 4B に示すように、ホモモルフィック暗号は暗号化されたデータ上で直接数学的演算を行い、復号した結果が平文に対して演算を行った場合と同じになることを保証します (30,31)。この特性により、第三者とデータを安全に共有しながら処理を行うことが可能です。Somewhat homomorphic encryption はホモモルフィック暗号の一種で、限定された数回の算術演算が可能であり、計算効率が高いです (32)。somewhat ホモモルフィック暗号を用いたフェデレーテッド学習では、MRI から脳腫瘍セグメンテーションモデルや大腸癌組織病理スライドからのバイオマーカー予測モデルが訓練され、従来のフェデレーテッド学習と同等の性能を示しつつ追加的なプライバシー保証が得られました (33)。特に、暗号化はフェデレーテッドパイプラインの脆弱部分だけに適用されたため、トレーニング時間と計算コストは 5 % 未満の増加で済みました。

Uncertainty Quantification in Federated Learning

深層学習における uncertainty quantification(不確実性定量化)は、モデルが予測に対してどれだけ自信を持っているかを測る手法です。医療分野では、予測精度だけでなく信頼性も重要であり、適切な不確実性評価は意思決定支援に不可欠です (34)。不確実性定量化は、AI モデルへの信頼感・堅牢性・受容性を高め、モデルの運用後モニタリングや性能低下の早期検知、人間による介入のタイミング判断にも役立ちます。また、パーソナライズドモデルとグローバルモデルの選択支援、アウト・オブ・ディストリビューション(OoD)サンプルの検出、アクティブラーニング時のデータ選択などにも利用できます。フェデレーテッド学習では、参加クライアント間でデータが非独立同分布(non‑IID)であることが一般的であり、分布差やクラス不均衡などのサイト固有の特徴があるため、独自の課題があります。本節では、こうした課題に対応するための不確実性定量化手法を概観します(図 5・表 3 参照)。補足情報は補足資料 S5 にあります。

不確実性定量化手法はフェデレーテッド学習性能を向上させるいくつかの方法で活用できます。

  1. 不確実性に基づくクライアント選択:高い信頼度を持つデータを提供するクライアントを優先的に選ぶことで、モデル収束が促進されます。
  2. ローカル不確実性推定による重み付け集約:各クライアントの予測不確実性を考慮して重み付けすることで、品質の低い更新やノイズの影響を軽減できます。
  3. 不確実性を利用したモデル選択・パーソナライズ:グローバルモデルとローカル(パーソナライズド)モデルのどちらが適切かを判断し、必要に応じて切り替えることができます。

Uncertainty Quantification Using Model Ensembling

モデルアンサンブルはフェデレーテッド学習において広く用いられる不確実性定量化手法で、複数クライアントのモデルを集合体として扱います(図 5A) (13)。主なアンサンブル方式は次の三つです。

  • ローカルアンサンブル:各クライアントのモデルを独立したメンバーとみなし、プライバシー保護とシンプルさが特徴ですが、フェデレーテッド学習の協調性からはやや離れた形になります。
  • グローバルアンサンブル:全クライアントのモデルを統合して単一の集合体を作り、協調的な情報共有を保ちつつ計算・通信コストが増加します(異なる乱数シードで複数回学習したモデルを使用)。
  • マルチコーディネータアンサンブル:クライアントをサブグループに分け、各グループのコーディネータがローカルモデルを集約し、全体としてよりスケーラブルな構造になります。

Fed‑Ensemble (35) は上記三つの方式を拡張し、課題に対処する手法を提供します。詳細は補足資料 S5 を参照してください。

Uncertainty Quantification Using Conformal Prediction

Conformal prediction(コンフォーマル予測)は、機械学習モデルの予測に対して信頼区間や確率的保証を与える統計的手法です(図 5B) (36)。非交換性指標を用いて新しいサンプルが過去データとどれだけ異なるかを評価し、真のラベルや値が含まれる予測領域を生成します。フェデレーテッド学習ではクライアント間でデータ分布が異なるため、従来の交換性仮定が緩和された partial exchangeability の概念が導入されています。Lu らは部分交換性を利用したフェデレーテッドコンフォーマル予測フレームワークを提案し、理論的保証と実験的に高い性能を示しました(37)。この手法はコンピュータビジョンや医療画像タスクで特に有効です。補足情報は補足資料 S5 にあります。

Uncertainty Quantification Using Bayesian Federated Learning

ベイズ的フェデレーテッド学習では、各クライアントがパラメータの事後確率分布(PDF)を学習し、サーバーへその PDF を送信して集約します(図 5D) (38,39)。得られたグローバルな事後分布は全クライアントに共有でき、予測の不確実性評価に利用できます。事後分布の近似手法としては、MC‑Dropout や Stochastic Weight Averaging Gaussians(SWAG)などが提案されています (13)。


※ 本稿では、見出しは英語のまま保持し、本文はすべて日本語に翻訳しました。

Radiology: Artificial Intelligence

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

Uncertainty Quantification and Model Output Calibration

Uncertainty quantification methods assess and communicate how confident a model is in its predictions, which is crucial for reliable deployment and decision‑making. While these methods directly quantify uncertainty in model outputs, model calibration corrects a model’s tendency to be overconfident, particularly due to the Softmax function, thus aligning predicted probabilities with actual performance (11). By calibrating the Softmax output, a more accurate assessment of the model’s confidence is achieved. Luo et al. recently introduced the Classifier Calibration with Virtual Representations (CCVR) algorithm, which calibrates a global model to improve performance on non‑IID data in heterogeneous settings (40). The authors found that post‑training calibration significantly improves classification accuracy across various federated learning algorithms and datasets (40). Another recently proposed method, Federated Calibration (FedCal), performs local and global calibration of models (41). Additional information on calibration methods for federated learning can be found in Supplement S5.

While not a standalone uncertainty‑quantification method, model calibration is an important post‑processing technique that aligns predicted confidence scores (e.g., softmax outputs) with empirical accuracy. By correcting over‑ or under‑confidence—especially in the presence of non‑IID data—calibration enhances the trustworthiness of model predictions. However, unlike methods such as Bayesian inference or conformal prediction, calibration does not directly estimate epistemic or aleatoric uncertainty.

Federated Learning in Medical Imaging

With growing research in the field, real‑world applications of federated learning in medical imaging are beginning to demonstrate its clinical potential. This section presents federated learning implementation tools, real‑world clinical case studies, and the future outlook of federated learning in medical imaging, including challenges and opportunities.

Planning a Medical Imaging Federated Learning Project

Implementing a federated learning project for medical imaging involves several key steps to ensure success and compliance with privacy standards set by participating institutions and government regulations. Success can be measured by validating a model that outperforms all local models.

The implementation process begins by defining the specific medical imaging problem, such as disease classification, pixel‑level segmentation of organs, or identification of malignant masses in radiologic scans. The next step involves selecting the participating institutions—e.g., hospitals or imaging laboratories—and determining which site will act as the central server. Site selection is based on its ability to collect and preprocess necessary training data, train the model, and share updates with the server over the internet. After identifying collaborators, an appropriate federated learning software framework (e.g., NVIDIA FLARE) is selected and customized to meet the project’s specific needs. This customization may include implementing privacy‑preserving techniques and uncertainty‑quantification algorithms, as well as configuring site‑specific software for data loading and result storage. The ML model architecture, inputs, and outputs are also determined at this stage before deploying the federated learning framework on both the server and client sites.

Before model training begins, each site must prepare its data according to standardized preprocessing and labeling steps agreed upon beforehand. The federated training process commences once the environment is fully set up, with both central server and client configurations in place. During this phase, each client trains the model locally and sends updates to the central server, which aggregates these updates and redistributes the updated model for further training. This iterative process continues until the model converges. If uncertainty quantification is incorporated, it guides the training process.

After training, the model is evaluated both locally at each site and globally across all sites to assess its performance. Upon achieving satisfactory results, the model is deployed for clinical use or further research, with ongoing monitoring to ensure its effectiveness. The uncertainty‑quantification data can guide model selection for deployment, allow users to monitor system performance, and trigger manual review of model outputs when needed. The entire process is thoroughly documented, and reports are prepared to share findings with the research community. Finally, the model is maintained and periodically updated with new data or improved algorithms, ensuring its relevance and accuracy over time while collaboration among participating sites continues to drive ongoing learning and improvement.

Federated Learning Implementation Tools

To streamline the federated learning model training, validation, and deployment process, several open‑source frameworks and software development kits have been developed. NVIDIA Federated Learning Application Runtime Environment (FLARE) is a well‑known open‑source software development kit (42). NVIDIA‑FLARE supports various federated learning algorithms, workflows, and privacy‑preserving techniques, including differential privacy and homomorphic encryption.

OpenFL is another open‑source Python library that operates using a static network topology, where clients connect to a central aggregating server via encrypted channels (43). The workflow is defined by a federation plan agreed upon by all sites before implementation. Originally designed for medical imaging, OpenFL can be adapted for other applications.

FedBioMed is an open‑source framework tailored for biomedical applications of federated learning, offering tools and libraries to manage distributed training, handle heterogeneous data, and ensure privacy and security in biomedical research (44).

Argonne Privacy‑Preserving Framework (APPFL) is an open‑source Python package that provides utilities to implement, test, and validate various aspects of privacy‑preserving federated learning experiments in simulation settings (45).

Medical Imaging Federated Learning Studies

  • Federated Tumor Segmentation (FeTS) for Brain Tumors: FeTS‑1.0 was the first large‑scale real‑world federated learning effort in medical imaging, aiming to identify the optimal weight‑aggregation approach to train a consensus model across multiple geographically distinct institutions while retaining data locally (46, 47). Presented as a challenge, FeTS evaluated the generalizability of a federated model trained on brain tumor segmentation to unseen, institution‑specific data, showcasing the potential of federated learning in real clinical settings. Building on this, the FeTS‑2.0 challenge focused on out‑of‑sample generalizability for glioblastoma detection and

The copy is for personal use only.

Radiology: Artificial Intelligence

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

1. 大規模実世界医療フェデレーテッドラーニングの展開

  • 概要

    • 71 カ所、6 大陸にまたがる最大規模の実世界医療フェデレーテッドラーニングを実施し、これまでで最大規模となる膠芽腫データセット(患者数 6,314 名)を作成した。
    • このフェデレーテッド学習モデルにより、手術対象腫瘍の分割精度が 33 % 向上し、全腫瘍範囲では 23 % 向上した。
  • 技術的詳細

    • 中央集権型フェデレーテッド学習として FedAvg アルゴリズム(文献 14)を使用し、OpenFL フレームワーク(文献 43)上で実装した。

2. COVID‑19 結果予測のためのフェデレーテッドラーニング

  • 研究概要

    • Dayan らは、世界中の 20 機関から取得したデータを共有せずに学習し、電子医療記録(CXR)AI モデル EXAM を開発した。
    • EXAM は COVID‑19 患者の将来的な酸素投与要否を予測するタスクで、受信者特性曲線下面積(AUC)が平均 0.92 超と高い性能を示した。
  • 成果

    • フェデレーテッドモデルは AUC を 16 % 向上させ、汎化能力を 38 % 向上させた。
    • データは 4 大陸にまたがり、独立した 3 サイトで検証し、モデルの堅牢性を確認した。
  • 技術的詳細

    • 中央集権型フェデレーテッド学習で FedAvg アルゴリズムを使用(文献 14)。
    • プライバシー強化のために差分プライバシーも導入し、性能を維持しながらプライバシー保護が可能であることを示した。
  • 意義

    • 大規模実世界フェデレーテッドラーニングの代表的事例であり、医療 AI の大規模モデル構築に有用であることが示された。
    • データ分散状態でも追加解析がやや制限される点を除き、データ量が少ない施設にも高性能モデルを提供できる点が強み。

3. ODELIA(Breast Cancer)

  • プロジェクト概要

    • 欧州連合資金による研究イニシアティブ ODELIA(Open Consortium for Decentralized Medical Artificial Intelligence)は、2023 年 1 月に開始し、Swarm Learning を活用して医療 AI の変革を目指す。
  • 主な特徴

    • Swarm Learning により、患者データを共有せずに協調的にモデル学習が可能となり、データプライバシーの課題に対処する。
    • 5 年間でオープンソースの Swarm Learning フレームワークを開発し、MRI スキャンから乳がんを検出する AI アルゴリズムを作成する計画である。
  • 期待効果

    • 開発速度・性能・汎化能力が向上し、欧州全域で患者ケアの質が改善されることが期待されている。
    • データ収集に関する倫理的・法的障壁を克服しやすくなる。
  • パートナー構成

    • オーストリア、ドイツ、スペイン、ギリシャ、オランダ、ベルギー、スイス、イギリス(ケンブリッジ大学)など、計 12 の学術・産業機関が参加。

4. RACOON(肺病変分割の実世界フェデレーテッドラーニング)

  • プロジェクト概要

    • ドイツ放射線協同ネットワーク(RACOON)は、全国 38 病院が参加する取り組みで、実世界のフェデレーテッドラーニング実験を実施し、詳細なインフラ構築ガイドラインを公開した(文献 50)。
  • 主な内容

    • 中央集権型フェデレーテッド学習で肺病変分割モデルを訓練。6 病院に展開し、ローカル学習やアンサンブルと比較してフェデレーテッドラーニングの有用性を示した。
    • ガイドラインでは、以下の点を網羅的に解説している。
      • 組織構造:協働体制と責任分担
      • 法的要件:データ使用許諾やプライバシー規制への対応
      • 実験設計:タスク定義、評価指標の設定
      • 評価戦略:モデル性能比較手法

5. Breast Density Classification の実世界フェデレーテッドラーニング

  • 研究概要

    • Roth らは、乳密度分類タスクにおいてフェデレーテッドラーニングが従来のディープラーニング手法を上回ることを実証した(文献 51)。
  • 主な成果

    • 複数施設から取得したデータを用いて、乳密度分類モデルをフェデレーテッド学習で訓練し、個別ローカルモデルやアンサンブルと比較して、精度・再現性の面で優れた結果を得た。
  • 意義

    • フェデレーテッドラーニングは、データが分散している環境でも高品質な医療画像解析モデルを構築できることを示した。

以上が本文の日本語訳です。見出しは英語のまま残し、セクション構造を Markdown の見出し(##)で保持しています。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

Training a model for breast density classification using data from 7 clinical institutions. Results showed an average improvement of 6.3 % over locally trained models and a 45.8 % relative gain in generalizability when evaluated on external test data. This work provides empirical evidence of federated learning’s effectiveness in improving model generalizability, particularly in settings with limited data.

Challenges and Opportunities

We presented an overview of federated learning, personalized federated learning (PPFL), and uncertainty quantification from both technological and algorithmic perspectives. Additionally, we outlined the key steps for implementing a federated learning project and reviewed five case studies demonstrating its application to real‑world medical imaging tasks. Despite substantial progress in recent years, federated learning remains in its early stages. Several challenges must be addressed for federated learning to become a standard approach to machine‑learning model development in medical imaging. These challenges present opportunities for researchers to further explore and improve the state of federated learning in this field.

1. Administrative Challenges

Before implementing a federated learning project, engaging stakeholders from all participating institutions is essential. These stakeholders typically include researchers, the medical imaging team, information technology and cybersecurity experts, contract and agreement management teams, and hospital administrators. Engaging these groups ensures that all aspects of the project—from technical implementation to legal and ethical considerations—are addressed. Ethical approvals from relevant Institutional Review Boards or ethics committees must be obtained to ensure compliance with regulatory standards, particularly concerning patient data privacy and security. Additionally, formal agreements about “weight sharing” between institutions must be established. These agreements should outline whether model weights will be shared in “plain” or “encrypted” formats, addressing concerns related to data security and compliance with privacy laws such as HIPAA or GDPR. The agreements should also specify the responsibilities of each institution, including data governance, data transmission protocols, and contingency plans in case of data breaches. Addressing these issues comprehensively before the federated learning project begins is crucial for ensuring smooth collaboration and maintaining trust among the involved parties.

2. Requirement for Annotated Datasets

It is important to recognize that federated learning does not eliminate the need for annotated data. Each participating site must still invest substantial resources in creating and annotating datasets for training local models. The federated learning community should build upon and extend ongoing work in self‑supervised learning, active learning, continual learning, and transfer learning to federated environments. One promising area of research involves the use of generative AI models to create diverse, clinically relevant datasets. However, despite their potential, there is currently limited evidence supporting the clinical utility of AI‑generated images. This highlights the need for further research to validate their effectiveness in training federated models.

Privacy‑Performance Trade‑offs

フェデレーテッドラーニングにおける重要な課題の一つは、プライバシー保護とモデル性能の inherent trade‑off(固有のトレードオフ)です (29)。プライバシーバジェットを効率的に配分し、プライバシー保護を強化しつつモデルの効果性を損なわない方法について、さらなる研究が必要です。代替的なノイズタイプやノイズ注入手法を探求することは、差分プライバシーの有効性を向上させる有望な方向性を提供します。さらに、ホモモルフィック暗号化(homomorphic encryption)や部分的に同型暗号化(somewhat homomorphic encryption)といった暗号化手法は、フェデレーテッドラーニング環境に適応させ、暗号化されたモデルと未暗号化のモデル間の性能ギャップを最小限に抑える必要があります。同時に、サーバーとクライアント間の通信効率も、フェデレーテッドラーニングアルゴリズム全体の有効性を評価する上で重要な要素です。

Personalization versus Generalization in PFL

PFL(Personalized Federated Learning)は、個々のクライアント固有のニーズに合わせてモデルを調整できる利点があり、ローカルデータに対する性能向上につながります。一方で、このパーソナライズド化には過学習や汎化能力の低下といった課題も生じます。フェデレーテッドラーニングにおいては、個別最適化されたモデルと全体的に汎用的なモデルとのバランスを取ることが重要です。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

References

  1. Pati S, Kumar S, Varma A, et al. 医療分野におけるフェデレーテッドラーニングのプライバシー保護. Patterns (N.Y.) 2024;5(7):100974.

  2. Pati S, Kumar S, Varma A, et al. 医療分野におけるフェデレーテッドラーニングのプライバシー保護. Patterns (N.Y.) 2024;5(7):100974.

  3. Wiggins WF, Schmidt TMS, et al. 実践における画像AI:統合標準を用いた将来のワークフローのデモンストレーション. Radiology Artificial Intelligence 2021;3(6):e210152.

  4. Monti CB, van Assen M, Stillman AE, et al. 異種集団における胸部大動脈径測定のための畳み込みニューラルネットワークアルゴリズムの性能評価. Radiology Artificial Intelligence 2022;4(2):e210196.

  5. Darzidehkalani E, Ghasemi‑Rad M, van Ooijen PMA. 医療画像におけるフェデレーテッドラーニング:パートII 手法、課題、考慮点. Journal of the American College of Radiology 2022;19(8):975–982.

  6. Kaissis GA, Makowski MR, Rückert D, Braren RF. 医療画像における安全かつプライバシー保護されたフェデレーテッド機械学習. Nature Machine Intelligence 2020;2(6):305–311.

  7. Zhang F, Kreuter D, Chen Y, et al.; BloodCounts! consortium. 医療分野におけるフェデレーテッドラーニングの最近の方法論的進展. Patterns (N.Y.) 2024;5(6):101006.

  8. Jere MS, Farnan T, Koushanfar F. フェデレーテッドラーニングに対する攻撃の分類. IEEE Security & Privacy 2021;19(2):20–28.

  9. Dwork C. 差分プライバシー. In: Bugliesi M, Preneel B, Sassone V, Wegener I, eds. Automata, Languages and Programming. ICALP 2006. Lecture Notes in Computer Science, Vol 4052. Springer, 2006; 1–12.

  10. Gentry C. 完全同型暗号方式. PhD thesis. Stanford University, 2009. https://crypto.stanford.edu/craig/craig-thesis.pdf.

  11. Xu L, Jiang C, Qian Y, Li J, Zhao Y, Ren Y. 差分プライバシー分散分類におけるプライバシー‑精度トレードオフ:ゲーム理論的アプローチ. IEEE Transactions on Big Data 2017;7(4):770–783.

  12. Dera D, Bouaynaya NC, Rasool G, Shterenberg R, Fathallah‑Shaykh HM. PremiUm‑CNN:不確実性を伝搬させてロバストな畳み込みニューラルネットワークへ. IEEE Transactions on Signal Processing 2021;69:4669–4684.

  13. Ahmed S, Dera D, Hassan SU, Bouaynaya N, Rasool G. 医療画像に対する深層ニューラルネットワークの故障検出. Frontiers in Medical Technology 2022;4:919046.

  14. Linsner F, Adilova L, Däubener S, Kamp M, Fischer A. フェデレーテッド深層学習における不確実性定量化のアプローチ. In: Kamp M, Koprinska I, Bibal A, et al., eds. Machine Learning and Principles and Practice of Knowledge Discovery in Databases. ECML PKDD 2021. Communications in Computer and Information Science, Vol 1524. Springer, 2021; 128–145.

  15. McMahan B, Moore E, Ramage D, Hampson S, Aguera y Arcas B. 分散データからの深層ネットワーク学習を通信効率化する. In: Singh A, Zhu J, eds. Proceedings of the 20th International Conference on Artificial Intelligence and Statistics. PMLR 2017;54:1273–1282. https://proceedings.mlr.press/v54/mcmahan17a.html.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

References

  1. Butt M, Tariq N, Ashraf M, et al. A Fog‑Based Privacy‑Preserving Federated Learning System for Smart Healthcare Applications. Electronics 2023;12(19):4074.
  • 日本語訳:スマート医療応用のためのフェデレーテッドラーニングシステムをプライバシー保護しつつ実現するフォグベース
  1. Zhang X, Li Y, Li W, Guo K, Shao Y. Personalized Federated Learning via Variational Bayesian Inference. In: Chaudhuri K, Jegelka S, Song L, Szepesvari C, Niu G, Sabato S, eds. Proceedings of the 39th International Conference on Machine Learning Vol 162 of Proceedings of Machine Learning Research. PMLR 2022;162:26293–26310. https://proceedings.mlr.press/v162/zhang22o.html
  • 日本語訳:変分ベイズ推論によるパーソナライズドフェデレーテッドラーニング
  1. Kotelevskii N, Vono M, Durmus A, Moulines E. FedPop: A Bayesian Approach for Personalised Federated Learning. In: Koyejo S, Mohamed S, Agarwal A, Belgrave D, Cho K, Oh A, eds. Advances in Neural Information Processing Systems, Vol 35. Curran Associates, 2022; 8687–8701.
  • 日本語訳:FedPop:ベイズ的アプローチによるパーソナライズドフェデレーテッドラーニング

(※上記の日本語訳は、タイトルを日本語に翻訳したものです。)

Radiology: Artificial Intelligence

References

  1. Chen H, Ding J, Tramel EW, et al.
    「自己認識型パーソナライズドフェデレーテッドラーニング」.
    In: Koyejo S, Mohamed S, Agarwal A, Belgrave D, Cho K, Oh A, eds. Advances in Neural Information Processing Systems, Vol 35. Curran Associates, 2022; pp. 20675–20688.
    https://proceedings.neurips.cc/paper_files/paper/2022/file/8265d7bb2db42e86637001db2c46619f-Paper-Conference.pdf

  2. Wei K, Li J, Ding M, et al.
    「フェデレーテッドラーニングにおける差分プライバシー」:アルゴリズムと性能解析。
    IEEE Trans Inf Forensics Secur 2020;15:3454–3469.

  3. Dhiman S, Nayak S, Mahato GK, Ram A, Chakraborty SK
    「ホモモルフィック暗号に基づくフェデレーテッドラーニング」による金融データのセキュリティ。
    In: 2023 4th International Conference on Computing and Communication Systems (ICS). IEEE, 2023; pp. 1–6.

  4. Stripelis D, Saleem H, Ghai T, et al.
    「ホモモルフィック暗号を用いたフェデレーテッドラーニング」による安全な神経画像解析。
    In: SPIE Medical Imaging 2021. https://www.spiedigitallibrary.org/conference-proceedings-of-spie/12088/2606256/Secure-neuroimaging-analysis-using-federated-learning-with-homomorphic-encryption/10.1117/12.2606256.short

  5. Acar A, Aksu H, Uluagac AS, Conti M
    「ホモモルフィック暗号方式に関する調査」:理論と実装。
    ACM Comput Surv 2019;51(4):1–35.

  6. Truhn D, Tayebi Arasteh S, Saldanha OL, et al.
    「暗号化されたフェデレーテッドラーニング」によるがん画像解析の安全な分散協働。
    Med Image Anal 2024;92:103059.

  7. Dera D, Ahmed S, Bouaynaya NC, Rasool G
    「信頼性のある不確実性伝搬」を用いた順次時系列解析(RNN)における性能向上。
    IEEE Trans Knowl Data Eng 2023;36(2):882–896.

  8. Shi N, Lai F, Al Kontar R, Chowdhury M
    「Fed‑ensemble」:フェデレーテッドラーニングにおけるアンサンブルモデルによる汎化性能向上と不確実性定量化。
    IEEE Trans Automat Sci Eng 2024;21(3):2792–2803.


(※上記の日本語訳は、各文献情報を日本語に翻訳したものです。)

Radiology: Artificial Intelligence

Just Accepted papers

Just Accepted 論文は完全なピアレビューを受け、出版が承認されたものです。この記事は最終版として公開される前に、校正、レイアウト、そして校閲を経ます。最終的にコピー編集された記事の作成過程で、内容に影響を与える可能性のある誤りが発見されることがありますのでご留意ください。

References

  1. Pati S, Baid U, Edwards B, et al. フェデレーテッドラーニングが希少がんの境界検出に大規模データを活用できる。Nat Commun 2022;13(1):7346.

  2. Dayan I, Roth HR, Zhong A, et al. COVID-19患者の臨床アウトカム予測のためのフェデレーテッドラーニング。Nat Med 2021;27(10):1735–1743.

  3. ODELIA. 新しい研究プロジェクト ODELIA が、スウォームラーニングを用いて医療分野の人工知能を革新する。https://odelia.ai/(2024年6月17日アクセス)

  4. Bujotzek MR, Akünal Ü, Denner S, et al. 放射線医学における実世界のフェデレーテッドラーニング:克服すべき課題と得られる利点。J Am Med Inform Assoc 2025;32(1):193–205.

  5. Roth HR, Chang K, Singh P, et al. 乳房密度分類のためのフェデレーテッドラーニング:実世界での実装。In: Albarqouni S, Bakas S, Kamnitsas K, et al, eds. Domain Adaptation and Representation Transfer, and Distributed and Collaborative Learning. DART DCL 2020 2020. Lecture Notes in Computer Science, Vol 12444. Springer, 2020; 181–191.

Radiology: Artificial Intelligence

Just Accepted papers

Just Accepted 論文は完全なピアレビューを受け、出版が承認されたものです。この記事は最終版として公開される前に、校正・レイアウト・校閲を経ます。最終的にコピー編集された記事の作成過程で、内容に影響を与える可能性のある誤りが発見されることがありますのでご留意ください。

References

  1. Liu L, Jiang X, Zheng F, et al. A Bayesian Federated Learning Framework with Online Laplace Approximation. IEEE Transactions on Pattern Analysis and Machine Intelligence 2024;46(1):1–16.
    (訳)ベイズ型フェデレーテッドラーニングフレームワークにオンラインラプラス近似を組み込んだ手法

  2. Truex S, Baracaldo N, Anwar A, et al. A Hybrid Approach to Privacy‑Preserving Federated Learning. Proceedings of the 2019 ACM Conference on AI Security and Trust (AISEC’19), Association for Computing Machinery, 2019; 1–11.
    (訳)プライバシー保護型フェデレーテッドラーニングのハイブリッドアプローチ

  3. Xu R, Baracaldo N, Zhou Y, Anwar A, Kadhe S, Ludwig H. DeTrust‑FL: Privacy‑Preserving Federated Learning in Decentralized Trust Setting. In: Proceedings of the 2022 IEEE 15th International Conference on Cloud Computing (CLOUD), IEEE, 2022; 417–426.
    (訳)分散型信頼環境におけるプライバシー保護フェデレーテッドラーニング:DeTrust‑FL

  4. Qi T, Wu F, Wu C, He L, Huang Y, Xie X. Differentially Private Knowledge Transfer for Federated Learning. Nature Communications 2023;14(1):3785.
    (訳)フェデレーテッドラーニングのための差分プライバシー知識転送

  5. So J, Ali R, Güler B, Jiao J, Avestimehr AS. Securing Secure Aggregation: Mitigating Multi‑Round Privacy Leakage in Federated Learning. Proceedings of the AAAI Conference on Artificial Intelligence 2023;37(8):9864–9873.
    (訳)安全な集計の保護:フェデレーテッドラーニングにおける多ラウンドプライバシー漏洩を軽減

  6. Wang T, Yang Q, Zhu K, Wang J, Su C, Sato K. LDS‑FL: Loss Differential Strategy Based Federated Learning for Privacy Preserving. IEEE Transactions on Information Forensics and Security 2024;19:1015–1030.
    (訳)プライバシー保護のための損失差分戦略に基づくフェデレーテッドラーニング:LDS‑FL

  7. Plassier V, Makni M, Rubashevskii A, Moulines E, Panov M. Conformal Prediction for Federated Uncertainty Quantification Under Label Shift. In: Krause A, Brunskill E, Cho K, Engelhardt B, Sabato S, Scarlett J, eds. Proceedings of the 40th International Conference on Machine Learning (Vol. 202 of Proceedings of Machine Learning Research). PMLR 2023;202:27907–27947. https://proceedings.mlr.press/v202/plassier23a.html
    (訳)ラベルシフト下でのフェデレーテッド不確実性定量化のためのコンフォーマル予測

  8. Makhija D, Ghosh J, Ho N. Privacy‑Preserving Bayesian Federated Learning in Heterogeneous Settings. arXiv 2306.07959 [preprint]. https://arxiv.org/abs/2306.07959. Posted June 13, 2023.
    (訳)異種環境におけるプライバシー保護ベイズ型フェデレーテッドラーニング

  9. Sanderson BM. Uncertainty Quantification in Multi‑Model Ensembles. In: Oxford Research Encyclopedia of Climate Science.
    (訳)多モデルアンサンブルにおける不確実性定量化


Figure 1

Figure 1: Review paper の構成。図は、医療画像におけるフェデレーテッドラーニング(FL)の導入から始まり、FL アルゴリズムを集中型、分散型、個別化(PFL)に分類し、続いてプライバシー保護手法と不確実性定量化(UQ)について議論します。レビューは、医療画像における FL の応用例(実世界の利用ケース、課題、機会)で締めくくります。この視覚的表現は、レビューで取り上げた相互に関連するトピックを強調し、読者に論文全体の流れと内容を把握するための明確なロードマップを提供します。


This copy is for personal use only.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

![image](<COORD_124>, <COORD_151>, <COORD_877>, <COORD_515>)

Figure 2
An overview of Federated Learning (FL), Privacy Preserving Federated Learning (PPFL), and uncertainty quantification (UQ) is presented. Combining FL with strong privacy preservation and uncertainty quantification methods can help the medical imaging community develop large‑scale, multi‑institutional AI models that are truly generalizable, robust, and trustworthy.


Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

![image](<COORD_116>, <COORD_148>, <COORD_881>, <COORD_368>)

Figure 3
An overview of federated learning (FL) algorithm types is presented.

  • (A) In centralized FL, sites train a local model and pass the learned information to a central server to generate the global model; the global model is then sent back to the local sites for further training.
  • (B) Decentralized FL removes the need for a central server, allowing direct communication between sites.
  • (C) Personalized FL leverages a central server while creating a specific model for each site. Having a personalized model at each site is ideal in FL deployments with high data heterogeneity.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

![image](<COORD_117>, <COORD_147>, <COORD_880>, <COORD_378>)

Figure 4
A summary of privacy‑preserving FL (PPFL) methods is presented.

  • (A) Differential Privacy (DP) involves adding artificial noise to gradient information before it is communicated, making it harder for an attacker to extract useful details.
  • (B) Homomorphic Encryption (HE) enables mathematical operations on encrypted ciphertexts; after decryption the results are equivalent to having performed the calculations on plaintext. HE is useful when the central server cannot be fully trusted.
  • (C) Various other PPFL methods include hybrid approaches that combine DP and HE, knowledge transfer, secure aggregation frameworks with multi‑round privacy, loss‑differential strategies, and decentralized trust. Further details about these additional PPFL techniques are provided in Supplement S4.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

![image](<COORD_119>, <COORD_150>, <COORD_877>, <COORD_640>)

Figure 5
A summary of uncertainty quantification (UQ) methods in Federated Learning (FL is presented.

  • (A) Model ensembling refers to the process of training various models; the final result is the average of their predictions.
  • (B) Conformal Prediction (CP) is a method of UQ that provides a set of possible predictions, where the more uncertain the model is the more possible predictions it will provide.
  • (C) Model calibration is a post‑processing reliability enhancement technique that adjusts predicted confidence scores to better reflect true correctness likelihood. While not a direct uncertainty quantification method, it improves the trustworthiness of model outputs by mitigating overconfidence, especially in misclassified predictions, and aligns predicted probabilities with actual observed frequencies.
  • (D) Bayesian FL is another method of UQ that tracks the variance of the model during training and at inference time. The variance will go up as the model becomes more uncertain, providing a measure of model uncertainty.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Table 1 List and Characteristics of Federated Learning (FL) Algorithms

AlgorithmCentral ServerLocal ForgettingSummary
FedAvg14X各クライアントでローカルモデルを学習し、中央サーバーで勾配更新を平均してグローバルモデルを更新する。フェデレーテッドラーニングの最初に提案された手法です。
FedProx16Xデータが非均一な環境で優れた性能を示す。FedAvg の一般化版で、クライアントから部分的な更新だけを送信でき、近接項を追加して特定のクライアントがグローバルモデルに過度に影響を与えることを防ぎます。
FedBN17Xバッチ正規化を利用して非IIDデータ問題に対処する。FedAvg と同様の手順だが、ローカルモデルがバッチ正規化層を持ち、そのパラメータは平均化から除外されます。
FedGen18Xサーバー側で生成モデルを学習し、ユーザーモデルの予測を統合してコンセンサス知識を含む拡張サンプルを作成する。作成した拡張サンプルをクライアントに共有しローカル学習を正則化することで、精度向上と高速収束を実現します。
FOLA52ベイジアンフェデレーテッドラーニングフレームワークで、オンラインラプラス近似を用いてローカルなカタストロフ的忘却とデータの非均一性に対処する。サーバーとクライアント双方の事後分布を同時に最大化し、集約誤差を低減しつつローカル忘却を抑制します。
Swarm Learning23Xモデルパラメータはスウォームネットワークを介して共有され、各サイトでプライベートデータに基づき独立にモデルが構築されます。事前に認可されたクライアントのみが更新操作を行い、クライアントの動的追加も可能です。
TCT20「Train‑Convexify‑Train」アプローチで、まず既存手法(例:FedAvg)により特徴を学習し、続いてモデルの経験的ニューラルタンジェントカーネル近似から得られる凸化問題を最適化します。第一段階でデータから有用な特徴を抽出し、第二段階でそれらの特徴を利用して高性能なモデルを生成します。
FedAP15X事前学習済みモデルのバッチ正規化層統計量間の距離を計算してクライアント間の類似度を把握し、その類似度に基づいてクライアントモデルを集約します。各クライアントはバッチ正規化層を保持し個別化された特徴を維持し、サーバーは類似度で重み付けしたパラメータを使用して各クライアント向けに唯一の最終モデルを生成します。
pFedBays26Xクライアントとサーバーのニューラルネットワークに重みの不確実性を導入し、パーソナライズ化を実現します。各クライアントはプライベートデータ上の構築誤差をバランスさせながらローカル分布パラメータを更新します。
FCCL21フェデレーテッド交差相関・継続学習は、ラベルなし公開データを利用してモデル間の非均一性と非IIDデータに対応し、汎化性能を向上させます。モデル出力に基づく交差相関行列を作成してクラス不変性と多様性を促進し、知識蒸留により更新されたグローバルモデルとローカル学習済みモデルの両方を利用して領域間・領域内知識をバランスさせ、ローカル忘却を抑制します。
Self‑FL28自己認識型パーソナライズドFL手法で、クライアント内部の不確実性とクライアント間の不確実性を推定し、ローカル個人モデルとグローバルモデルの学習バランスを調整します。
Fedpop27X各クライアントは、全クライアントで共有される固定の集団パラメータと、ローカルデータの非均一性を説明するランダム効果から構成されたローカルモデルを持ちます。
FedFA22Xフィーチャーアンカーを用いて特徴と分類器をクライアント間で同時に整列・キャリブレーションし、ローカル学習中に共通の特徴空間内で一貫した分類器を持つ形でクライアントモデルを更新できます。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

ProxyFL24

  • Central Server:
  • Local Forgetting: X
  • Summary (Japanese): クライアントは、共有しないプライベートモデルと、患者プライバシーを保護するために設計された公開プロキシモデルの 2 つを保持します。プロキシモデルにより、中央サーバーを介さずにクライアント間で効率的に情報交換が可能となり、クライアントごとに異なるモデル構造を持つことができます。

FogML25

  • Central Server: X
  • Local Forgetting: X
  • Summary (Japanese): フォグコンピューティングノードは各サイトのローカルエリアネットワーク上に配置され、ローカルで学習されたモデルからの更新情報を事前に前処理・集約して送信することで、生データを送る際の通信量を削減します。

Note.—IID = independent and identically distributed.


Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Table 2 List of PPFL Algorithms having Differential Privacy (DP), Homomorphic Encryption (HE)

AlgorithmDPHESummary
Hybrid Approach53プライバシー保護と安全なマルチパーティ計算を組み合わせ、参加者数が増えてもノイズ注入の増大を抑えつつプライバシーを維持できる。信頼パラメータにより一定レベルの信頼性を保つ。
NbAFL29X集約前にノイズを加えるフェデレーテッドラーニング(NbAFL)では、K‑ランダムスケジューリングにより各クライアントのパラメータに人工的なノイズを導入し、プライバシーと精度のトレードオフを最適化する。
DeTrust‑FL54XX分散型信頼環境下でモデル更新を安全に集約する。クライアントが合意した参加行列に基づき、共同で復号鍵断片を生成する分散機能暗号方式を実装。
SHEFL33ある程度の同型暗号化を用いたフェデレーテッドラーニング(SHEFL)では、重みだけを暗号化した状態で通信し、すべてのモデル更新が暗号空間内で行われる。
PrivateKT55XローカルDP保証の下で知識転送を行うプライベートナレッジ転送手法。情報量に基づいて選択した少量の公開データを使用し、ランダムではなく知識品質を最大化する。
Multi‑RoundSecAgg56X複数トレーニングラウンドにわたるプライバシー保証を提供し、ユーザーごとの長期的なプライバシーを保証する構造化されたユーザセクション戦略を開発。
LDS‑FL57XXパラメータ置換によりプライベートモデルの性能を保持しつつ、複数ユーザーが参加することでプライバシー攻撃効率を低減する。

(^{*}) Note.—DP = differential Privacy, FL = Federated Learning.

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Table 3 Uncertainty Quantification Methods in Federated Learning

AlgorithmCPDist PredBayesCalSummary
CCVR (40)XXXVirtual Representation を用いた Classifier Calibration (CCVR) では、フェデレーテッド学習で得られたモデルの深層表現に大きなバイアスがあることが分かりました。分類器はローカルクライアントデータに対して最もバイアスが強く、事後的に分類器をキャリブレーションすることで分類性能を大幅に向上させられることを示しています。
Fed‑ensemble (35)XXXXEnsembling 手法をフェデレーテッド学習へ拡張し、予測の分散を知識不確実性の指標として用いることで予測に対する不確実性を定量化します。
DP‑fedCP (58)XXX差分プライバシー付きフェデレーテッド平均分位点推定(DP‑fedCP)では、フェデレーテッド学習環境で個別化された予測区間集合を構築することを目的としています。
FCP (37)XXXフェデレーテッド CP は、非IID データ特性に対応した予測区間推定をフェデレーテッド学習へ拡張するフレームワークです。
FedPPD (38)XXX各ラウンドでクライアントが自身のパラメータに対する事後分布と事後予測分布(PPD)を推定し、PPD をサーバーに送信します。
FedBNN (59)XXX各クライアントごとにカスタマイズされたローカルベイジアンモデルを学習させるフェデレーテッド学習フレームワークです。
FedCal (41)XXXローカルとグローバルの両方でモデルキャリブレーションを実施します。FedCAL はクライアント固有のパラメータを用いてローカルキャリブレーションを行い、予測精度を損なうことなく出力のずれを効果的に補正し、その後重み付け平均により集約してグローバルキャリブレーション誤差を最小化します。

Note.— CP = Conformal Prediction, Dist Pred = Distilled Prediction, Bayes = Bayesian, Cal = Calibration.


Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Supplementary Material

S1 Centralized FL Algorithms

  • FedProX
    FedProX は元の FedAvg アルゴリズム(16)を一般化したものです。特徴は次の二点です。(1) フェデレーテッドラウンドでクライアントが送信する更新を部分的にサーバーへ送ることを許容し、(2) 近接項(proximal term)を追加して、どのクライアントも過度にグローバルモデルに寄与しすぎないようにし、モデルの安定性を向上させます。

  • FedBN
    FedBN はバッチ正規化(batch‑norm)を活用して、非IID データの影響を軽減します(17)。FedAvg と同様の構造でローカル更新をサーバーへ送信し集約しますが、バッチ正規化パラメータはサイト固有として扱い、平均化から除外します。

  • FedGeN
    Knowledge Distillation は、クライアントモデルのアンサンブルから知識を抽出・共有することでデータ異質性に対処する新しい手法です(18)。FedGeN は FL においてデータフリーな方法で知識蒸留を行い、特に医療画像タスク(例:多臓器セグメンテーション)において、非均一データ設定でより高い精度と高速収束を実証しています。

  • FOLA
    ローカルなカタストロフ的忘却は、フェデレーテッド学習においてローカルモデルがグローバルモデルの重みで更新される際に、そのデータ固有の知識を失う現象です(19)。FOLA アルゴリズムはベイジアン原理とオンライン近似手法を組み合わせ、グローバルおよびローカルモデルの確率的パラメータを推定し、集約誤差を削減しつつローカル忘却を緩和します(52)。

  • Train‑Convexify‑Train
    非凸データ(特に特徴空間で変数間の関係が凸形にならないケース)では、ローカルモデルが異なる最適解を持つことがあり、グローバルモデルが収束しにくくなります(20)。Train‑Convexify‑Train 手順はまず FedAvg で特徴を学習し、続いてモデルを精緻化することで、非均一データに対して最大約37%の精度向上を実現します。

  • FCCL
    Federated Cross‑Correlation and Continual Learning(FCCL)は、ローカル忘却を緩和するために、ラベルなしの公開データを用いてモデルのロジット出力に対して交差相関行列を作成し、非IID データ間で汎用的な表現を促進します(21)。知識蒸留を利用し、グローバルモデルがドメイン間情報を保持し、ローカルモデルがドメイン内情報を保持することで、カタストロフ的忘却のリスクを低減させます。

  • FedFA
    FedFA は、特徴アンカーを用いてクライアント間で特徴を揃えつつ分類器をキャリブレーションすることで、データ異質性の課題に対処するために提案されました(22)。これにより、ローカルモデルは共通の特徴空間内で一貫した分類器を持ちながらローカル学習が可能です。FedFA アルゴリズムでは、クラス特徴アンカーとグローバルモデルの両方がサーバー側で集約されます。

S2 Decentralized FL Algorithms

  • Swarm Learning
    Swarm Learning はエッジコンピューティングとブロックチェーンベースのネットワークを統合し、中央サーバーなしで FL ランを調整できるようにします(23)。このアプローチは分散型ハードウェアとブロックチェーンを活用した分散機械学習により、サイトのオンボーディング、リーダー選出、パラメータ集約を安全に管理します。スウォームネットワークを通じてモデルパラメータを共有することで、各サイトがプライベートデータ上で独立してモデルを訓練できます。

Radiology: Artificial Intelligence

ジャスト・アクセプトされた論文は、完全なピアレビューを受け、出版が承認されました。この記事は最終版として公開される前に、校正、レイアウト、そして校閲を経ます。最終的な校正済み記事の作成過程で、内容に影響を与える可能性のある誤りが見つかることがありますのでご留意ください。

機密性は、ブロックチェーン上の制限された実行により事前に承認されたクライアントに対して保証され、さらに新しい参加者の動的オンボーディングが行われます。

  • ProxyFL
    ProxyFL は、情報交換にプロキシモデルを使用することで通信効率を向上させ、クライアントがプライベートなモデルを共有せずに保持できるようにします(24)。この手法はモデルの多様性をサポートし、各クライアントが独自のモデル構造を持ちつつ、差分プライバシー技術により機密性を確保できます。ProxyFL は通信オーバーヘッドを削減し、より強固なプライバシー保護を実現することで、既存手法を上回ります(24)。

  • Fog‑FL
    Fog‑FL は、データソースとクラウドの間に位置する分散型フォグコンピューティングインフラを活用し、計算・ストレージ・ネットワークサービスをデータが生成されるネットワークエッジに近づけることで、計算効率と信頼性を向上させます(25)。

S3 Personalized FL (PFL) Algorithms

  • FedAP
    FedAP は、事前学習済みモデルのバッチ正規化層統計を分析してクライアント間の類似性を特定し、その類似性を利用して集約プロセスを導きます(15)。各クライアントはバッチ正規化層を保持して個別特徴を保ちつつ、サーバーはクライアント間の類似性に基づいてモデルパラメータを集約し、各サイト用にユニークなモデルを作成します。FedAP は多様な医療データセットにおいて、精度が10%以上向上し、最先端のフェデレーテッド学習アルゴリズムと比較して収束が速くなることを実証しました(15)。

  • pFedBayes
    ベイズ推論を用いたパーソナライズド FL(pFedBayes)は、ベイズ的変分推論と重みの不確実性を取り入れ、モデル過学習を抑制しつつプライベートデータ上の構築誤差を最小化することで個人化性能を向上させます。また、サーバーから提供される全体分布との Kullback–Leibler ダイバージェンスも最小化します(26)。この手法により、各クライアントはプライベートデータの精度と全体分布への整合性のバランスを取りながらローカルモデルを調整できます。

  • FedPop
    FedPop は、特に新しいクライアントやデータが限られた環境、さらには不確実性推定(UQ)が不足している状況においても、クロスシロとクロスデバイスの両方で個人化に直面する課題に対処します(27)。FedPop は固定パラメータとランダム効果を組み合わせた集団モデリングを導入し、データ異質性を説明するとともに、モンテカルロマルコフ連鎖に基づくフェデレーテッド確率的最適化アルゴリズムを提示します。その結果、クライアントドリフトに対する頑健性が向上し、新しいクライアントへの推論が改善され、計算コストを最小限に抑えつつ不確実性推定(UQ)も可能になります。

  • Self‑Aware PFL
    PFL における重要な課題は、ローカルモデルの改善とグローバルモデルのチューニングをバランスさせることです。特に個人化された目的と全体的な目的が異なる場合に顕著です。ベイズ階層モデルに着想を得た自己認識型 PFL は、クライアント間およびクライアント内の不確実性推定(UQ)に基づき、ローカルとグローバルの学習を自動的に調整できる自己認識的手法を導入します(28)。この手法では、不確実性駆動型のローカル学習と集約を行い、従来の微調整手法に代わります。

S4 Other PPFL Methods

差分プライバシー(DP)と同様に、フェデレーテッド学習において機密性を保つために多くの他の手法が提案されており、以下に示します。

  • Hybrid Approach
    Truex らは、差分プライバシー(DP)と安全なマルチパーティ計算(SMC)を組み合わせて、データプライバシーとモデル精度のトレードオフを調整しました(53)。この手法は、DP を用いた FL 系統で参加者数が増えるにつれて通常発生するノイズ増加を抑制しつつ、事前に定義された信頼レベルを維持します。調整可能な信頼パラメータ (t) は、システムが安全に機能するために必要な最低限の誠実な参加者の数を示します。(t) を小さくすると(信頼度が低くなると)、各誠実な参加者が追加ノイズを多く付与し、潜在的な共謀者に対して保護します。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

  • PrivateKT
    PrivateKT は差分プライバシー(DP)を活用し、情報量に基づいて選択した少量の公開データセットに対して知識転送を実現します (55)。PrivateKT の手順は次の 3 ステップから構成されます。

    1. 知識抽出:クライアントがプライベートデータを使用して、選択された公開データに対して予測を行います。
    2. 知識交換:その予測結果に DP を適用した後、中央サーバーへ送信します。
    3. 知識集約:サーバーがこれらの予測を統合し、知識バッファを作成します。
      PrivateKT は重要度サンプリングを用いて不確実性の高いデータに注目し、知識品質を向上させるとともに過去に集約された予測を保存する知識バッファを提供します。厳格なプライバシーバジェット下で、集中学習との性能差を最大 84 % 縮小しました。
  • Multi‑RoundSecAgg
    従来の安全集約手法は単一トレーニングラウンドでのプライバシー保護に焦点を当てています (56)。しかし、ユーザーが部分的に選択されるため複数ラウンドでプライバシー漏洩が起こりやすいです。Multi‑RoundSecAgg はマルチラウンドのプライバシー保証を持つ安全集約フレームワークを導入し、構造化されたユーザ選択戦略により長期的なプライバシーを確保しつつ公平性と参加バランスも維持します (56)。

  • Loss Differential Strategy for Parameter Replacement (LDS‑FL)
    LDS‑FL はプライベートモデルの性能を維持しながら、複数参加者間でパラメータを選択的に置換するプライバシー保護型フェデレーテッドラーニング(PPFL)手法です (57)。公開参加者がパラメータを共有し、プライベート参加者は損失差分モデルを構築してプライバシー攻撃に耐えます。実験では LDS‑FL がメンバーシップ攻撃に対して堅牢なプライバシー保証を提供し、攻撃精度を 100 % 超過で低減させつつモデル精度への影響は僅かであることを示しました。DP や暗号化(HE)に代わる有力な選択肢となります (57)。

  • DeTrust‑FL
    DeTrust‑FL は中央サーバーに依存せずにモデル更新を安全に集約する分散型ソリューションです (54)。推論攻撃(例:分解)に対する脆弱性に対処し、分散型関数暗号化スキームを用いてクライアントが復号鍵の断片を生成します。さらに、バッチ分割とラウンドラベル付与により再送攻撃を防止し、通信効率は最先端レベルで、中央信頼エンティティへの依存度も低減します。

S5 Uncertainty Quantification

Model Ensembling

モデルアンサンブルは代表的な不確実性推定手法であり、複数のモデルに対して推論を行いその平均を取ることで得られます (60)。この手法はフェデレーテッドラーニング(FL)の分散特性に自然に適合し、複数クライアントがそれぞれ独立したモデルとして機能します。文献 (13) では、アンサンブル手法を FL 向け不確実性推定フレームワークに統合し、以下のバリエーションが利用されています。

  • Ensemble of local models
    この方法は深層アンサンブルに基づく不確実性推定を FL に取り入れる最もシンプルなアプローチです (13)。各ワーカーのローカルモデルをアンサンブルメンバーとみなし、全員がサーバーと通信する必要はなく、(m) 個の独立したモデルが得られます。最終予測にはこれらのモデルを用います。ただし、FL の本来の協調学習という概念がやや薄れますが、プライバシー保護に有利です (13)。

  • Ensemble of global models
    このアプローチは FL の協調性を保ちつつ計算負荷が増えます (13)。各ワーカーが異なる乱数シードで (S) 個のモデルを訓練し、各モデルに対して通常通り FL フローを実行します。(S) が大きくなると計算コストが急増しますが、より多様なグローバルモデルを得られます (13)。

  • Ensemble based on multiple coordinators
    この手法はワーカー群をサブグループに分割し、各サブグループごとにコーディネーターを割り当てます (13)。各サブグループ内で通常通り FL を実行し、得られた出力を平均して最終予測を作成します。

これらの方法はそれぞれ利点と課題を持ち、実際の FL 環境で使用する際には慎重に選択する必要があります。ローカルモデルのアンサンブルはプライバシーを強調しつつも、全体的な協調学習効果を活かすことができます。


このコピーは個人利用のみです。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copy‑edited article, errors may be discovered which could affect the content.

Ensembling methods can be applied to federated learning (FL) in several ways:

  • Treating each worker’s model as an independent ensemble member
    This approach maximizes data privacy and is straightforward to implement, but it departs from the collaborative essence of FL. It may lead to inconsistent model performance because each local model is trained in isolation.

  • Ensemble of global models
    This method aligns with the collaborative learning principle of FL by integrating diverse perspectives, thereby enhancing robustness. However, it incurs higher computational and communication costs, especially as the number of clients grows.

  • Employing multiple coordinators (sub‑group ensembling)
    By distributing the workload across sub‑groups, this approach improves scalability while allowing tailored learning strategies within each subgroup. It adds some coordination complexity and may risk fragmentation of learned knowledge across sub‑groups.

To balance these trade‑offs, hybrid or adaptive ensembling strategies that combine computational efficiency with collaborative benefits can be advantageous. The choice of ensembling method should ultimately be guided by the specific requirements of the application, including privacy constraints, available computational resources, and the degree of data heterogeneity.

Ensembling Techniques in Federated Learning

  • Fed‑Ensemble (35)
    Fed‑Ensemble extends traditional ensembling to FL by updating a group of (K) models rather than a single global model. Instead of aggregating local updates into one model, each client receives one of the (K) models, trains on its data, and returns the updated version. The server then aggregates all (K) updated models, yielding an ensemble that can be used for predictions by averaging. This method incurs no additional computational cost beyond standard FL and can be readily incorporated into existing algorithms.

    Empirical results show that Fed‑Ensemble outperforms many baseline methods across a variety of datasets. It particularly excels in heterogeneous settings—common in medical imaging applications—by characterizing prediction uncertainty through the variance among ensemble members. The authors demonstrate superior uncertainty quantification on CIFAR‑10 (61), CIFAR‑100 (62), MNIST, and OpenImagesv4 (63) datasets under both homogeneous and heterogeneous conditions.

    Using Neural Tangent Kernel (NTK) analysis, they show that predictions from all (K) models converge to samples drawn from a single Gaussian process in sufficiently over‑parameterized regimes. In practice, the server sends one of the (K) models to each client per training round; after local updates, the server aggregates the updated models so that every model eventually sees data from all clients. Uncertainty estimates can be derived by computing the sample variance across predictions from the ensemble, enabling accurate characterization of knowledge uncertainty even on unlabeled regions.

    Compared with FedAvg, which tends to produce over‑confident predictions, Fed‑Ensemble offers convergence guarantees and effectively handles data heterogeneity through ensembling, often outperforming methods that rely on strong regularizers.

  • Federated Conformal Prediction (FCP)
    FCP adapts conformal prediction for FL environments where data are non‑IID. While standard conformal prediction assumes exchangeability of calibration and test data, FCP leverages partial exchangeability—a generalization that does not require identical distributions across clients. This approach provides rigorous theoretical guarantees and has demonstrated strong empirical performance on several computer vision and medical imaging datasets (37).

  • Classifier Calibration with Virtual Representation (CCVR)
    CCVR focuses on calibrating a global model to improve performance on non‑IID data within heterogeneous settings (40). The authors observed that representations learned deeper in the network are more biased under FL, while classifiers exhibit the greatest bias. Post‑calibration of these classifiers significantly enhances classification accuracy. Specifically, classifiers trained on different clients show low feature similarity, and CCVR helps align them to produce more reliable predictions.


このコピーは個人利用のみです。

Radiology: Artificial Intelligence

Just Accepted papers have undergone full peer review and have been accepted for publication. This article will undergo copyediting, layout, and proof review before it is published in its final version. Please note that during production of the final copyedited article, errors may be discovered which could affect the content.

Radiology: Artificial Intelligence

ローカルクライアントのデータで過剰に表現されているクラスが、逆に表現不足なクラスに対しては性能が低下する原因となります。この分類器バイアスは、非IID(non‑IID)フェデレーテッドデータにおいて性能が低下する主な要因です。フェデレーテッド学習中に分類器を正則化すると、わずかな改善が得られます (40)。しかし、学習後に分類器をキャリブレーション(校正)することで、さまざまなフェデレーテッドラーニングアルゴリズムとデータセットに対して分類性能が大幅に向上します (40)。CCVR は、クライアントの特徴統計に基づいてフィットさせたガウス分布を用いて仮想的な表現(virtual representations)を生成します。その上で、特徴抽出部を固定したまま分類器を再学習させます。実験結果は、CIFAR‑10 などの一般的なベンチマークデータセットで最先端の精度を示しています。CCVR は市販の(off‑the‑shelf)特徴抽出部上に構築されており、元データの表現を送信する必要がなく、追加のプライバシーリスクを生じさせません。