Federated learning with differential privacy for breast cancer diagnosis enabling secure data sharing and model integrity
原題: Federated learning with differential privacy for breast cancer diagnosis enabling secure data sharing and model integrity 著者: S Shukla, S Rajkumar, A Sinha, M Esha, K Elango… | 会議: nature.com 2025 | 引用: 0 PDF: shukla25a.pdf
Federated learning with differential privacy for breast cancer diagnosis enabling secure data sharing and model integrity Shubhi Shukla1, Suraksha Rajkumar2, Aditi Sinha2, Mohamed Esha3, Konguvel Elango2 & Vidhya Sampath2 In the digital age, privacy preservation is of paramount importance while processing health-related sensitive information. This paper explores the integration of Federated Learning (FL) and Differential Privacy (DP) for breast cancer detection, leveraging FL’s decentralized architecture to enable collaborative model training across healthcare organizations without exposing raw patient data. To enhance privacy, DP injects statistical noise into the updates made by the model. This mitigates adversarial attacks and prevents data leakage. The proposed work uses the Breast Cancer Wisconsin Diagnostic dataset to address critical challenges such as data heterogeneity, privacy-accuracy trade- offs, and computational overhead. From the experimental results, FL combined with DP achieves 96.1% accuracy with a privacy budget of ε = 1.9, ensuring strong privacy preservation with minimal performance trade-offs. In comparison, the traditional non-FL model achieved 96.0% accuracy, but at the cost of requiring centralized data storage, which poses significant privacy risks. These findings validate the feasibility of privacy-preserving artificial intelligence models in real-world clinical applications, effectively balancing data protection with reliable medical predictions. Keywords Federated learning, Data security, Privacy preservation, Healthcare, Decentralized machine learning, Differential privacy Artificial Intelligence (AI) has revolutionized numerous industries, with the healthcare industry being the most promising sector for AI implementation. AI models have proven to be highly efficient in improving diagnostic accuracy, optimizing treatment plans, and improving medical research. However, traditional AI models require centralized data storage, where patient information is aggregated in a single repository. This centralized approach raises concerns regarding patient privacy, security risks, and regulatory compliance, especially in the healthcare sector, where sensitive medical data is involved. With the growing emphasis on data security, there is a requirement for decentralized learning approaches that can support collaborative AI training while ensuring data confidentiality. Federated Learning (FL) and Differential Privacy (DP) are two of such approaches that address these challenges by enabling the development of AI that preserves privacy in healthcare. FL allows multiple medical institutions to collaboratively train a shared AI model without transferring raw patient data to a central server, thereby mitigating the risk of data breaches1,2. Instead, model updates are exchanged and aggregated, retaining patient data in a local hospital environment. Think of Differential Privacy as the process of adding a slight blur to a picture, just enough to obscure distinctive details but preserve the overall pattern. DP achieves this by adding statistical noise to model updates, preventing the identification of individual patient data3,4. By combining FL and DP, it is possible to develop robust AI models that respect patient privacy while maintaining predictive accuracy, making them well-suited for regulatory-compliant healthcare applications. The increasing digitization of healthcare has led to a massive accumulation of patient-related data, including electronic health records (EHRs), diagnostic imaging, genomic data, and real-time monitoring from wearable devices5,6. This data-driven transformation has paved the way for predictive models, personalized treatment plans, and data-driven decision-making. However, with these advancements come significant challenges related to data privacy and security3,4. Stringent regulations such as the Health Insurance Portability and Accountability 1School of Electrical Engineering, Vellore Institute of Technology, Vellore 632014, India. 2School of Electronics Engineering, Vellore Institute of Technology, Vellore 632014, India. 3School of Mechanical Engineering, Vellore Institute of Technology, Chennai 600127, India. email: konguvel.e@vit.ac.in OPEN Scientific Reports | (2025) 15:13061 1 | https://doi.org/10.1038/s41598-025-95858-2 www.nature.com/scientificreports
Act (HIPAA) in the United States and the General Data Protection Regulation (GDPR) in the European Union impose strict constraints on the sharing of medical data6. Traditional centralized AI models often violate these regulations because they require data transfer across institutions, increasing privacy risks. In contrast, FL-DP provides a legally compliant alternative that allows institutions to develop AI models collaboratively without violating data protection laws. Federated Learning has emerged as a preferred solution for attaining collaborative AI training while upholding stringent privacy requirements7,8. In contrast to standard centralized machine learning models that rely on aggregating raw data, FL avoids local dataset sharing by any institution while only encrypted updates of the model are shared with a central aggregator1,2. FL not only increases security, but also avoids the risk of large- scale data breaches5. FL also addresses core challenges in healthcare AI deployment, such as data heterogeneity, security loopholes, and high communication overhead9,10. Nonetheless, even though promising, FL alone does not guarantee complete protection of data. There is a risk of model inversion attacks as well as other adversarial attacks, and thus, other privacy-maintaining measures like DP must be combined. The primary contribution of this study is to introduce a privacy-preserving FL framework for breast cancer detection that incorporates DP to ensure secure decentralized AI training. The key advancements of our work include: • This study introduces privacy-preserving federated learning (FL) for breast cancer detection, enabling decen tralized learning without sharing sensitive patient data, ensuring secure and collaborative model development across healthcare institutions. • The integration of Differential Privacy (DP) within the FL framework, which enhances data security while maintaining high model accuracy, effectively balances the critical trade-off between privacy and performance. • The performance evaluation of the proposed model demonstrated superior accuracy, outperforming tradi tional centralized models while preserving patient privacy, which validates the effectiveness of our approach. • The paper addresses key challenges inherent in FL, such as data heterogeneity, security risks, and communi cation overhead, by implementing solutions that improve model robustness and efficiency. • A comprehensive comparison of various privacy-preserving techniques identifies DP as the most practical and effective solution for FL in healthcare applications, highlighting its superiority in maintaining both secu rity and model performance. • The paper proposes future directions for enhancing the FL framework, including the integration of block chain technology for improved security, adaptive privacy tuning to optimize performance dynamically, and scalability improvements for broader deployment across diverse healthcare systems. Federated Learning, as promising as it is, is plagued by several challenges in the heterogeneity of healthcare data. Various medical centers tend to possess datasets with non-uniform statistical patterns, a problem referred to as non-independent and identically distributed data. This lack of uniformity results in model learning disproportionately, and, as such, there will be delayed increases in accuracy4. Such heterogeneity complicates optimal model convergence, necessitating specialized aggregation methods and adaptive FL approaches11–13. Moreover, the implementation of uniform security measures in a decentralized FL network is challenging because institutions may use varying degrees of data privacy and protection10,14,15. Even if privacy-preserving technologies such as DP and MPC are used, over-adding noise would compromise model accuracy, necessitating the creation of an optimal trade-off between privacy protection and performance16. This study confirms that FL-DP successfully preserves privacy while maintaining strong diagnostic accuracy for breast cancer detection. Our experiments indicate that while DP introduces a small accuracy trade-off, it provides robust privacy guarantees, making it an effective solution for privacy-sensitive applications. The results further demonstrate that the use of an optimal privacy budget minimizes performance loss while ensuring compliance with regulatory frameworks. FL has also been shown to outperform centralized AI models by reducing false positives and false negatives, which is crucial for clinical decision-making. Moreover, DP is computationally efficient and scalable, outperforming alternative techniques such as Homomorphic Encryption (HE) and Secure Multi-Party Computation (SMPC) in terms of practical deployment. However, deploying FL-DP in real-world hospital environments requires overcoming key challenges, including inter-institutional collaboration barriers, standardization of FL protocols, and ensuring patient consent for federated model training7. Healthcare institutions vary in regulatory and technical infrastructure and applying a common FL framework across institutions is difficult. In addition, integrating FL into existing electronic health record (EHR) systems requires significant modifications in the hospital’s IT infrastructure and computational resources. Despite all this, industry advancements, such as dermatology AI trials with Google’s FL-based technology, indicate that FL can be successfully integrated into real-world clinical workflows. Future research needs to explore the integration of blockchain technology for additional security, adaptive DP mechanisms for privacy optimization, and large-scale medical dataset evaluations to facilitate mass adoption of FL-DP in healthcare5. By addressing these core areas, this work makes significant contributions to the building of privacy-preserving AI in healthcare towards safe, collaborative, and regulation-friendly model development for life-critical medical use cases.
関連研究
関連研究
文献調査セクションでは、医療アプリケーションにおける FL(Federated Learning: 連合学習)の広範な採用に関する論文に焦点を当てており、データセキュリティと効率性を維持しつつプライバシー保護型機械学習を実現することを目指しています。モデル更新からのプライバシー漏洩の問題は初期の研究で初めて特定され27、これによりプライバシー保護技術の開発が必要となりました。医療分野における FL の利用は、データセキュリティと計算効率性を維持しながらプライバシー保護型機械学習をサポートできるため、大きな注目を集めています。
FL モデルにおける最初のプライバシー漏洩問題は、敵対者が共有されたモデル更新から機密情報を回復できることが示された際に特定されました。さまざまな研究で、医療用途における FL の課題が調査されており、特にプライバシーリスク、セキュリティ攻撃(例:データポイズニング、モデル逆推定)、大きな通信コスト、非 IID データ、プライバシーと精度のトレードオフ、スケーラビリティ、規制要件への準拠などが明示的に考慮されています17–22。これらの課題を解決することは、現実世界の医療展開における FL の完全な潜在能力を引き出すために不可欠です。
FL は、医療分野における集中型機械学習に対するプライバシー保護ソリューションとして広く見なされており、機関が生の患者データを交換せずに共同でモデルを訓練することを可能にしています23,24。しかし、分散化は新たな脅威をもたらします。例えば、プライバシーとモデル精度のトレードオフやセキュリティ侵害などです25,26。これらの脅威を緩和するために、差分プライバシー(DP: Differential Privacy)、準同型暗号化(HE: Homomorphic Encryption)、および安全なマルチパーティ計算(SMPC: Secure Multi-Party Computation)などのさまざまなプライバシー保護メカニズムが提案されています27。その中で、DP は、敵対的な攻撃による機密患者情報の再構築を防ぐためにモデル更新に制御されたノイズを追加することでプライバシーを保護するために広く採用されています。28 は、医療 AI アプリケーションを保護するために DP が必要であることを示唆しています。この研究は、DP が患者のプライバシーを維持する一方で、ノイズの注入がモデルの精度を低下させることを確立し、最適なプライバシーと有用性のトレードオフを必要とすることを明らかにしました。しかし、過剰なノイズの付加はモデルの精度を大幅に低下させ、根本的なプライバシーと有用性のトレードオフを生み出します。一部の研究では、DP のプライバシー予算の最適化が、プライバシー保護とモデル性能のバランスをどのように達成できるかを調査しています20。
DP の欠点を克服するために、HE や SMPC などの暗号化技術が提案されています。HE は暗号文上での計算をサポートし、SMPC は個々の貢献を明らかにせずに安全な共同訓練を可能にします29。しかし、両方の方法とも高い計算コストを伴うため、リアルタイムの医療 AI アプリケーションには実用的ではありません30。31 は FL における HE と SMPC を検討し、両方の技術が高いプライバシーを保証する一方で非常に高い計算コストを伴い、特に医療分野ではリアルタイムアプリケーションには非現実的であると指摘しています。FL はデータのプライベートな処理をサポートしていますが、依然としてデータポイズニング、モデル逆推定攻撃、敵対的操作に対して脆弱です。これらの懸念は、患者の真で正確な診断がデータの整合性に大きく依存するため、医療と AI にとって重要です。
FL のプライバシーとスケーラビリティをさらに強化するために、研究者らはブロックチェーン支援 FL 集約手法を提案し、データポイズニングやモデル逆推定などの敵対的攻撃から防御しています。ブロックチェーンはモデル更新の改ざんを防ぎますが、追加の計算遅延をもたらすため、大規模展開を制限します32。他の研究では、生物学的インスパイアード AI 手法を含む適応最適化手法が提案されており、これらは DP パラメータを適応的に調整して精度の低下を抑えつつ堅牢なプライバシー保護を強化します33。
FL 展開における最新の開発の一つは、エッジコンピューティングプラットフォームとの統合です。クラウドベースの FL アーキテクチャは従来、高いレイテンシとネットワーク依存に悩まされており、リアルタイムの医療アプリケーションを遅らせています。エッジコンピューティングにより、FL はデータソース(例:病院の画像診断装置、ウェアラブルセンサー)付近で計算を実行でき、通信オーバーヘッドを低減し効率性を向上させます34。この手法はスケーラビリティとリアルタイム処理の改善を示しており、臨床環境における FL の実現可能性を高めています。
これらの進展にもかかわらず、医療分野での現実世界の FL 展開には依然としていくつかの課題が残っています。これには、不均一なデータ分布、機関間標準化、規制準拠に関連する問題が含まれます。いくつかの進行中の研究では、放射線学、病理学、ゲノム研究における FL-DP の使用を探っており、さまざまな医療分野にわたるスケーラビリティを示しています。初期の結果は、FL が強力なプライバシー保証を損なうことなく不均一な病院データセット全体でモデルの一般化能力を高める準備ができていることを示唆しています。このような発見は、AI 支援診断に対する FL-DP の長期的かつプライバシーに焦点を当てた解決策としての実現可能性を裏付けています。
本研究では、生の患者データを明らかにすることなく安全な共同 AI ベースの乳がん診断を可能にすることを目的としており、診断精度を維持しつつプライバシーを保護する可能性があります。FL-DP を用いることで、医療機関は厳格な規制要件を満たしながら安全かつ協力的に協力できます。
連合学習(Federated Learning)
医療における連合学習の概要
連合学習は、訓練対象のデータが複数のサーバー間で分散されたままになりつつデータをローカルに保持する機械学習アプローチです2,34。クライアントまたはサーバーがモデルを訓練し、生のデータを送信する代わりに更新のみを送信します。各クライアントはデータをローカルに保有し、集中型サーバーとモデルを更新します4,17。中央サーバーはその後これらの更新を集約し、より効率的な ML モデルを作成します3,35。このアプローチは、機密情報をローカルデバイスの範囲内に保持することでプライバシーを強化するだけでなく、データ侵害のリスクやデータ規制による課題など、従来の集中型モデルに内在する問題に対処します36。FL はまた、多数の分散デバイスを使用して ML モデルを訓練する力を統合しており、中央集権的なデータストレージなしで大規模な協力を可能にします。FL における訓練プロセスは反復的であり、各クライアントがデータをローカルで訓練し、更新されたモデルをサーバーに送信し、サーバーがそれを取り込んでクライアントに再配布してさらに訓練を行う37 セットです。セキュリティを高めるために差分プライバシーを使用しており、これはモデル更新にノイズを追加しデータの漏洩を防ぎます21。FL は非常にスケーラブルであり、数百万台のデバイスに適用でき、特にデータが広く分散されている場合に有用です37–39。
連合学習アーキテクチャ
連合学習(FL)のアーキテクチャは図 1 に示されており、複数のクライアントデバイスと中央サーバー間の相互作用を示し、データプライバシーを維持しながら分散型機械学習を促進しています。このアーキテクチャは、患者データの保護が極めて重要な医療などの敏感な分野において特に重要です36。システムは 2 つの主要コンポーネントで構成されています:クライアントデバイスと中央サーバーで、それぞれが連合学習プロセスにおいて異なる役割を果たします17,40。
クライアントデバイスは、連合学習システムの構築ブロックです。分散型システムでは、各クライアント(次の図では個別の病院として隔離されている:病院 A、B、C、D)は自身の環境に固有のローカルデータセットを保有しています。このアーキテクチャは、患者記録などの機密情報がローカルに保存され、遠隔サーバーに送信されないことを保証することでデータプライバシーを向上させるように設計されています41,42。クライアントデバイスの主なタスクは、生のデータの保存、ローカルモデルの訓練、モデルの更新および中央サーバーへの送信です。プロセスは、各クライアントが中央サーバーからグローバルモデルを受信することから始まります43,44。モデルはクライアントのデータセットを使用してローカルで訓練され、プライバシーを損なうことなく多様なデータコレクションから学習することを可能にします45。ローカル訓練プロセスが完了すると、クライアントは更新のみ(例:勾配と重み)を中央サーバーに送信して集約します。この戦略により、機密情報は各クライアントのデータベース内で安全に保たれ、データ侵害のリスクが大幅に最小化されます19,46。
これらの利点にもかかわらず、クライアントデバイスは連合学習プロセスの有効性に影響を与える可能性のある多くの課題に直面しています47,48。主な課題の一つは、非 IID(独立同分布でない)データの存在です。異なるクライアントによって収集されたデータセットは、データ分布と品質に基づいて非常に多様である可能性があります49。このようなデータの不均一性は、グローバルモデルのパフォーマンスと一般化能力を低下させる可能性があり、堅牢性を確保するために高度な集約技術の使用が必要となります50。さらに、計算能力、ストレージ容量、および利用可能なエネルギーのクライアントデバイス間の変動は、訓練時間やモデル更新の偏りを招き、学習プロセスをさらに複雑にします44,51。
中央サーバーは連合学習システムの調整役であり、クライアントデバイスとの通信を管理しながらグローバルモデルを管理しています。その主な役割は、クライアントからのモデル更新を集約し、更新されたグローバルモデルをクライアントに再配布することです。サーバーは生のデータを受け取らず、代わりにモデルパラメータの安全な集約を実行してデータの機密性を維持します52。すべての参加クライアントからのモデル更新を受信した後、中央サーバーは連合平均(FedAvg: Federated Averaging)などの集約アルゴリズムを実行し、すべてのクライアントから得られた結合された知識を捉えた更新されたグローバルモデルを作成します。この更新されたモデルは、次回のローカル訓練のためにクライアントに再配布され、モデルが特定の精度または収束レベルに達するまで続く反復プロセスが作成されます53。
中央サーバーの役割はモデルパフォーマンスだけでなく、システムの堅牢性とセキュリティにも重要です。接続の問題やハードウェア制限により一部のクライアントが更新を送信しないクライアントドロップアウトなどの問題を管理する責任があります。また、サーバーはモデル更新の同期を管理し、クライアントの利用可能性の変動にもかかわらず学習プロセスが安定していることを保証する必要があります。さらに、中央サーバーはプライバシー保護において重要な役割を果たしており、差分プライバシーや安全なマルチパーティ計算などの技術を使用して、モデル集約中の機密データを保護します54。図 2 は、連合学習(FL)と集中型学習(CL: Centralized Learning)アーキテクチャの比較概要を提供し、データ管理、通信プロトコル、およびプライバシー制御における本質的な違いを強調しています。左側に示されている連合システムは、いくつかのクライアントデバイスまたはサーバーにわたるデータ分布によって定義されています52。このシステムでは、生のデータはクライアント間またはサーバーに直接共有されません48。ローカルモデル訓練は各クライアントのデータセットを使用して行われ、勾配とパラメータの形式でモデル更新が中央サーバーに通信されます。更新は結合されてグローバルモデルを作成します。このアプローチは、機密情報がネットワーク上で共有されないため、データプライバシーとセキュリティを大幅に強化します。また、大規模なデータセットではなくモデルパラメータのみが共有されるため、帯域幅の使用量を削減します。しかし、連合学習には通信レイテンシ、デバイス間の複雑な同期プロセス、および非 IID(独立同分布でない)データによって引き起こされる複雑さなどの限界があり、これらはモデルパフォーマンスに影響を与える可能性があります16。
図 2 の右側は、すべてのデバイスのデータが単一の中央データベースに集約される集中型システムを示しています。この構成では、生のデータは個々のデバイスからマスターサーバーへ連続的にストリーミングされ、機械学習モデルが集約されたデータ上で訓練されます42,43。集中化は、完全なデータセットへのアクセスがあるため、モデルの訓練と追跡が簡単であり、より高いパフォーマンスと精度をもたらす可能性が高いです。集中化はまた、連合学習に必要な高度な同期メカニズムを回避します。しかし、集中化は単一の侵害ポイントを提供するため、深刻なプライバシー懸念を引き起こし、攻撃されやすくデータ侵害に脆弱です。また、データ転送には高い帯域幅が必要であり、GDPR や HIPAA などのデータ保護規制への準拠に課題がある可能性があり、特に医療などの敏感な分野では13。
この図は 2 つのシステムを効果的に比較しています:連合システムはデータプライバシー、セキュリティ、および分散化を優先し、医療や金融などの敏感な業界に理想的です。一方、集中型システムはパフォーマンスとシンプルさに焦点を当てており、データプライバシーの懸念がそれほど重要ではないソーシャルメディアや e コマース分析などのアプリケーションに適しています。最終的に、連合学習と集中型学習の選択は、特定のアプリケーション要件、特にデータプライバシーとモデルパフォーマンスのバランスに依存します。
さらに、表 1 は、データストレージ、プライバシー、通信要件、および一般的なユースケースを含む、連合システムと集中型システムを区別する主要な側面に関する詳細な比較を示しています。この表は、2 つのアーキテクチャの間で選択することに関わるトレードオフの簡潔な要約を提供します。
連合学習における課題
多くの利点にもかかわらず、連合学習(FL)はその効率性、セキュリティ、およびモデルパフォーマンスに影響を与える可能性のあるいくつかの重要な課題に直面しています55。図 1 は、データが分散されたままになる方法を示していますが、この設計はデータ分布、通信、およびセキュリティの複雑さを導入します。FL の主要な課題はデータの不均一性、通信オーバーヘッド、およびセキュリティ問題であり、これらは以下のセクションで詳細に議論されます:
• データの不均一性:FL における最大の課題の一つはデータの不均一性であり、これはクライアントデータの非独立同分布(non-IID)な性質によるものです。現実世界の FL アプリケーションでは、クライアントデバイス(例:病院、スマートフォン、IoT デバイス)が異なる環境からデータをサンプリングし、不均衡なデータ分布をもたらします49,55。このような不均一性は、グローバルモデルのパフォーマンスの低下を引き起こす可能性があります。なぜなら、それはより大規模または顕著なデータコレクションを持つクライアントのデータセットに偏る可能性があるためです56。さらに、FL の目標はすべてのクライアントで強いパフォーマンスを示すグローバルモデルを学習することですが、この目標は特定のクライアントデータセットに最適化されたパーソナライズドモデルの必要性と競合する可能性があります13。データの不均一性を緩和するには、パーソナライズド連合学習、クライアントクラスタリング、適応集約技術などの高度な技術が必要であり、これによりグローバルモデルがうまく一般化し、ローカルデータパターンに適応できるようになります。
• 通信オーバーヘッド:連合学習(FL)は本質的に、クライアントデバイスと中央サーバー間の定期的な通信を伴い、大きな通信オーバーヘッドがあります57。従来の機械学習の慣行とは対照的に、データが集中化される場合、FL は各訓練イテレーション後にモデル更新(勾配と重み)を送信することを必要とします。通信プロセスは特に大規模モデルや多数のクライアント人口を扱う際に帯域幅に制約されています58。さらに、過度なネットワークレイテンシまたは信頼性の低いネットワークがある環境では、この通信がボトルネックとなり、モデル訓練を大幅に遅らせ、収束時間を延長します59。モデル圧縮、更新の犠牲、非同期通信、および連合ドロップアウトは通信コストを軽減できますが、これらの慣行はモデルのパフォーマンスと安定性にコストを伴います。
• セキュリティ懸念:FL は生のデータをクライアントデバイスに保持することでより高いデータプライバシーを約束しますが、FL はさまざまなセキュリティ脅威に対して免疫ではありません。差分プライバシーや安全なマルチパーティ計算などのプライバシー保護手法を採用しているにもかかわらず、FL システムは悪意のある攻撃に対して依然として脆弱です58,60。例えば、モデルポイズニング攻撃は、悪意のあるクライアントが中央サーバーに不適切または操作されたモデル更新を故意に送信した場合に発生する可能性があります。これによりグローバルモデルのパフォーマンスが損なわれたり、完全に失敗したりします13,61。さらに、推論攻撃により敵対者が放送されたモデル更新から機密データを再構築できる可能性があります。このような脆弱性にcounteractするために、異常検出、堅牢な集約アルゴリズム(例:Krum、Trimmed Mean)、およびクライアント検証プロトコルなどの強力な防御メカニズムの組み込みが不可欠です。しかし、これらのセキュリティ慣行の追加はシステムに計算オーバーヘッドと複雑さを課す可能性があります62。
プライバシー保護技術
FL におけるプライバシー保護は、データ分布が分散化されており、多くのクライアントが独自にモデルを訓練し、生のデータではなくモデル更新のみをアップロードするため不可欠です63。しかし、実際にはプライバシーリスクが残っています。悪意のある参加者は、クライアントから共有されたモデル勾配から機密情報を推測できる可能性があり、中央集約者さえもプライバシーを侵害する可能性があります64。プライバシーを保護するためのさまざまな技術が開発され、暗号化ベース、摂動ベース、およびマスキングベースの手法の 3 つに分類できます27,39。図 3 は、暗号化ベース、摂動ベース、マスキングベースの手法、およびトークン化に分類されたさまざまなプライバシー保護技術を示しています。
暗号化ベースの技術
暗号化ベースの手法は強力な暗号的保証を提供します。クライアント更新は通信および集約中も機密性が保たれます65,66。
• 安全なマルチパーティ計算(SMPC: Secure Multi-Party Computation):SMPC は、複数の当事者がデータをプライバシーに保ちながら入力上で関数を共同計算することを可能にする技術です67。FL では、SMPC は中央サーバーを含む単一のエンティティが個々のモデル更新にアクセスできないことを保証します68。各クライアントは共有する前に更新を暗号化し、集約は暗号化された値に対して実行されます。しかし、SMPC は計算オーバーヘッドを導入するため、小規模な FL アプリケーションにより適しています69。
• 準同型暗号化(HE: Homomorphic Encryption):準同型暗号化(HE)は、復号化せずに暗号化されたデータ上で直接計算を実行することを可能にする暗号化技術です。連合学習(FL)の文脈では、HE はサーバーが更新を集約する間もモデル更新を暗号化したまま保ち、生のデータを一度も露出させることなく維持します。クライアントはモデル更新を暗号化して送信し、サーバーは暗号化された値を集約します。HE はデータ暴露のリスクを防ぐことで強力なプライバシー保護を提供しますが、計算オーバーヘッドが著しくあり、データセキュリティが処理複雑性の増加よりも重要である状況により適しています26,64。
摂動ベースの技術
摂動手法は、敵対者が機密情報を再構築するのを防ぎつつ意味のあるモデル訓練を可能にしながら、データまたはモデル更新に制御されたノイズを導入します。
• 差分プライバシー(DP: Differential Privacy):DP は FL で広く使用されており、モデル更新からの情報漏洩を防ぐために使用されます。ガウス機構が一般的に採用されており、ガウス分布から抽出されたランダムノイズが勾配に共有される前に追加されます。プライバシー予算は (ε, δ) として表され、プライバシーとモデル精度のトレードオフを制御します70,71。低い (ε) はより強いプライバシーを保証し、個々の貢献を推測することが難しくなりますが、過剰なノイズはモデルパフォーマンスを低下させる可能性があります72。
• ローカル差分プライバシー(LDP: Local Differential Privacy):LDP は、DP が通常中央サーバーレベルで適用される方法とはかなり異なります。ここでは、集約のために更新を送信する前にノイズがクライアント側で直接適用されます。したがって、1 つのクライアントの更新が傍受されたとしても、個々のデータポイントは保護されます73。しかし、各クライアント側で大量のノイズが追加されるため、精度の大きな損失をもたらします20。
マスキングベースの技術
マスキング手法は、共有する前にデータを匿名化または擬似匿名化し、データの再構築リスクを低減しつつその有用性を維持します74,75。
• 匿名化:データ処理の前に個人識別情報を削除または変更することを伴います。FL では、匿名化によりクライアントのアイデンティティがモデル更新にリンクされず、標的型攻撃を防ぎます76。しかし、数学的なプライバシー保証を提供しないため、外部データセットと組み合わされた場合、脱匿名化攻撃に対して脆弱です77–79。
• 擬似匿名化:個人識別子をランダム化またはハッシュ値に置き換え、個々の参加者への直接リンクを許可しません80。擬似匿名化は敵対的な再構築を防ぐ点では暗号化や DP よりも弱く、推論攻撃の緩和には役立ちますが81,82。
トークン化
機密データ要素を、モデルの訓練環境外で利用価値のない非機密等価物(トークン)に変換します。FL では、これはメタデータを保護し、GDPR や HIPAA などの他のプライバシー規制に準拠するために暗号化と併せて行われることがよくあります83,84。
連合学習におけるプライバシー保護技術:トレードオフの考慮事項
上記の各手法は、プライバシー保証、計算効率性、および通信オーバーヘッドのバランスを提供します。特定の手法の選択は FL システムのニーズに依存します:
• セキュリティの強度:SMPC や HE などの暗号化に基づく手法は強力なプライバシー保証をもたらしますが、計算オーバーヘッドがあります23,85。
• スケーラビリティ:差分プライバシー-DP と LDP に基づく手法はスケーラビリティを増加させますが、ノイズを追加してモデル精度に影響を与えます。
• 軽量:匿名化手法とトークン化は軽量ですが、暗号的なプライバシー保証がありません27。
ハイブリッドアプローチは、実際の FL 展開で最も典型的です。例えば、DP と暗号化はプライバシー保護とモデルパフォーマンスのバランスにおいてバランスを見つけます;連合平均と準同型暗号化は、個々の更新を露出させることなくプライバシー保護安全集約を保証できます。
これらのプライバシー保護技術の統合により、連合学習は敏感なデータを効果的に保護しつつ、分散したクライアント間で共同モデル訓練を可能にし、特に医療、金融、パーソナライズド AI システムなどのプライバシーに敏感な分野で有用です。
方法論
データセットと前処理
医療分野におけるプライバシー保護措置の成功した統合には、連合学習(Federated Learning: FL)の実装が不可欠です。図 4 に示される階層的ピラミッド図は、機械学習モデルのトレーニングおよび展開に関与する逐次段階を視覚的に表しており、特に連合学習(FL)設定においてその役割を果たします。最下位層はデータ収集と前処理を示し、ここで生きた医療データがクリーニングされ、正規化され、モデルトレーニングのために構造化されます。上位へ進むにつれ、各クライアントサイトでのローカルモデルトレーニングが行われ、患者データを分散状態に保つことでプライバシー保護を確保します。モデル集約および更新フェーズでは、ローカルでトレーニングされたモデルを集約し、グローバルに最適化されたモデルを形成し、その後、さらなる改良のためにクライアントへ再配布されます。最上位では、最終モデルが臨床応用において展開され、乳がん診断を支援します。この構造化された進行は、FL がどのようにプライバシーを確保し、分散データセット全体でパフォーマンスを維持し、現実世界の医療統合を可能にするかを強調しています。
データセット
本研究の基盤となるのは、機械学習研究で広く使用されている Breast Cancer Wisconsin Diagnostic データセットです。このデータセットは、医療診断および分類タスクのためのベンチマークデータセットのよく知られたソースである UCI Machine Learning Repository から入手されました24。表 2 および図 5 は、Breast Cancer Wisconsin (Diagnostic) データセットの概要を示しています。このセットには約 569 の乳がん腫瘍のインスタンスが含まれており、各観測は乳房生検から得られた異なる指標を反映した 32 の特徴量によって定義されています。特徴量には、細胞核の半径、粗さ、滑らかさ、緊密性、凹み、対称性、およびフラクタル次元を含む行列が含まれます。診断は、良性に対して ‘B’、悪性に対して ‘M’ で示されます。分析目的のため、これらのカテゴリカルラベルは、悪性腫瘍に 1、良性腫瘍に 0 を割り当てたバイナリ形式に変換されます。その結果、ターゲットカラムを 1 つ含む 32 のカラムで構成されたデータセットが、モデル評価のためのより包括的で改善されたデータセットとなりました。本研究の方法論にはいくつかの重要なコンポーネントが含まれています。これは、精度およびプライバシー保護のレベルを決定するために行われました。まず、連合学習手法を組み込まない機械学習モデルを構築するためにデータセットが使用されました。次に、プライバシーレベルを向上させる一歩として、同じデータセットを用いた TensorFlow 環境の実装が行われ、差分プライバシー(Differential Privacy: DP)を備えた連合学習を開始しました。 本研究では、個人を特定できる情報を含んでいない公衆アクセス可能な Breast Cancer Wisconsin Diagnostic データセットを使用しています。しかし、臨床環境における FL のリアルタイム展開には、倫理的配慮が講じられる必要があります。患者データから学習された連合 AI モデルは、機関審査委員会(IRB: Institutional Review Board)の承認に準拠し、HIPAA(Health Insurance Portability and Accountability Act: 医療保険携行性及び責任法)や GDPR(General Data Protection Regulation: 一般データ保護規則)などの規制ガイドラインに従う必要があります。将来の展開には、明示的な患者同意プラクティスが組み込まれており、データガバナンスポリシーが医療内の倫理的 AI 展開の基準に追いつくことを確保する必要があります。
表 2. Breast Cancer Wisconsin データセット概要。
- データセット名:Breast Cancer Wisconsin (Diagnostic)
- ソース:UCI Machine Learning Repository
- サンプル数:569
- 特徴量数:30(例:半径、テクスチャ、周囲長、面積など)
- ターゲット値:診断(悪性:1、良性:0)
図 4. 医療における連合学習:階層的ワークフロー。
データ前処理
前処理は、データセットを機械学習のために準備する際の重要なステップであり、データの完全性、一貫性、および適切な特徴表現を保証します。本研究では、欠損値の処理、特徴量スケーリング、エンコーディング、特徴選択、およびデータセット分布戦略を含む体系的な前処理パイプラインに従いました。各ステップは、プライバシーを維持しつつモデルパフォーマンスを向上させるために連合学習用にデータセットを最適化するように慎重に設計されました。表 3 は、データクリーニング、ラベルエンコーディング、正規化、および train-test splitting を含むデータ前処理に関与する手順を概説しています。これらの手順により、データセットが適切にフォーマットされ、標準化され、モデルトレーニングおよび評価の準備が整います。診断(悪性および良性)によって区別された Breast Cancer Wisconsin Diagnostic データセットにおける主要特徴量の分布および pairplotting は、図 6 に示されています。
欠損値の処理
データセットの徹底的な検査が行われ、欠損値が存在しないことが確認されました。しかし、医療データセットなどの現実世界のシナリオでは、患者記録の不備、手動データ入力エラー、または診断結果の欠如により、欠損値は非常に一般的です。これらの欠損値は、平均値や最頻値による代入(imputation)、不完全なレコードの削除などの手法によって検出および処理されます。このステップは、単一のクライアントのデータセット内のこのような不一致がグローバルモデルのパフォーマンスに影響を与える可能性があるため、非常に重要です。FL トレーニングを開始する前にクリーンで完全なデータセットを確保することで、モデルの安定性が向上し、学習における潜在的バイアスが防止されます。医療データセットでは、欠損値は診断に大きく貢献した可能性のある貴重な情報の損失を意味します86。これらの問題を防止するために、データの喪失が最小限であり推定が可能であるシナリオでは、K 近傍法(K-nearest neighbor)による代入や回帰ベースの代入などの標準的な代入技術が適用されます87。
特徴量スケーリングと正規化
数値属性を正規化するには、特徴量スケーリングが不可欠であり、すべての特徴量が学習プロセスに平等に貢献するようにします88。使用されるモデルの種類に基づいて、2 つの異なるスケーリング技術が適用されます:
-
連合学習(ニューラルネットワーク)における Z-Score 正規化:
- ステップ
- データクリーニング:不要なカラム(Unnamed:32, id)を削除し、欠損値を処理
- ラベルエンコーディング:Diagnosis カラムをバイナリ値に変換(悪性:1、良性:0)
- 正規化:特徴量を標準範囲にスケーリングするために Z-score 正規化を適用
- train-test split:データセットを 80% のトレーニングおよび 20% のテストサブセットに分割
表 3. データ前処理の手順。
特徴量分布を平均ゼロ、分散 1 に変換するために Z-score 正規化が使用され、以下の式で計算されます:
- Z: 標準化された値または Z スコアを表し、データポイント X が平均 µ から何標準偏差離れているかを示します。
- X: データセットからの元のデータポイントまたは観測値。
- µ: グレック文字ミュー(µ)で表されるデータセットの平均(アベラージ)。
- σ: グレック文字シグマ(σ)で表されるデータセットの標準偏差であり、データポイントが平均からどのように広がっているかを示します。
この変換は、すべての特徴量が類似したスケールを持つように保証することで、大きな数値が学習プロセスを圧倒することを防ぎます89。これによりモデルの収束がバランスされ、ニューラルネットワークに基づく連合学習モデルにおけるモデルトレーニング効率が向上し、勾配爆発または消失(exploding or vanishing gradients)のリスクが最小化されます。この手法は、均一にスケーリングされた入力を有することが重み調整を改善し逆伝播(backpropagation)を強化する勾配ベース最適化において非常に有利です。
- ステップ
-
木ベースモデル(ランダムフォレスト)における Min–Max スケーリング: この手法は、特徴量値を [0,1] の固定範囲に変換するために使用され、これは木ベースモデルにとってより理解しやすいものです。Min-Max スケーリングは勾配降下最適化に依存するわけではありませんが、正規化された特徴量範囲に依存しており、決定境界の形成を強化し、すべての特徴量値が同じ範囲内にあることを保証します。これにより、木ベースモデルが計算オーバーヘッドを最小限に抑えながら決定ノードを効率的に分割できるようになります。以下の式は、通常 [0, 1] の特定の範囲内で特徴量を正規化するために一般的に使用される Min-Max スケーリング手法を表しています。このスケーリング技術は、データポイント間の関係を維持しつつすべての特徴量がモデルに平等に貢献することを保証し、木ベースモデルとのアンサンブル学習を含む特定シナリオで有益となり得ます。
- X_scaled: Min–Max スケーリングを適用した後の元のデータポイントのスケーリング(正規化)された値を表します。
- X: スケーリングする必要がある元のデータポイントまたは特徴量値。
- X_min: データセット内の特徴量の最小値であり、スケーリングの下限として使用されます。
- X_max: データセット内の特徴量の最大値であり、スケーリングの上限として使用されます。
使用されたスケーリング戦略は、モデルがデータを処理する設計上の違いおよび FL および非 FL のケースで最高パフォーマンスを引き出すことに基づいて決定されました。スケーリングは、特徴量の分布パターンによってモデル学習がバイアスされないことを保証するためプロセスの重要な一部であり、これは医療応用において特に重要であり、異なる特徴量が本質的な性質により著しく異なる範囲を持つ可能性があるためです89。
ターゲット変数のエンコーディング
機械学習モデルは数値入力を必要とするため、カテゴリカル診断ラベルは計算を容易にするためにバイナリ値に変換されました90。診断ラベル ‘B’(良性)および ‘M’(悪性)は以下の数値表現に変換されました:
- 良性 (B) → 0
- 悪性 (M) → 1
このエンコーディングは、機械学習プログラムでのスムーズな認識およびプログラムされた演習の一貫した提示のために必要です。バイナリエンコーディングでは、分類モデルが異なるクラス間で重みを効果的に分散し、トレーニングデータへの過学習(overfitting)を回避しながら成功したモデル最適化を確立できます。これは、ロジスティック回帰やニューラルネットワークに基づく構造など、損失関数が高度に非線形である場合に特に重要です。連合学習では、参加者間のデータ不整合を防ぐためにすべてのクライアントで同じエンコーディングを維持することが不可欠です。
特徴量選択
特徴量選択は、モデルトレーニングのために最も関連性が高く不可欠な特徴量を発見し、パフォーマンスを向上させ計算複雑性を低減することを目的とした機械学習における重要な操作の一つです。計算効率の向上、過学習(overfitting)の減少、およびモデル解釈性の向上を確保するために特徴量選択が実施され、最も関連する属性のみが分類精度に貢献するようにしました91,92。本研究では RFE(Recursive Feature Elimination: 再帰的特徴消去)を使用して、重要であると識別された特徴量のみを対象としました。RFE は、モデルがトレーニングモデルへの影響を考慮しながら反復的に最も重要な特徴量をフィルタリングする特徴量選択手法です。表
特徴量選択と連合学習データ分布
特徴量選択プロセス
図 4 は、特徴量選択プロセスを詳細に示しています。与えられたシナリオでは、再帰的特徴消去(Recursive Feature Elimination: RFE)がランダムフォレスト分類器(Random Forest Classifier)と組み合わされました。アンサンブルベースの機械学習手法の中で、ランダムフォレスト分類器は、高次元データ上で動作する際の精度と回復力において最もよく知られています。このプロセスでは、RFE は最初すべての特徴量を含み、最も重要なものだけが残るまで、非重要なものを徐々に削除しました。このプロセスの主要なステップは、トレーニングデータにランダムフォレストモデルを適合させることでした。その後、特徴量は重要度スコアでランク付けされ、相関ペアプロットのグラフが作成されました。モデルの予測改善に最も大きく寄与する上位の特徴量が選択されました。データセットの機械学習モデルは、この最終的に選択された特徴量のセットを使用してトレーニングされました。これらの選択手法の 2 つの主要な目的は、第一に過学習(overfitting)を減少させること、第二に最も重要で情報量豊富な特徴量に主点を置くこと、そして第三に無関係または冗長な要素を除外することによりモデルの解釈可能性(interpretability)を高めることです。再帰的特徴消去(Recursive Feature Elimination: RFE)を通じて特定された特徴量の重要度と、選択された特徴量の相関ヒートマップは、それぞれ図 7 および図 8 に示されており、データセットの主要な属性および特徴量間の関係性に関する洞察を提供しています。
表 4. 特徴量選択。
- ステップ:再帰的特徴消去(Recursive Feature Elimination: RFE)
- 説明:選択された特徴量
- 使用された手法:ランダムフォレスト分類器(Random Forest Classifier)
- 推定器(Estimator):ランダムフォレスト分類器
- 選定基準:重要度に基づいて上位 10 の特徴量が選択される
- 理由:次元削減およびモデルパフォーマンスの向上
連合学習データ分布
現実世界の連合学習設定を模倣するために、データセットは 2 つのアプローチに従って異なるクライアントに共有されました。すなわち、独立同分布(IID: Independent and Identically Distributed)構成と非独立同分布(Non-IID: Non-Independent and Identically Distributed)構成です。IID 構成を達成するためには、データセットがシャッフルされ、すべてのクライアントに対してランダムかつ均等に分割されました。各ユーザーは、良性および悪性の症例の同等量を受け取りました。つまり、割り当ては同じでした。この種のシナリオは、最も最適な設定における連合学習モデルの相対的性能測定において実施されました41。非独立同分布(Non-IID)構成では、データセットが不均等に配分され、病院ごとに疾患の有病率が異なる現実の医療現場を模倣しました93,94。一部のクライアントには主に良性症例を含むデータセットが与えられ、他のクライアントには主に悪性症例が割り当てられました。この状況は、中央集約型アグリゲーターなしで、連合学習モデルが異なるクライアント間で均一に分布していないデータを分類する能力が十分かどうかを確認するために実施されました。図 9 は、連合クライアント間におけるデータの分布を示しており、IID および Non-IID の 2 つのアプローチ間に存在する相違を視覚化しています。このステップは、連合学習モデルが本質的に多様な医療データセットをどのようによく識別できるかを決定するために重要でした。
連合学習なしのランダムフォレストモデルアーキテクチャとトレーニング
ランダムフォレスト分類器(Random Forest Classifier)は、多数の決定木を作成しそれらの予測を組み合わせることで決定木の分類精度を最適化するアンサンブル学習アプローチです。過学習(overfitting)を起こしやすい単一の決定木とは対照的に、ランダムフォレストは多数のモデルを統合することで、より広く採用され、強力な分類出力が得られます。この機能は、誤った分類が重大な結果をもたらす可能性のある医療診断において特に重要です95。多数決または平均化による最終予測を行う複数の決定木を使用するアンサンブル学習手法のアーキテクチャを図 10 に示します。
ランダムフォレストのアーキテクチャと機能
ランダムフォレスト技術は、データセットからブートストラップサンプリング(bootstrap sampling)技術によって収集された異なるデータサンプル上で多数の決定木をトレーニングすることを含みます。各木は独立したエンティティとして機能します。したがって、すべての木で最も注目されるものが分類プロセスで使用されることが決定されます96。ランダムフォレストアルゴリズムの主な利点は、高次元データを処理する能力、全体的な結果の分散(variance)を減少させる能力、およびモデルを安定化させる能力です。以下の図は、ランダムフォレストの詳細なインターフェースを表しています97。
- 決定木構築: ランダムフォレストは多数の異なるデータサブセットで構成されており、それぞれがトレーニングデータから構築された決定木です。アンサンブル手法は通常、データセットの分割によって生じる複数の決定パスを分析する木を作成する際に採用されます。ノード(nodes)は特徴量の分割であり、リーフ(leaves)は最終分類の出力です98。
- 特徴量サブセット選択: 各木の分割において、最適な分割を決定するために使用されるのは特徴量の小さな寄与グループのみであり、これにより木が互いに似すぎることが防止されます。このように木同士が類似していないことは、一般化(generalization)の向上のために重要です99。
- 投票メカニズム: 予測を行うプロセスには、他の木の参加なしに各決定木が入力サンプルを評価することが含まれます。誰かが分類すべきサンプルを持つすべての木の多数決(majority voting)が最終的な決定につながります。これによりシステムは過学習に対して堅牢になり、一般化が問題にならないことが保証されます100。
- クラス不均衡の処理: ランダムフォレストアルゴリズムは、トレーニングデータからクラスサンプルを収集し、すべてのクラスのほぼ均等な分割が達成されるようにします101。言い換えれば、ランダムフォレストアルゴリズムは少数派クラスのインスタンスにより多くの重要性を与え、したがって多数派クラスへのバイアスを防止するために使用できます。
医療診断の文脈で非常に有用であるランダムフォレストの特徴の一つは、すべての特徴量の相対的な重要度をユーザーに提示する能力であり、どの特徴量が決定に影響したかを明確にします。この部分の解釈は臨床現場において極めて重要であり、ドメインエキスパートが機械が行った決定を標準診断マーカーと比較して確認できるようにするためです。
乳がん分類におけるランダムフォレストの利点
機械学習で人気のあるランダムフォレストアルゴリズムにはいくつかの主要な利点があります。主な違いは、トレーニングデータにコミットする個別の木によって引き起こされる過学習とは異なり、ランダムフォレストが多数の異なる木の予測の平均を使用して過学習を回避し、したがって一般化を改善しモデル分散(model variance)を減少させることです。この手法はまた高い予測精度を保証し、しばしば個々の分類器を超えます。さらに、高いスケーラビリティのため、モデルはコンピュータリソースに大きな負担をかけずに高次元および大規模データセットを効率的に処理します。その最も顕著な特徴の一つは、データのノイズに対して非常に耐性があることです。外れ値やノイズのある例は、最終的な予測において非常に少ない重みしか持たず、各木がデータの一部分のみを処理するためです。さらに、ランダムフォレストは特徴量重要度分析システムを通じて有用な知識を生産することができます。このようにして、予測力に基づいて上位の特徴量を特定できます。モデルの解釈可能性(interpretability)は、医療応用など責任ある職業が必要な分野で使用される際にも依然として重要です。
ランダムフォレストトレーニングパイプライン
ランダムフォレスト分類器をトレーニングする手順は、いくつかの主要な手順から始まります。プロセスはデータセットの前処理で始まり、特徴量選択、正規化、エンコーディングなどすべての特徴量がモデル化のために準備されるようにします。トレーニング段階中のブートストラップサンプリング(bootstrap sampling)中に、健全な分布のアイデアに触発されたランダム選択によってトレーニングデータのチャンクが作成されました。森林が作られた後、各木は独立してトレーニングされ、同じプロセスを繰り返しましたが、今回は木間の多様性を確保するために異なるサブセットの可能性が考慮されました。モデルがトレーニングされた後、モデルは木全体にわたって開始された多数決(majority voting)の手法によってテストセットでテストされました。分類における安定性と堅牢性を確保するため、多数決投票が全体のテストデータセット上で生成された木の予測に対して適用されました。完成した分類器は、混同行列(confusion matrix)、分類レポート(classification report)、および特徴量重要度分析とともに検証され、分類精度と解釈可能性の評価が行われました。
ハイパーパラメータ選択とモデル構成
ハイパーパラメータの調整プロセスは、モデルパフォーマンスを向上させるために主要なパラメータを調整することによって体系的に行われました。経験的検証(empirical validation)は、より高い予測精度を達成するためにこれらのハイパーパラメータを最適化する上で重要な役割を果たしました102。ランダムフォレストモデルでは、推定器(estimators)の数は 100 に設定され、100 の個別の決定木が形成されました。ツリーの数が多いほど分散が減少し、予測が安定化し、トレーニングデータへの過度な感応性が防止されます。各木の最大深さ(maximum depth)は 10 に制限され、過学習につながる可能性のある過度な成長を防止しつつ、モデルが見えないデータにうまく一般化するよう保証しました103。モデル複雑性をさらに制御するために、最小分割数(minimum split)は 4 に設定され、ノードが分割される前に少なくとも 4 つのサンプルを含む必要があることを確保し、不必要な分割を防ぎました。同様に、リーフごとの最小サンプル数(minimum samples per leaf)は 2 と定義され、統計的に有意な決定のためにリーフノードに少なくとも 2 つのサンプルが必要であることを意味し、過学習のリスクを減少させます。各分割で考慮される最大特徴量数は、特徴量の総数の平方根(square root)に設定され、木構造間の多様性を確保しそれらの相関を減少させました。
表 5 は、ランダムフォレストモデルで使用された選択されたハイパーパラメータと対応する値を示しています。各パラメータは、モデルパフォーマンスの最適化、過学習の防止、および一般化の確保において重要な役割を果たします。
これらのハイパーパラメータに加えて、ブートストラップサンプリング(bootstrap sampling)が使用されました。これは、ランダムフォレストモデル内の各決定木が、復元付きでデータポイントのランダムに選択されたサブセット上でトレーニングされることを意味します。この技術により、異なる木がデータセットから異なるパターンを学習し、過学習を最小化しながらより一般化されたモデルにつながります。ハイパーパラメータをさらに洗練させるために、グリッドサーチ交差検証(Grid Search Cross-Validation)が採用され、広範な検証を通じて最も効果的な候補を特定しました。最終モデルは、見えないデータセットに適用した際に堅牢なパフォーマンスを保証するためにトレーニングデータを使用して検証されました。
表 5. ハイパーパラメータ選択とモデル構成。
- ハイパーパラメータ:推定器数(Number of Estimators: n_estimators)
- 値:100
- ハイパーパラメータ:最大深さ(Maximum Depth: max_depth)
- 値:10
- ハイパーパラメータ:最小分割数(Minimum Samples Split: min_samples_split)
- 値:4
- ハイパーパラメータ:リーフごとの最小サンプル数(Minimum Samples per Leaf: min_samples_leaf)
- 値:2
- ハイパーパラメータ:考慮される最大特徴量数(Maximum Features Considered: max_features)
- 値:sqrt(平方根)
- ブートストラップサンプリング(Bootstrap Sampling):Yes(はい)
連合学習モデルトレーニング
モデルトレーニング
FL を含まない乳がん検出のための機械学習パイプラインのワークフロー、すなわちデータ前処理、モデルトレーニング、評価、および最終予測は、図 11 に示されています。これは標準スケーリング(standard scaling)、特徴量選択、データ分割、テンソル変換などの慣行を含むデータ前処理から始まり、これらはデータセットをトレーニングパートのために準備するために必要です。次にトレーニングセクションがあり、通常はトレーニングループ、損失値評価、およびより良いモデルパラメータ適合のための最適化などのステップで構成されます。トレーニングの終わりには、精度(accuracy)、混同行列(confusion matrix)、分類レポート(classification report)などのパフォーマンス指標が出力される評価が続きます。最後に、人間が乳がん検出パートに到達し、トレーニングされたモデルの臨床意思決定における使用可能性が示されます。
データセットは 80–20 の train-test パーティションに分割され、データの 80% がトレーニングに割り当てられ、20% が評価のために確保されました。この分割により、モデルが十分に大きなデータセット上でトレーニングされる一方で、見えないサンプルのパフォーマンスを評価するための独立したテストセットが残されました。トレーニングプロセスには、100 の決定木の構築が含まれており、それぞれがデータのブートストラップされたサブセット上で独立してトレーニングされます。トレーニング後、これらの木は多数決(majority voting)を通じて各テストインスタンスのクラスラベルを共同で決定し、これにより誤った分類の可能性を減少させます。
連合学習モデル(FL)トレーニング
連合学習(Federated Learning: FL)は、クライアントが内部データセットを開示することを義務付けられることなく、さまざまなクライアントがモデルの幅広い適用を一緒に解決できる分散型機械学習手法を表します。この種のアプローチは特に医療分野で重要であり、患者データのプライバシーと規制制約が機密性の高い患者データの集中化を制限する乳がん診断において特に重要です。本研究では、TensorFlow Federated(TFF)を用いた FL の実装を採用し、これにより各クライアントが独自の患者データを持つ 10 のクライアント間で安全な分散トレーニングが可能になりました。連合学習による機械学習の実装方法は図 12 に示されています。TensorFlow Federated(TFF)を介した FL の実装は、各クライアントが独立してモデルをトレーニングし、中央サーバーに対してのみモデル更新(勾配および重み)を通知するように設計されました。
FL 実装の主要なステップは以下の通りです:
- クライアント初期化: 各クライアントに割り当てられたデータセットは、IID(Independent and Identically Distributed)または Non-IID(Non-Independent and Identically Distributed)のいずれかに比例します。IID 設定では、各クライアントは良性および悪性腫瘍症例のランダムかつバランスの取れたサブセットを受け取り、均一な表現に到達しました。非 IID セットアップは、異なる医療機関が異なるがん症例分布を持つという実際のシナリオと完全に矛盾していました。
- ローカルモデルアーキテクチャ: クライアントは、グローバルモデルのコピーである完全結合フィードフォワードニューラルネットワーク(Fully Connected Feed-forward Neural Network: FNN)をトレーニングし、その後同じ更新をグローバルモデルに送信しました。FNN は特定のアーキテクチャによって特徴付けられました:
- 入力層: データセット内の 30 の数値特徴量に対応する 30 のニューロン。
- 隠れ層: 16 のニューロンと ReLU 活性化関数(ReLU activation)を含む。これによりデータの探索が可能になります。
- 出力層: シグモイド活性化(sigmoid activation)を持つ 1 つのニューロンで、二値分類(良性対悪性)を実行します。このアーキテクチャは、処理能力と識別精度の適切なバランスを保証しました。
表 6 は、連合学習設定におけるローカルトレーニングに使用された完全結合フィードフォワードニューラルネットワーク(FNN)のアーキテクチャを示しています。
- ローカルトレーニングプロセス: クライアントは、学習率 0.02 の確率的勾配降下法(Stochastic Gradient Descent: SGD)を使用して独自のローカルモデルでトレーニングされました。各クライアントは、サーバーに送信する前にローカルモデルの重みを修正しながら多数のトレーニングエポックを実行しました。トレーニングはユニークであり、各クライアントのデータセット上で実行されました。また、生の患者データの交換はありませんでした。
- モデル更新伝送: ローカルクライアントは、ローカルデータセットでのトレーニング後に中央サーバーとのみモデル勾配およびモデル重みを交換しました。したがって、このインスタンスでは実際の患者データが共有されず、プライバシーが大幅に強化されました。
- グローバルモデル集約: 連合平均(Federated Averaging: FedAvg)を使用して、ローカルモデル更新は中央サーバーによって集約されました。
FedSGD ではなく FedAvg を使用することを選択したのは、サーバー通信前に複数のローカル更新を提供するためであり、これにより帯域幅の使用が減少し、収束が改善されたためです。主に、連合確率的勾配降下法(Federated Stochastic Gradient Descent: FedSGD)のテストが行われましたが、モデルパフォーマンスの高い分散を示したため、FedAvg が最良のアプローチとして選択されました。表 7 は、連合平均(Federated Averaging: FedAvg)と連合確率的勾配降下法(Federated Stochastic Gradient Descent: FedSGD)アルゴリズムを比較し、なぜ本研究で FedAvg が選択されたかを強調しています。
- モデル同期および反復トレーニング: サーバーはクライアントに新しいグローバルモデルのコピーを含む封筒を送信し、彼らは次のラウンドの最新のローカルトレーニング手順によってそれらを開きます。この反復プロセスは、モデルが特定の変化点に到達するまで繰り返されました。
表 8 は、連合学習に関与する主要なステップを概説しており、クライアント選択からグローバルモデル同期までのプロセスの詳細を示しています。
表 6. 完全結合フィードフォワードニューラルネットワーク(FNN)アーキテクチャ。
- レイヤー:入力層(Input layer)
- 説明:30 のニューロン(データセット内の 30 の数値特徴量に対応)
表 7. FedAvg と FedSGD の比較。
- 機能:FedAvg / FedSGD
- ローカル更新の実行:はい(ラウンドあたり複数回)/ いいえ(ラウンドあたり 1 回のみ)
- 帯域幅の使用:低い / 高い
- 収束の安定性:より安定している / 更新における分散が高い
- 通信頻度:少ない / 多い
- FL に推奨されるか?はい / いいえ
表 8. 連合学習ワークフローの主要なステップ。
- ステップ:クライアント選択
- 説明:計算効率を最適化するために各トレーニングラウンドでクライアントのサブセットをランダムに選択する
- ステップ:ローカルモデルトレーニング
- 説明:クライアントはローカルデータセット上で独立してモデルをトレーニングする
- ステップ:勾配クリッピング(Gradient clipping)
- 説明:単一のデータポイントからの過度な影響を防ぐために勾配の大きさを制限する
- ステップ:差分プライバシー(Differential Privacy: DP)
- 説明:プライバシー保護を確保するために勾配にガウスノイズを追加する
- ステップ:モデル更新伝送
- 説明:クライアントはノイズ保護されたモデル更新を中央サーバーに送信する
- ステップ:グローバルモデル集約
- 説明:サーバーは連合平均(Federated Averaging: FedAvg)アルゴリズムを使用してすべての更新を集約する
- ステップ:モデル同期
- 説明:更新されたグローバルモデルがさらなるトレーニングのためにクライアントへ再配布される
連合学習における差分プライバシーアーキテクチャ
連合学習における差分プライバシーのアーキテクチャ、すなわちクライアントデータプライバシーの保護、通信効率、マルチパーティトレーニング、クライアント選択、およびローカルモデル更新を強調したものが図 13 に示されています。連合学習の枠組み内での差分プライバシー(Differential Privacy: DP)の実装は、モデル更新が個々のデータポイントによって過度に影響されないようにすることで、クライアント上の機密情報を抑制する手段です。これにより、悪意のある攻撃者が個人データを解明しようとする試みを阻止します104,105。より簡単に言えば、差分プライバシーは、トレーニングに参加している間も個人の患者データが識別できないことを保証します。
プライバシー予算(ε)は、データに導入されるノイズの量を制御し、小さい値はより良いプライバシーを保証しますが、モデルパフォーマンスに影響を与える可能性があります。ある種の比喩として、電話通話の背景ノイズを減少させることが挙げられます。過度なノイズ(低い ε)は通話を聞き取りにくくし(モデル予測)、不十分なノイズ(高い ε)はプライバシーを危険にさらす可能性があります。δ パラメータは、セキュリティとモデル有用性の間の管理可能なトレードオフを提供しながら、プライバシーの境界がわずかに破られる可能性を制御します。
システムは 3 つの異なる領域で分析できます:すなわちクライアントプライバシー保護、通信効率、およびグローバルに集約されたデータを使用するマルチパーティ間の安全なトレーニングです。
データセット内の 30 の数値特徴量に対応する 30 のニューロン
隠層(Hidden layer)
ReLU 活性化関数(ReLU activation)を持つ 16 のニューロン
出力層(Output layer)
1 個のシグモイド活性化関数を持つニューロン(2 値分類:良性 vs. 悪性)
Optimizer(最適化器) 学習率 0.02 の確率的勾配降下法(Stochastic Gradient Descent (SGD))
表 6.連合学習におけるローカルモデルのアーキテクチャ。
クライアントは、独自のデータを使用してローカル環境でモデルを構築するため、機密性の高い医療記録への直接アクセスが防止される。モデル更新を送信する前に、各クライアントは勾配トリミング(gradient truncation)を適用し、最も大きな勾配値を切り捨てることで、単一のデータポイントの影響を制限する。このステップにより、個々の貢献を推測しようとする悪意のある攻撃者に対する防御が強化される。プライバシーをさらに向上させるため、勾配を中央サーバーに送信する前にガウスノイズ(Gaussian noise)が追加される。これにより、任意の単一のデータポイントの貢献を隠すことで、差分プライバシー(Differential Privacy (DP))の保証が確保される。上記のアプローチは、特定の記録がトレーニングデータセットに含まれていたかどうかを決定しようとする悪意のある攻撃者によるメンバーシップ推論攻撃(membership inference attacks)のリスクを大幅に低減し、トレーニングデータへの不正な関連付けを防止する107。
連合学習における通信効率。アーキテクチャの通信コストセクションは、分散共有に関する懸念の重要性を強調しており、これらは差分プライバシーによって解決され、低い通信オーバーヘッドで連合トレーニングを可能にする。従来の連合学習では、各クライアントが毎ラウンドモデルを更新するため、ネットワークトラフィックが過剰になり、学習プロセスが非効率的になる。これを緩和するために、差分プライバシーメカニズムが通信効率の最適化に使用される108。
一つのアプローチは勾配感度の低減であり、他の手法と比較して勾配の分散を最小化し、より安定したトレーニングプロセスを確保する。さらに、効率的な安全集約(secure aggregation)を実装して最も機密性の高いパラメータを保護し、勾配を集約または非集約形式で共有できるようにするが、ノイズは高く保ち、データ漏洩のリスクを低減する。もう一つの重要な側面はラウンド通信の最小化であり、差分プライバシーを通じてモデルパラメータにランダム性を導入することで達成される。これにより、モデルはより少ない通信ラウンドで収束し、トレーニング効率を大幅に向上させる。
これらの最適化は、高いレベルのプライバシーを維持しながら連合学習(Federated Learning (FL))モデルの堅牢性を全体的に強化する7。
FL における安全なマルチパーティトレーニング。連合学習(Federated Learning (FL))におけるマルチパーティセクションは、異なるクライアントが直接生データを交換せずに協力するというフレームワークの分散的な性質を表している。安全なトレーニングは、いくつかのメカニズムを通じて確保される。
分散型学習では、クライアントは独立してモデルを更新し、ノイズ保護された中央集約型の更新のみをサーバーに送信するため、直接的なデータ露出が防止される。さらに、適応的プライバシーメカニズムにより、差分プライバシー(Differential Privacy (DP))手法に従ってプライバシー予算(ε, δ)の動的調整が可能になる。プライバシー予算は、更新に追加されるノイズの量を決定し、より低い ε 値が高いプライバシーを提供しつつモデル精度を維持することを保証する。さらに、FL は規制コンプライアンスに準拠しており、HIPAA や GDPR などのプライバシー規制を満たすことを確保する。これは、乳がん診断のような医療アプリケーションなど、機密データを扱う業界において特に重要である25。
差分プライバシー付き連合学習のワークフロー アーキテクチャの下半分は、DP を組み合わせた FL トレーニング手順を示している。このワークフローは、プロセス内の 1 つだけでなく複数のポイントをカバーする。これらは以下の通りである:
図 13.DP アーキテクチャ。
• クライアント選択(サンプリング)。トレーニングの各ラウンドにおいて、一部のクライアントがプール全体からランダムに選択され、計算負荷を軽減しつつ十分なサンプル数を確保する。この方法により、すべてのクライアントが毎回参加して同じ結果を得る必要はなく、トレーニングプロセスがより効果的になる。 • クライアントにおけるローカルモデルトレーニング。選択されたクライアントは独自のデータでトレーニングを行い、これによりネットワーク全体で並列計算が行われることがさらに保証される。さらに、プライバシーとセキュリティを向上させるために、勾配クリッピング(gradient clipping)が採用され、各更新の感度を制限して、極端に大きな勾配がモデルに強く影響することを防ぐ。さらに、ガウスノイズが追加されて個々の貢献が混乱させられ、トレーニング中にクライアントデータのプライバシーが追加で保証される。 • 暗号化された更新のアップロード。ユーザーはクラウド上のサーバーへ秘密保護されたモデル更新を送信する。サーバーに送信される勾配は匿名化されたままとなる。したがって、患者の実在の身元を特定できるようなデータはなく、このようにトレーニングプロセスにおいてデータプライバシーとセキュリティが維持される。 • グローバルモデル集約。海外の本社サーバーは、Federated Averaging (FedAvg) 手法を使用して受信したすべての更新を 1 つに結合する。これは、すべてのクライアントの貢献を含むアプローチである。これらの更新はプライバシー保護されたままだが、送信データに適用された差分プライバシー(Differential Privacy (DP))メソッドにより統計的に有用であり続ける。ラウンドを通じたグローバルモデルの継続的な修正により、データのプライバシーとモデル精度のバランスが保たれる。 • モデル更新と再配布。モデルを更新した後、集約されて顧客に戻され、継続的なローカルトレーニングが行われる。このように形成されたモデルは反復プロセスを経て完全に収束し、すなわちプライバシーとモデルの品質成果との相関が達成される。
プライバシー予算とそのモデル性能への影響 プライバシー予算(ε)は、差分プライバシーにおける重要なパラメータであり、プライバシー保護とデータ有用性の間のバランスを決定する。プライバシー損失に影響を与えるだけでなく、許容できるクエリの数を決定する。より低い ε 値はより高いプライバシーを示すが、モデル性能に対する脆弱性が高まる可能性がある。設定においては、ε 値 1.0 は中程度のプライバシーを提供し、精度とセキュリティのバランスを保つ。さらに、δ = 10⁻⁵を設定することで、プライバシー侵害の低確率を確保し、モデル全体のセキュリティを強化する109。
医療分野では、適切なバランスを取ることが極めて重要である。小さなプライバシー予算(強力なプライバシー)は診断精度をわずかに低下させる可能性があるが、患者データのセキュリティを確保する一方、緩和された予算はモデル性能を優先するが、プライバシーリスクの増大を代价とする。プライバシー予算がモデル性能に与える影響はそのトレードオフにおいて明白である。差分プライバシー(DP)がない場合、モデルは高い精度を達成するが、強力なプライバシー保護がない。DP を適用すると、ノイズの導入によりわずかな精度低下が生じるが、モデルは依然としてプライバシー保護され、データ再構築攻撃に対して耐性がある。この効果を説明するために、プライバシーと精度のトレードオフグラフがプロットされており、最適化されたプライバシー予算が診断信頼性を維持しつつ堅牢なプライバシー保護を確保できることを示している。
連合学習における差分プライバシーの実装 連合学習(Federated Learning (FL))は、生データがユーザーデバイス上に物理的に残ることを保証し、直接的なプライバシーリスクを低減する。しかし、モデル更新時には個人のプライバシーが依然として危険にさらされる可能性がある。ハッカーは勾配更新を分析してローカルトレーニングデータを再構築しようとするかもしれない。この脅威を緩和するために、差分プライバシー(Differential Privacy (DP))が FL に統合され、個人貢献を追跡不能にするために曖昧化されたクライアントコンポーネントが追加される。
DP は、中央サーバーに送信する前に勾配更新にガウスノイズを導入することで適用される。このメカニズムにより、個々の観測値はグローバルモデル内に隠れたままになり、直接的な露出が防止される。FL における DP の実装には以下の主要な操作が含まれる:
I. 勾配クリッピング ノイズを追加する前に、更新の大きさを制限するために勾配クリッピングが行われる。このステップにより、外れ値がモデルに不均衡に影響することを防ぎ、安定性とプライバシーを強化する。
II. ガウスメカニズムによるノイズ注入 クリップ後、各クライアントはガウス分布から導出されたノイズを勾配に追加する。このプロセスにより、攻撃者が勾配更新へのアクセスを獲得した場合でも、個々のクライアントの貢献を区別することが困難になり、データプライバシーが強化される。
III. プライバシー予算の割り当てと感度制御 プライバシー予算は ε(イプシロン)および δ(デルタ)で表され、プライバシー保護のレベルを決定する。ε はプライバシーとモデル有用性の間のトレードオフを制御し、δ はプライバシー侵害の確率が極めて低いことを保証する。
IV. DP 統合による連合学習 当初、ユーザーはデバイス上でローカルモデルをトレーニングする。各トレーニングラウンドの終了時、勾配は過度な更新を防ぐためにクリップされ、中央サーバーへの送信前にガウスノイズが追加され、プライバシーが強化される。その後、Federated Averaging (FedAvg) アルゴリズムを使用してグローバルモデルが更新され、差分プライバシー付きの更新を組み合わせてモデル性能とプライバシーのバランスを取る。
FedAvg アルゴリズムは以下の通りである:
w_{t+1} = ∑_{k=1}^{K} (n_k / N) w_k
ここで、w_{t+1} はラウンド t + 1 における更新されたグローバルモデルである。K は参加クライアントの数である。n_k はクライアント k が保持するデータサンプル数である。N = ∑_{k=1}^{K} n_k は全クライアントにわたる総サンプル数である。w_k^t はラウンド t におけるクライアント k のローカルモデル更新である。
差分プライバシーを連合学習と統合することで、モデルは堅牢なパフォーマンスを維持しつつプライバシー保護を確保する。
FL トレーニングの利点と考慮事項 • データプライバシー保護:連合学習(Federated Learning (FL))により、モデル更新のみが共有され、機密性の高い患者情報は各機関内に安全に保存される。このアプローチは医療データプライバシー規制への準拠を保証する。 • データ不均一性への対応:医療分野では、病院は良性および悪性がん症例の分布が異なる場合が多い。一部の実験では非独立同分布(non-IID)データ分割を採用し、モデルがデータの不均衡性と外れ値を効果的に処理できることを示し、多様なシナリオにおける堅牢性を検証した。 • 通信効率:FL は、患者データセット全体を送信するのではなくモデル更新のみを送信することで通信帯域幅を最適化する。しかし、クライアント間、中央サーバーおよび外部ソース間の効率的な通信の維持は、モデル性能とネットワーク効率のバランスを取るために重要である。 • スケーラビリティ:FL フレームワークは、分散型で複数の医療機関にわたって品質サービスを保証しながら 10 以上のクライアントまで拡張可能である。しかし、クライアント参加の一貫性の欠如や通信障害により学習プロセスが遅くなる可能性がある。
評価指標 連合学習(Federated Learning (FL))および差分プライバシー(Differential Privacy (DP))に使用されるモデルを含む機械学習モデルのパフォーマンスの評価には、分類精度、プライバシー漏洩、およびモデル収束を直接反映できる正確な一連のパフォーマンス指標が必要である。ここでは、いくつかの主要指標の数学的詳細について説明する:精度(accuracy)、適合率(precision)、再現率(recall)、F1 スコア(F1-score)、さらにプライバシー漏洩指標とモデル収束であり、これらは連合学習におけるプライバシー保護モデルの効率性を決定するための最も重要な評価指標である。
モデル性能に基づく分類のための測定 乳がん腫瘍の 2 値分類は本研究の主たるタスクである。分類のパフォーマンスは、精度(accuracy)、適合率(precision)、再現率(recall)、F1 スコア(F1-score)によって測定された。これらは 4 つの必須評価基準である。これらのパフォーマンス指標は、モデル予測によって 4 つのカテゴリにグループ化された混同行列(confusion matrix)から導出される:
真陽性(True Positives (TP)):悪性腫瘍が正しく悪性と分類されたもの 真陰性(True Negatives (TN)):良性腫瘍が正しく良性と分類されたもの 偽陽性(False Positives (FP)):良性腫瘍が誤って悪性と分類されたもの 偽陰性(False Negatives (FN)):悪性腫瘍が誤って良性と分類されたもの
これらを用いて、FP と FN の両方をカウントすることと同様に、異なる評価指標が導出される。これは医療アプリケーションにおいて特に重要である22,110。
精度(Accuracy) 精度は最も単純化された指標であり、正しく分類された症例の割合を全予測に対して指す。数学的には、以下のように計算される:
Accuracy = (TP + TN) / (TP + TN + FP + FN)
ここで、TP(真陽性)は正しく分類された陽性ケースである。TN(真陰性)は正しく分類された陰性ケースである。FP(偽陽性)は誤って陰性ケースが陽性と分類されたもの。FN(偽陰性)は誤って陽性ケースが陰性と分類されたもの。
精度はモデルのパフォーマンスの広範な指標として機能するが、1 つのクラスが他を大幅に上回る非常に不均衡なデータセットでは信頼できない可能性がある。そのような場合、適合率と再現率がより情報的な指標となる。
適合率(Precision)または陽性的中率(Positive Predictive Value (PPV))は、正しく識別された悪性ケースと悪性と予測されたすべてのケースの間の比率を計算するために使用される。モデルが実際の陽性ケースをどれほど正しく識別したかを決定し、偽陽性ケースの数を最小化する。これは医療診断において特に重要であり、偽陽性を減らすことが不必要な治療を回避するのに役立つ。
Precision = TP / (TP + FP)
ここで、TP(真陽性)は正しく分類された悪性ケースである。FP(偽陽性)は誤って悪性と分類されたケースである。
高い適合率値は、モデルが最小限の偽陽性で悪性腫瘍を正しく識別することを示し、不必要な医療介入と患者の不快感を減らすのに役立つ。
再現率(Recall)または感度(Sensitivity) 再現率(Recall)、また感度(Sensitivity)または真陽性率(True Positive Rate (TPR))とも呼ばれるものは、モデルが悪性ケースを正しく識別する能力を評価する。偽陰性の数を最小化し、悪性腫瘍が見逃されないことを目指す。これはがん診断における早期発見と治療計画において特に重要である。
Recall = TP / (TP + FN)
ここで、TP(真陽性)は正しく分類された悪性ケースである。FN(偽陰性)は実際には悪性だが良性と誤って分類されたケースである。
高い再現率値は、ほぼすべての悪性ケースが検出されることを示し、誤診の可能性を減らし、リスクのある患者にタイムリーな医療対応を提供することを保証する。
F1 スコア(F1-score) F1 スコアは適合率と再現率の調和平均であり、特にデータセットが不均衡な場合にバランスの取れた評価指標を提供する。適合率または再現率が不均衡に高い場合や低いケースに対して効果的にペナルティを与え、分類パフォーマンスの包括的な測定を確保する。
F1 - score = 2 × Precision × Recall / (Precision + Recall)
ここで、適合率は予測された悪性ケースの中で正しく予測された悪性ケースの割合を測定する。再現率(感度)はモデルが実際の悪性ケースをどの程度よく識別するかを評価する。
適合率と再現率の両方を組み合わせることで、F1 スコアは偽陽性と偽陰性の両方を最小化することが診断モデルの信頼性を確保するために重要である医療アプリケーションにおいて特に有用である111,112。
プライバシー予算(ε, δ) 差分プライバシー(Differential Privacy (DP))を連合学習(Federated Learning (FL))に組み込む際、モデルトレーニング中に維持されるプライバシーのレベルを定量化することが重要である。これはプライバシー損失指標を使用して行われ、プライバシー予算パラメータ(ε, δ)によって支配される113。
差分プライバシーは、集約する前にモデル更新に注意深く調整されたガウスノイズを導入することで、個々のクライアントデータが識別不能であることを保証する。プライバシー予算(ε, δ)はプライバシー保護のレベルを決定する: • イプシロン(ε):個人のデータに関する情報がモデル出力からどの程度推測可能かを表す。 • より小さい ε はより強力なプライバシーを提供するが、ノイズを増やすことでモデル有用性を低下させる可能性がある。 • デルタ(δ):プライバシー損失の確率を定義し、稀なケースでも個人のデータを識別できないことを保証する。
すでに議論した通り、差分プライバシー付き勾配更新の数学的表現は以下の通りである:
g̃ = g + N(0, σ²)
ここで、g̃ は差分プライバシー付き勾配更新である。g はクライアントモデルによって計算された元の勾配である。N(0, σ²) は分散 σ² のガウスノイズであり、プライバシー保護を確保する。ε と δ を変化させることで、プライバシーと精度のトレードオフを評価できる。より低い ε はより強力なプライバシーを強制するが、過度なノイズによりモデル精度が低下する可能性がある。このトレードオフは、データプライバシーとモデルの信頼性の両方が最重要である医療アプリケーションにおいて重要である。
結果と考察 本節では、従来の集中型機械学習モデルに対する乳がん診断のための DP を備えた提案された FL モデルの詳細なパフォーマンス分析について議論する。また、FL が優れた予測性能を提供しつつデータプライバシーを維持することの有効性についても明確に強調している。さらに、このセクションは、プライバシーと精度のトレードオフ、データプライバシーを確保するための代替技術との比較分析、および実用的な医療シナリオにおける適用可能性に関する洞察を提供する。
モデルパフォーマンス比較 本評価の主目的は、従来の非 FL 機械学習アプローチと比較して、差分プライバシー(DP)ありおよびなしでの連合学習(Federated Learning (FL))のパフォーマンスを評価することである。すべてのモデルのパフォーマンスは、精度(accuracy)、適合率(precision)、再現率(recall)、F1 スコア(F1-score)という主要なパフォーマンス指標に基づいて評価され、FL と DP の導入が予測能力においてモデル性能を低下させるかどうかを特定する。表 9 は、精度、適合率、再現率、および F1 スコアにおける FL、FL-DP、および非 FL モデルの比較パフォーマンスを強調している。この表は、DP を FL に統合することがより強力なプライバシー保護を保証しながらモデル性能にどのように影響するかを示している。表 9 に示すように、FL は 0.977 の精度を生み出し、0.960 の精度を持つ非 FL モデルを上回っており、分散型学習の利点を確固たるものとしている。DP でトレーニングされた FL モデルは確かに精度がわずかに低下するが、プライバシー保護のために導入されたノイズの結果として予想される通り、依然として非 FL モデルよりも良い精度を達成している。適合率と再現率はすべてのモデルで比較的同じであり、FL がプライバシー制約下でも予測能力を維持していることを示している。図 14 は、異なる学習アプローチにわたるモデルパフォーマンス指標の視覚的比較を示している。
表 9 は異なるモデルを比較しているが、データセットの不均衡性の影響を考慮することが重要である。FL は非独立同分布(non-IID)条件下でも分散型データから学習できるため、非 FL よりも良く機能する。差分プライバシーを追加すると、ノイズの導入により精度は 0.977 から 0.961 に低下するが、プライバシーを維持する際にこのようなトレードオフは避けられず、臨床使用の文脈では許容可能である。FL はまた、医療環境における実世界のアプリケーションにおいてデータが不均衡となる場合にも重要な、機関間での改善された一般化(generalizability)を可能にする。
図 14.非連合学習、連合学習、および差分プライバシー付き連合学習のパフォーマンス指標の視覚的比較。
| メトリック | 非 FL モデル | FL モデル | DP 付き FL モデル |
|---|---|---|---|
| 精度 (Accuracy) | 0.960 | 0.977 | 0.961 |
| 適合率(良性)(Precision (Benign)) | 0.964 | 0.984 | 0.978 |
| 再現率(良性)(Recall (Benign)) | 0.991 | 0.968 | 0.961 |
| F1 スコア(良性)(F1-Score (Benign)) | 0.970 | 0.976 | 0.974 |
| 適合率(悪性)(Precision (Malignant)) | 0.981 | 0.984 | 0.983 |
| 再現率(悪性)(Recall (Malignant)) | 0.932 | 0.968 | 0.959 |
| F1 スコア(悪性)(F1-score (Malignant)) | 0.951 | 0.976 | 0.966 |
表 9.異なるモデルにわたる評価指標の比較。
図 15 に示す混同行列(confusion matrices)の詳細な検討は、少なくとも良性および悪性ケースにおける誤分類を最小化するという点で、従来の非 FL 手法に対する FL の利点についてより深い洞察をもたらす。臨床的観点から、偽陽性(すなわち、良性腫瘍の悪性への誤分類)と偽陰性(すなわち、悪性腫瘍の良性への誤診断)の両方を最小化して正確性とタイムリーな診断を保証する必要がある。
これらの知見は、FL モデルが非 FL モデルと比較して誤分類を大幅に減少させることを示しており、分散型データセットの一般化能力におけるその優れた能力を反映している。識別力の向上により、FL は分散型データソースからさまざまなパターンを同定する上でよく機能し、モデルの堅牢性と診断精度を反映している。連合学習は予測パフォーマンスを犠牲にするのではなく、むしろそれを強化することに注意されたい。FL の分散化の本質により、複数の機関がローカル患者データを維持しながらグローバルモデルを共同でトレーニングでき、データプライバシーを保証しつつ不均衡な医療データセットの利点を享受できる。この共同学習アプローチ内では、特徴抽出がより強固になり、意思決定はより高い分類精度および改善された臨床的適用可能性をもたらす。
図 16 は、いくつかのトレーニングラウンドにわたる FL モデルの開発における適合率と損失のトレーニング曲線を示している。逆に、トレーニングが続くにつれて、モデルの適合率が常に増加し、良性と悪性のケースを区別することを学習したことを確認できる。同時に、損失関数が常に減少しており、モデルがラウンドごとに分類エラーを最小化できることを意味する。これはまた、医療分類タスクにおける FL の安定性とパフォーマンスの傾向を設定する。
図 17 は、トレーニングイテレーションにおけるクライアント貢献の不均衡性を示している。連合学習におけるクライアント参加は、データ量、計算リソース、およびローカルモデル更新の違いにより不均衡になる可能性がある。ヒートマップは、一部のクライアントがより多くの更新を提供し、他のクライアントがより少ない更新を提供する方法を強調している。これらの違いを理解することは、集約手順の最適化および各機関がグローバルモデルに比例して貢献することを確実にするために極めて重要である。
図 18 は、各クライアントモデルとグローバル FL モデルの精度の傾向を示している。グラフから、各ローカルクライアントモデルは数回の反復トレーニングの後、ある程度の精度を達成し、よく最適化されたグローバルモデルに収束したことがわかる。FL がデータ自体を直接共有せずにクライアント間で不均衡な知識共有を可能にしつつも高いパフォーマンスの一貫性を維持することは明白である。
FL モデルは複数のトレーニングラウンドにわたって堅牢な予測パフォーマンスを達成し、さらに FL ベースの学習が患者プライバシーの妥協なしに従来の集中型モデルと同等のパフォーマンスを達成するために利用可能であることを示している。これらの知見は、データセキュリティとプライバシーを保存するだけでなく高い分類精度を提供するため、連合学習が医療分類タスクのための包括的かつ効果的な解決策であることをさらに確認する。したがって、減少した誤分類率、安定した学習曲線、および連合クライアントからの良好な貢献のバランスにより、FL は実世界において非常に有望である。
1 つのシグモイド活性化関数を持つニューロン(2 値分類:良性 vs. 悪性)(続き)
データ保存のセキュリティとプライバシー、および診断精度が最も重要である医療応用において。
プライバシーと精度のトレードオフ 連合学習のもう一つの重要な特徴は、プライバシーを維持する点です。連合学習は複数の機関にまたがるトレーニングを受け入れますが、通常の機械学習モデルではデータの集中化が必要となります。このデータ集中化の必要性がないことが、プライバシー保護を構築します。これにより、患者データが外部機関に拡散することが防がれ、ローカル領域内に制限されます。図 19 は、評価指標とプライバシー保護の並列比較を示しており、連合学習におけるモデル性能とデータセキュリティの間のトレードオフを実証しています。医療分野では、患者の機密性が最優先事項として維持されるため、プライバシー保護は重要な役割を果たします。この連合学習モデルは、モデル性能の低下を許容することなく、プライバシー因子を維持してきました。
FL は実質的なプライバシー上の利点を提供しますが、差分プライバシー(Differential Privacy (DP))を組み込むことは、プライバシー保護とモデル精度の間の根本的なトレードオフをもたらします。プライバシー予算εは、プライバシー保護のレベルを決定し、低いε値は通常、高い精度の低下という代償を伴って強いプライバシーを示します。表 10 は、異なるプライバシー予算が FL モデルの精度に与える影響を要約しています。この表から推測できるのは、より高いプライバシー設定では精度が低下する一方で、ε = 1.9 の最適なトレードオフにより精度は高く保たれることです。表 11 は、非連合学習モデルと連合学習モデルの間のプライバシー保護指標の比較を示しています。図 20 は、異なるε値が精度にどのように影響するかを視覚的に示しており、ε = 1.9 の最適なプライバシー予算が選択されるべきであることがわかります。これは、性能の著しい低下なしに十分なプライバシーを保証するためです。これは、プライバシーと有用性の間の良好なバランスが、特に高い診断精度を維持する必要がある医療応用において、プライバシー保護付き FL システムにとって重要であることを示唆しています。
図 20 のレーダープロットは、非連合学習モデルと差分プライバシー付きの連合学習モデルという 2 つのモデルのプライバシー関連性能の視覚的比較を提供しています。このプロットでは、これらのモデルを以下の 3 つの重要なプライバシー保護次元に基づいて考慮しました: • プライバシー保護:これは、モデルが機密データを可能な漏洩から守る能力の程度を指します。比較すると、DP を持つ FL は非 FL モデルよりもはるかに優れたプライバシー保護を提供します。これは、FL がクライアント間で直接データを共有しないことに加え、データ再構築を防ぐためにノイズを追加して防御するためです。 • 勾配制御:勾配制御は、モデルがトレーニング中に勾配情報を守り、敵対的攻撃やモデル逆転を防止する能力を特徴づけます。この場合、DP を持つ FL モデルはより大きな勾配制御を可能にし、青い多角形のより高いカバレッジによって適切に反映されています。非 FL モデルは勾配においてより多くの漏洩を持っており、したがってモデル逆転やメンバーシップ推論攻撃などのプライバシー攻撃に対してより脆弱です。 • 攻撃リスク:これは、メンバーシップ推論攻撃やモデル逆転攻撃など、プライバシーに関するモデルへの攻撃のリスクを示します。この軸に沿って、赤い非 FL モデルのカバレッジが大きいほど、攻撃のリスクが高くなります。DP を持つ FL モデルは攻撃のリスクを強く低減するため、医療や診断のようなプライバシーに敏感な分野での使用にはるかに安全です。
DP は強力なプライバシー保護を保証しますが、モデル更新へのノイズ追加により計算コストがかかります。実験によると、より大きなプライバシー予算(ε)はわずかな精度低下をもたらす一方で、追加のノイズ摂動操作のためにトレーニング時間を増加させます。考慮されたプライバシー予算(ε = 1.9)では、ラウンドあたりのトレーニング時間は非 DP FL モデルよりも約 25% 長くなりました。これは、特にリソースが不足している医療現場において、計算コストを節約しながらプライバシー保護を確保する効率的なプライバシー認識トレーニング手法の重要性を強調しています。
他のプライバシー保護技術との比較 連合医療応用におけるプライバシー保護のためには、差分プライバシー、準同型暗号化(Homomorphic Encryption (HE))、安全なマルチパーティ計算(Secure Multi-Party Computation (SMPC))など、複数の技術が使用されます。この点に関して、これらの技術のプライバシー強度、計算コスト、スケーラビリティ、および FL との統合可能性に基づいた比較を表 12 および図 21 に提示しました。結果から、DP がプライバシーと効率性の間で良好なバランスをとっていることが観察でき、したがって医療における FL の最も実用的な選択肢です。
HE や SMPC は高い計算オーバーヘッドを課すのに対し、DP は軽量であり、複数の病院ネットワークにわたってスケーラブルです。HE はより強力なプライバシー保証を提供しますが、トレーニング速度と効率性に著しい影響を与え、リアルタイム医療応用には実用的ではありません。同様に、SMPC は高いプライバシー保護を提供しますが、複雑な暗号化操作への依存によりスケーラビリティの制限に直面します。図 16 はこれらの技術の比較による強みと弱みを示しており、なぜ DP が現実世界の医療設定における FL の優先選択肢であるかを強調しています。
乳がん診断における患者中心の FL-DP の利点 差分プライバシー付き連合学習(FL-DP)を乳がん診断に適用することは、データセキュリティを強化するだけでなく、患者中心の結果も大幅に改善します。多様な病院データセットから学習する分散型モデルを活用することで、FL-DP は AI 支援診断を加速し、セカンドオピニオンに必要な時間を短縮するとともに、タイムリーな治療決定を促進します。さらに、FL-DP は臨床医と患者の信頼と透明性を高め、医療情報を病院の壁内に維持するという約束により、AI サポート付き健康ソリューションにおけるデータの機密性に関する典型的な懸念に対抗します。異質な患者集団における FL-DP モデルの強化された一般化(generalization)は、より正確で公平な診断推定につながり、中央データからのトレーニングバイアス関連リスクを排除します。最後に、FL-DP は、秘密保持を侵害することなく機関間で学習できるように AI モデルを可能にする能力により、個別化された治療計画をサポートします。これにより、プライバシー保護のレベルを高く維持しながら、より広い患者データのセットに基づいて個別化された治療提案が可能になります。これらの利点は、プライバシー保証と高精度診断効率の間の主要なバランスを持つ医療における大規模な AI 展開のための FL-DP を最良の適合技術にします。
現実世界での適用性と課題 すべての利点にもかかわらず、現実世界の医療応用で DP を持つ FL を展開するにはさまざまな課題があります。まず、スケーラビリティは重要な問題です。なぜなら FL は複数の病院間の高帯域幅通信を必要とするからです。したがって、FedProx や適応的 FedAvg(Adaptive FedAvg)のような効率的な集約戦略を採用すべきです。第二に、DP はノイズ追加により計算オーバーヘッドをもたらします。これは、高度な計算インフラを持たない低リソース病院にとってボトルネックとなる可能性があります。
FL における重要なリスクには、敵対的データを注入したりモデル更新を操作したりしようとする悪意のあるクライアントが関与しています。FL はすべての参加クライアントを誠実とみなしますが、敵対的攻撃はモデル性能に深刻な影響を与える可能性があります。その結果、バイザンチン耐性 FL 技術および Secure Aggregation に注力し、可能な脅威に対する堅牢性を高める必要があります。同様に、医療における FL は、HIPAA や GDPR の法制度によって導かれる患者プライバシーの厳格な考慮事項を備えて設計されなければなりません。これにより、データ共有と処理に法的制限が課されます。高いパフォーマンスを維持しながら規制コンプライアンスを確保することは、継続的な課題です。
これらの利点にもかかわらず、医療における FL-DP の展開は、主要な倫理的および規制上の懸念に対処する必要があります。従来の機械学習とは異なり、FL は患者データを集中化せずに動作します。しかし、HIPAA や GDPR などの規制枠組みは、患者データのプライバシーを維持することを義務付けており、透明性のある患者同意メカニズムが必要となります。患者がデータが連合モデルにどのように貢献するかを理解し、かつ個人のプライバシーを維持することの確保は、依然として大きな課題です。病理学や放射線科での同様の試みが進行中であり、臨床における完全な展開のための FL の実現可能性を示しています。もう一つの課題は、連合学習に対するインフォームド・コンセント(informed consent)の取得です。集中型 AI モデルとは異なり、FL は病院が生データではなくモデル更新を通信することを必要とします。機関は明確な同意方針を開発し、患者に FL の利点を説明して倫理的遵守を確保する必要があります。
さらに研究では、連合トレーニング環境におけるセキュリティと監査可能性の追加層を探求するために、ブロックチェーン技術との FL の統合を含めることが興味深いでしょう。
乳がん診断への FL-DP 統合のための提案された臨床ワークフロー 差分プライバシー付き連合学習(FL-DP)を乳がん診断に適用することは、現実世界の医療環境での展開の簡易さのために体系的な臨床ワークフローを採用します。提案されたワークフローは以下の通りです:
- データ収集とローカル処理:患者画像データ(例:マンモグラフィ、組織病理スライド)は病院や診断センターによってローカルに保持されます。各機関は HIPAA や GDPR などの要件を満たすために、独自のプライベートデータセット上でローカルモデルをトレーニングします。
- 連合モデルトレーニング:機密性の高い患者記録を共有する代わりに、病院は暗号化されたモデル更新を中央集約サーバーに共有することによって協力します。これにより、データの集中化なしに進化する患者情報へのリアルタイム適応が可能になります。
- 診断支援と意思決定支援:FL-DP(グローバルモデル)は、腫瘍分類(良性または悪性)、がん進行予測、個別化された治療推奨などの AI ドライブの診断支援を腫瘍医に提供します。
- モデル更新と継続的学習:新鮮な利用可能な患者情報により、FL-DP モデルは患者プライバシーを侵害することなくより良い精度を生み出すために継続的に再トレーニングされます。継続的学習は病院における診断精度と応答性を向上させます。このワークフローを使用することで、FL-DP は現在の臨床意思決定ワークフローと整合しており、したがって実際の腫瘍科部門で展開可能です。
例えば、FL-DP は AI 支援マンモグラフィスクリーニングを促進するために利用でき、病院は共通モデルに使用されるデータを交換します。これは腫瘍医が改善された予測を行うのを助け、患者データが病院内に残ったまま早期の乳がん検出を向上させるでしょう。
限界と今後の研究 連合学習(Federated Learning (FL))に差分プライバシー(Differential Privacy (DP))を組み込んだ FL-DP は、医療分野におけるプライバシー保護 AI のための堅牢な枠組みを提供しますが、広範な採用のためには克服すべきいくつかの限界が存在します。 主な課題の一つは、プライバシーとモデル精度の間のトレードオフです。DP によるノイズ追加によりモデルの精度がわずかに低下しますが、これはプライバシーのために必要であり、予測能力を低下させます。この問題は、プライバシー予算εおよびδの注意深い微調整によって緩和可能です。もう一つの重要な限界は、FL-DP に伴う高い計算コストです。単一の強力なサーバーに依存する集中型学習(Centralized Learning (CL))とは異なり、連合学習は複数の機関間で計算を分散するため、 substantial なハードウェアおよび処理能力が必要です。これにより、高性能コンピューティングインフラへのアクセスが限られているリソース制約のある病院では FL-DP の実現可能性が低下します。今後の研究では、より広範な採用を可能にするために軽量な FL アーキテクチャとより効率的な集約手法の探索を行うべきです。 データ異種性もまた、連合医療 AI における重要な課題です。病院内の医療データは非独立同分布(Non-Independent and Identically Distributed (Non-IID))の特徴を持つ傾向があり、これがグローバルモデルの収束の不一致をもたらします。このデータ分布の違いは、AI 予測にバイアスをもたらし、一般化性を高めるために単純な平均手法よりも洗練された集約技術の必要性を生じさせます。 さらに、本研究では使用されるデータセットがバランスが取れており事前処理されていると仮定していますが、現実世界の臨床データはクラス不均衡や欠損記録に悩まされることが多いです。実用的な病院設定では、悪性症例は通常、良性症例と比較して数が少ないため、モデル性能に影響を与えます。これを解決するため、FL モデルは不均衡なクラスに対処するための適応的重み付けを組み込み、欠落した属性を処理するために堅牢な代入(imputation)手法を構築する必要があります。今後の研究では、実用的な臨床条件下での有効性を検証するために、現実世界の病院データセットにおける FL モデルの評価に焦点を当てるべきです。 展開の観点からは、FL-DP の広範な適用にはさまざまな課題があります。その一つは、医療機関間で FL プロトコルの標準化が存在しないことです。病院は異なる IT インフラと規制環境を持っており、標準化された FL システムの採用に課題を生じさせます。相互運用性と組織間での適合性を保証する正規化された FL 実装基準を策定するために、医療 AI 研究者、医療従事者、および規制当局の間でインターフェースが必要です。 もう一つの重要な課題は電子カルテ(Electronic Health Record (EHR))の相互運用性です。FL-DP を現在の病院システムに統合するには、臨床ワークフローを妨げないためにシームレスな互換性が不可欠です。FL-DP の実用的な実装には、EHR システムとのシームレスな統合を可能にする FL 対応 API の作成が重要です。 これらの技術的制約の外側では、倫理的および法的課題にも対処する必要があります。FL における患者同意とデータガバナンス方針は、参加者が自身のデータがグローバルモデルトレーニングにどのように使用されているかを完全に認識していない可能性があるため課題です。明確な患者参加フレームワークを整備し、HIPAA や GDPR などのデータ保護法を満たすことは、信頼構築および規制承認にとって重要です。 FL-DP のスケーラビリティとセキュリティを強化するために、今後の研究では、データ感応度に応じてリアルタイムでプライバシー予算を適応的に更新する適応 DP メカニズムの調査を行うことができます。これにより、堅牢なプライバシー保護を保証しながら最小限の精度損失を実現できます。さらに、ブロックチェーン技術と FL の組み合わせは、安全なモデル集約および分散型信頼管理を通じてセキュリティをさらに向上させ、FL-DP を敵対的攻撃に対してより頑健にします。 これらの課題に対処することで、FL-DP の今後の進展は、医療向けに設計されたより安全でスケーラブルかつプライバシーフレンドリーな機械学習フレームワークの開発につながります。これらの改善はデータセキュリティを強化するだけでなく、高い診断精度を保証し、AI 駆動の医療ソリューションが倫理的に妥当かつ臨床的に信頼できるものにするでしょう。
結論 本研究は、差分プライバシー(Differential Privacy (DP))を備えた連合学習(Federated Learning (FL))が乳がん診断におけるデータプライバシーとモデル精度のバランスを効果的に達成することを示しています。結果は、FL が予測性能を損なうことなく分散型データ間で一般化できる能力を実証し、従来の集中型モデルを上回っていることを示しています。DP を伴う FL はわずかな精度の譲歩を含みますが、強力な診断パフォーマンスを維持しながら強化されたプライバシー保護をもたらします。混同行列(confusion matrix)分析は、FL が医療分野における偽陽性および偽陰性を最小化するために重要な次元である誤分類率の低減に効果的であることを証明しています。プライバシーと精度のトレードオフ分析は、高いレベルの精度を維持しながらプライバシーを維持するために有効なプライバシー予算の使用が不可欠であることを示しています。さらに、DP、準同型暗号化(Homomorphic Encryption (HE))、および安全なマルチパーティ計算(Secure Multi-Party Computation (SMPC))の比較分析は、現実世界の医療設定における最小限の計算オーバーヘッドとスケーラビリティにより、DP が最も実現可能な方法であることを示しています。その利点にもかかわらず、スケーラビリティ、計算オーバーヘッド、および規制コンプライアンスの問題は残っています。今後の研究では、適応 DP 手法、安全なモデル集約のためのブロックチェーンベースのモデル集約、大規模医療データセットでの実験を解決し、医療におけるプライバシー保護 AI をさらに強化すべきです。DP を備えた FL は、プライバシーとパフォーマンスの間の架け橋として機能し、安全でスケーラブルな AI 駆動型医療ソリューションの開発を支援します。
データの可用性 本研究で使用された Breast Cancer Wisconsin Diagnostic データセットは、UCI Machine Learning Repository で公開アクセス可能です:Breast Cancer Wisconsin (Diagnostic)—UCI Machine Learning Repository https://archive.ics.uci.edu/dataset/17/breast+cancer+wisconsin+diagnostic. 受理日:2024 年 10 月 29 日;採択日:2025 年 3 月 24 日
References References 1. Chen, R. J. et al. Algorithm fairness in AI for medicine and healthcare. arXiv preprint arXiv:2110.00603 (2021). 2. Ayeelyan, J., Utomo, S., Rouniyar, A., Hsu, H.-C. & Hsiung, P.-A. Federated learning design and functional models: Survey. Artif. Intell. Rev. 58, 1–38 (2025). 3. Chen, S. & Huang, Y. A privacy-preserving federated learning approach for airline upgrade optimization. J. Air Transp. Manag. 122, 102693 (2025). 4. Ali, W., Zhou, X. & Shao, J. Privacy-preserved and responsible recommenders: From conventional defense to federated learning and blockchain. ACM Comput. Surv. 57, 1–35 (2025). 5. Malik, R. et al. Advancing healthcare IoT: Blockchain and federated learning integration for enhanced security and insights. In
2024 International Conference on Communication, Computer Sciences and Engineering (IC3SE) 308–314 (IEEE, 2024). 6. Alsamhi, S. H. et al. Federated learning meets blockchain in decentralized data-sharing: Healthcare use case. IEEE Internet Things J. 11, 19602–19615 (2024). 7. Xie, H., Zhang, Y., Zhongwen, Z. & Zhou, H. Privacy-preserving medical data collaborative modeling: A differential privacy enhanced federated learning framework. J. Knowl. Learn. Sci. Technol. 3, 340–350 (2024). 8. Liang, Y., Ouyang, C. & Chen, X. Adaptive asynchronous federated learning for heterogeneous clients. In 2022 18th International Conference on Computational Intelligence and Security (CIS) 399–403 (IEEE, 2022). 9. Sadilek, A. et al. Privacy-first health research with federated learning. NPJ Digit. Med. 4, 132 (2021). 10. Lu, G. Exploring the utility-privacy trade-off in social media data mining (2023). 11. Han, Q. et al. Privacy preserving and secure robust federated learning: A survey. Concurr. Comput. Pract. Exp. 36, e8084 (2024). 12. Dong, N., Sun, J., Wang, Z., Zhang, S. & Zheng, S. Flock: Defending malicious behaviors in federated learning with blockchain. arXiv preprint arXiv:2211.04344 (2022). 13. Zhang, Y., Zeng, D., Luo, J., Xu, Z. & King, I. A survey of trustworthy federated learning with perspectives on security, robustness and privacy. In Companion Proceedings of the ACM Web Conference 2023 1167–1176 (2023). 14. Sharma, P., Shamout, F. E. & Clifton, D. A. Preserving patient privacy while training a predictive model of in-hospital mortality. arXiv preprint arXiv:1912.00354 (2019). 15. Farrand, T., Mireshghallah, F., Singh, S. & Trask, A. Neither private nor fair: Impact of data imbalance on utility and fairness in differential privacy. In Proceedings of the 2020 Workshop on Privacy-Preserving Machine Learning in Practice 15–19 (2020). 16. Gong, C., Liu, X. & Zhou, J. Federated learning in non-IID brain tumor classification. In Proceedings of the 2024 5th International Symposium on Artificial Intelligence for Medicine Science 1–8 (2024). 17. Xu, J. et al. Federated learning for healthcare informatics. J. Healthc. Inform. Res. 5, 1–19 (2019). 18. Hasan, J. Security and privacy issues of federated learning (2023). Scientific Reports | (2025) 15:13061 30 | https://doi.org/10.1038/s41598-025-95858-2 www.nature.com/scientificreports/
- Zheng, X. et al. Federated learning on non-IID data via local and global distillation. In 2023 IEEE International Conference on Web Services (ICWS) 647–657 (IEEE, 2023). 20. Fu, J. et al. Differentially private federated learning: A systematic review. arXiv preprint arXiv:2405.08299 (2024). 21. Heusinger, M., Raab, C., Rossi, F. & Schleif, F.-M. Federated learning - methods, applications and beyond. arXiv. https://arxiv.org /abs/2212.11729 (2022). 22. McGraw, D. & Mandl, K. D. Privacy protections to encourage use of health-relevant digital data in a learning health system. NPJ Digit. Med. 4, 2 (2021). 23. Yin, X., Zhu, Y. & Hu, J. A comprehensive survey of privacy-preserving federated learning: A taxonomy, review, and future directions. ACM Comput. Surv. CSUR 54, 1–36 (2021). 24. Liu, Z. et al. Privacy-preserving aggregation in federated learning: A survey. IEEE Trans. Big Data https://doi.org/10.1109/TBDA TA.2022.3190835 (2022). 25. Shahid, O. et al. Communication efficiency in federated learning: Achievements and challenges. arXiv preprint arXiv:2107.10996 (2021). 26. Rahaman, M., Arya, V., Orozco, S. M. & Pappachan, P. Secure multi-party computation (SMPC) protocols and privacy. In Innovations in Modern Cryptography 190–214 (IGI Global, 2024). 27. Xie, Q. et al. Efficiency optimization techniques in privacy-preserving federated learning with homomorphic encryption: A brief survey. IEEE Internet Things J. 11, 24569–24580 (2024). 28. Amiri, Zahra, et al. The deep learning applications in IoT-based bio-and medical informatics: a systematic literature review. Neural Computing and Applications 36(11), 5757-5797 (2024). 29. Amiri, Z., Heidari, A., Navimipour, N. J., Esmaeilpour, M. & Yazdani, Y. The deep learning applications in IoT- based bio- and medical informatics: A systematic literature review. Neural Comput. Appl. 36, 5757–5797. https://doi.org/10.1007/s00521-023-09 366-3 (2022). 30. Heidari, Arash, et al. A novel blockchain-based deepfake detection method using federated and deep learning models. Cognitive Computation 16(3), 1073-1091 (2024). 31. Heidari, Arash, Nima Jafari Navimipour, and Mehmet Unal. A secure intrusion detection platform using blockchain and radial basis function neural networks for internet of drones. IEEE Internet of Things Journal 10(10), 8445-8454 (2023). 32. Heidari, A., Navimipour, N. J., Dag, H., Talebi, S. & Unal, M. A novel blockchain-based deepfake detection method using federated and deep learning models. Cogn. Comput. https://doi.org/10.1007/s12559-024-10255-7 (2023). 33. Amiri, Z., Heidari, A., Zavvar, M., Navimipour, N. J. & Esmaeilpour, M. The applications of nature-inspired algorithms in internet of things-based healthcare service: A systematic literature review. Trans. Emerg. Telecommun. Technol. 35, e4969. https://doi.org/ 10.1002/ett.4969 (2024). 34. Duan, Q. et al. Combining federated learning and edge computing toward ubiquitous intelligence in 6g network: Challenges, recent advances, and future directions. IEEE Commun. Surv. Tutor. 25, 2892–2950 (2023). 35. McMahan, H. B., Moore, E., Ramage, D., Hampson, S. & y Arcas, B. A. Communication-efficient learning of deep networks from decentralized data. In International Conference on Artificial Intelligence and Statistics (2016). 36. Lakhan, A., Hamouda, H., Abdulkareem, K. H., Alyahya, S. & Mohammed, M. A. Digital healthcare framework for patients with disabilities based on deep federated learning schemes. Comput. Biol. Med. 169, 107845 (2024). 37. Kairouz, P. et al. (2021). 38. Abadi, Martin, et al. “Deep learning with differential privacy.” Proceedings of the 2016 ACM SIGSAC conference on computer and communications security. (2016). 39. Paul, S., Sengupta, P. & Mishra, S. Flaps: Federated learning and privately scaling. https://doi.org/10.48550/arXiv.2009.06005 (2020). 40. Pati, S. et al. Privacy preservation for federated learning in health care. Patterns 5, 100974 (2024). 41. Thummisetti, B. S. P. & Atluri, H. Advancing healthcare informatics for empowering privacy and security through federated learning paradigms. Int. J. Sustain. Dev. Comput. Sci. 6, 1–16 (2024). 42. Hu, K. et al. An overview of implementing security and privacy in federated learning. Artif. Intell. Rev. 57, 204 (2024). 43. Wu, Z. et al. Fedcache: A knowledge cache-driven federated learning architecture for personalized edge intelligence. IEEE Trans. Mob. Comput. 23(10), 9368–9382 (2024). 44. Wu, J. et al. Topology-aware federated learning in edge computing: A comprehensive survey. ACM Comput. Surv. 56, 1–41 (2024). 45. Zhang, H., Wu, T., Cheng, S. & Liu, J. CC-FedAvg: Computationally customized federated averaging. IEEE Internet Things J. 11(3), 4826–4841 (2023). 46. Blanco-Justicia, A. et al. Achieving security and privacy in federated learning systems: Survey, research challenges and future directions. Eng. Appl. Artif. Intell. 106, 104468 (2021). 47. Joshi, M., Pal, A. & Sankarasubbu, M. Federated learning for healthcare domain-pipeline, applications and challenges. ACM Trans. Comput. Healthc. 3, 1–36 (2022). 48. Hao, J., Chen, P., Chen, J. & Li, X. Multi-task federated learning-based system anomaly detection and multi-classification for microservices architecture. Future Gener. Comput. Syst. 159, 77–90 (2024). 49. Zhang, H., Jiang, S. & Xuan, S. Decentralized federated learning based on blockchain: Concepts, framework, and challenges. Comput. Commun. 216, 140–150 (2024). 50. Li, L., Fan, Y., Tse, M. & Lin, K.-Y. A review of applications in federated learning. Comput. Ind. Eng. 149, 106854 (2020). 51. Fang, M. et al. Byzantine-robust decentralized federated learning. In Proceedings of the 2024 on ACM SIGSAC Conference on Computer and Communications Security 2874–2888 (2024). 52. Gu, R. et al. From server-based to client-based machine learning: A comprehensive survey. ACM Comput. Surv. CSUR 54(1), 1–36 (2021). 53. Geng, J. et al. Towards general deep leakage in federated learning. arXiv preprint arXiv:2110.09074 (2021). 54. Qi, P. et al. Model aggregation techniques in federated learning: A comprehensive survey. Futur. Gener. Comput. Syst. 150, 272– 293 (2024). 55. Deng, D. et al. Fedasa: A personalized federated learning with adaptive model aggregation for heterogeneous mobile edge computing. IEEE Trans. Mob. Comput. 23, 14787–14802 (2024). 56. Liu, Y. et al. Vertical federated learning: Concepts, advances, and challenges. IEEE Trans. Knowl. Data Eng. 36, 3615–3634 (2024). 57. Gafni, T., Shlezinger, N., Cohen, K., Eldar, Y. C. & Poor, H. V. Federated learning: A signal processing perspective. IEEE Signal Process. Mag. 39, 14–41 (2022). 58. Zhou, H., Lan, T., Venkataramani, G. P. & Ding, W. Every parameter matters: Ensuring the convergence of federated learning with dynamic heterogeneous models reduction. Adv. Neural Inf. Process. Syst. 36 (2024). 59. Enthoven, D. & Al-Ars, Z. An overview of federated deep learning privacy attacks and defensive strategies. In Federated Learning Systems: Towards Next-Generation AI 173–196 (Springer, 2021). 60. Chen, C. et al. Challenges and remedies to privacy and security in AIGC: Exploring the potential of privacy computing, blockchain, and beyond. arXiv preprint arXiv:2306.00419 (2023). 61. Ma, C. et al. On safeguarding privacy and security in the framework of federated learning. IEEE Netw 34, 242–248 (2020). 62. Huang, W. et al. Federated learning for generalization, robustness, fairness: A survey and benchmark. IEEE Trans. Pattern Anal. Mach. Intell. 46, 9387–9406 (2024). Scientific Reports | (2025) 15:13061 31 | https://doi.org/10.1038/s41598-025-95858-2 www.nature.com/scientificreports/
- Kuang, W. et al. Federatedscope-llm: A comprehensive package for fine-tuning large language models in federated learning. In Proceedings of the 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining 5260–5271 (2024). 64. Alebouyeh, Z. & Bidgoly, A. J. Benchmarking robustness and privacy-preserving methods in federated learning. Futur. Gener. Comput. Syst. 155, 18–38 (2024). 65. Chen, J. et al. When federated learning meets privacy-preserving computation. ACM Comput. Surv. 56, 1–36 (2024). 66. Sharma, S. R., Singh, B., Kaur, M. & Singh, H. Approach for double security with watermarking and chaos based encryption for e-healthcare systems. In 2024 International Conference on Electrical, Computer and Energy Technologies (ICECET) 1–6 (IEEE, 2024). 67. Zhang, Y., Zhang, Z., Ji, S., Wang, S. & Huang, S. Conditional proxy re-encryption-based key sharing mechanism for clustered federated learning. Electronics 13, 848 (2024). 68. Chen, L., Xiao, D., Yu, Z. & Zhang, M. Secure and efficient federated learning via novel multi-party computation and compressed sensing. Inf. Sci. 667, 120481 (2024). 69. Geng, T., Liu, J. & Huang, C.-T. A privacy-preserving federated learning framework for iot environment based on secure multi- party computation. In 2024 IEEE Annual Congress on Artificial Intelligence of Things (AIoT) 117–122 (IEEE, 2024). 70. Rieyan, S. A. et al. An advanced data fabric architecture leveraging homomorphic encryption and federated learning. Inf. Fusion 102, 102004 (2024). 71. Zhang, K. et al. Bounded and unbiased composite differential privacy. In 2024 IEEE Symposium on Security and Privacy (SP) 972–990 (IEEE, 2024). 72. Hu, J. et al. Does differential privacy really protect federated learning from gradient leakage attacks?. IEEE Trans. Mob. Comput. 23, 12635–12649 (2024). 73. Ponomareva, N. et al. How to DP-fy ML: A practical guide to machine learning with differential privacy. J. Artif. Intell. Res. 77, 1113–1201 (2023). 74. Yang, M. et al. Local differential privacy and its applications: A comprehensive survey. Comput. Stand. Interfaces 89, 103827 (2024). 75. Park, S., Lee, J., Harada, K. & Chi, J. Masking and homomorphic encryption-combined secure aggregation for privacy- preserving federated learning. Electronics 14, 177 (2025). 76. Zhao, J. et al. Efficient and privacy-preserving federated learning against poisoning adversaries. IEEE Trans. Serv. Comput. 17, 2320–2333 (2024). 77. Bendoukha, A.-A. et al. Towards privacy-preserving and fairness-aware federated learning framework. In Privacy Enhancing Technologies (PETs) Vol. 2025, 845–865 (2025). 78. Prabith, G., Abhishek, S., Anjali, T. & Ramlal, N. P. Advancements in face masking anonymization: Novel approaches, robust privacy metrics, and real-time solutions. In 2023 7th International Conference on Electronics, Communication and Aerospace Technology (ICECA) 815–823 (IEEE, 2023). 79. Yang, L., Tian, M., Xin, D., Cheng, Q. & Zheng, J. AI-driven anonymization: Protecting personal data privacy while leveraging machine learning. arXiv preprint arXiv:2402.17191 (2024). 80. Parshivlyuk, S. & Panchenko, K. Privacy-preserving machine learning models for network anonymization. Asian Am. Res. Lett. J. 1 (2024). 81. Madhusudhanan, S., Jose, A. C. & Malekian, R. Federated learning and privacy, challenges, threat and attack models, and analysis. In Federated Learning: Principles, Paradigms, and Applications 183–212 (Apple Academic Press, 2024). 82. Yusuff, M. Data masking techniques for protecting privacy in automation systems (2023). 83. Sen, J., Waghela, H. & Rakshit, S. Privacy in federated learning. arXiv preprint arXiv:2408.08904 (2024). 84. Nxumalo, Z., Tarwireyi, P. & Adigun, M. Towards privacy with tokenization as a service. In 2014 IEEE 6th International Conference on Adaptive Science & Technology (ICAST) 1–6 (IEEE, 2014). 85. Sharma, D. D. Asynchronous blockchain-based federated learning for tokenized smart power contract of heterogeneous networked microgrid system. IET Blockchain 4, 302–314 (2024). 86. Kelly, M., Longjohn, R. & Nottingham, K. The UCI machine learning repository. Accessed 26 Jan 2024 (2024). 87. Little, R. J., Carpenter, J. R. & Lee, K. J. A comparison of three popular methods for handling missing data: Complete-case analysis, inverse probability weighting, and multiple imputation. Sociol. Methods Res. 53, 1105–1135 (2024). 88. Liu, Y., Li, B., Yang, S. & Li, Z. Handling missing values and imbalanced classes in machine learning to predict consumer preference: Demonstrations and comparisons to prominent methods. Expert. Syst. Appl. 237, 121694 (2024). 89. Guerraoui, R., Pinot, R., Rizk, G., Stephan, J. & Taiani, F. Overcoming the challenges of batch normalization in federated learning. arXiv preprint arXiv:2405.14670 (2024). 90. Xue, R., Pei, J. & Wang, L. Federated learning on small batch sizes via batch renormalization. In The Second Tiny Papers Track at ICLR 2024. 91. Shi, J. et al. Feature-imitation federated learning: An efficient approach for specific emitter identification in low-resource environments. IEEE Trans. Cogn. Commun. Netw. 10, 2061–2075 (2024). 92. Theng, D. & Bhoyar, K. K. Feature selection techniques for machine learning: A survey of more than two decades of research. Knowl. Inf. Syst. 66, 1575–1637 (2024). 93. Liu, J., Li, D., Shan, W. & Liu, S. A feature selection method based on multiple feature subsets extraction and result fusion for improving classification performance. Appl. Soft Comput. 150, 111018 (2024). 94. Luo, G. et al. Privacy-preserving clustering federated learning for non-IID data. Futur. Gener. Comput. Syst. 154, 384–395 (2024). 95. Feng, B. et al. Robustly federated learning model for identifying high-risk patients with postoperative gastric cancer recurrence. Nat. Commun. 15, 742 (2024). 96. Rahman, A., Nahid, N., Schuller, B. & Ahad, M. A. R. A stacked CNN and random forest ensemble architecture for complex nursing activity recognition and nurse identification. Sci. Rep. 14, 31667 (2024). 97. Pazhanikumar, K. & KuzhalVoiMozhi, S. N. Remote sensing image classification using modified random forest with empirical loss function through crowd-sourced data. Multimed. Tools Appl. 83, 53899–53921 (2024). 98. Gao, W. & Zhou, Z.-H. Towards convergence rate analysis of random forests for classification. Adv. Neural Inf. Process. Syst. 33, 9300–9311 (2020). 99. Hu, L., Jiang, M., Liu, X. & He, Z. Significance-based decision tree for interpretable categorical data clustering. Inf. Sci. 690, 121588 (2025). 100. Rajendran, S., Khalaf, O. I., Alotaibi, Y. & Alghamdi, S. Mapreduce-based big data classification model using feature subset selection and hyperparameter tuned deep belief network. Sci. Rep. 11, 24138 (2021). 101. Wu, G., Wen, X., Wang, L., Pedrycz, W. & Suganthan, P. N. A voting-mechanism-based ensemble framework for constraint handling techniques. IEEE Trans. Evol. Comput. 26, 646–660 (2021). 102. Desuky, A. S. & Hussain, S. An improved hybrid approach for handling class imbalance problem. Arab. J. Sci. Eng. 46, 3853–3864 (2021). 103. Hossain, M. R. & Timmer, D. Machine learning model optimization with hyper parameter tuning approach. Glob. J. Comput. Sci. Technol. D Neural Artif. Intell. 21, 31 (2021). 104. Liao, L., Li, H., Shang, W. & Ma, L. An empirical study of the impact of hyperparameter tuning and model optimization on the performance properties of deep neural networks. ACM Trans. Softw. Eng. Methodol. TOSEM 31, 1–40 (2022). Scientific Reports | (2025) 15:13061 32 | https://doi.org/10.1038/s41598-025-95858-2 www.nature.com/scientificreports/
-
Chen, S., Yu, D., Zou, Y., Yu, J. & Cheng, X. Decentralized wireless federated learning with differential privacy. IEEE Trans. Ind.
Inform. 18, 6273–6282 (2022). 106. Shen, S., Zhu, T., Wu, D., Wang, W. & Zhou, W. From distributed machine learning to federated learning: In the view of data privacy and security. Concurr. Comput. Pract. Exp. 34, e6002 (2022). 107. El Ouadrhiri, A. & Abdelhadi, A. Differential privacy for deep and federated learning: A survey. IEEE Access 10, 22359–22380 (2022). 108. Jia, B. et al. Blockchain-enabled federated learning data protection aggregation scheme with differential privacy and homomorphic encryption in IIoT. IEEE Trans. Ind. Inform. 18, 4049–4058 (2021). 109. Lytvyn, O. & Nguyen, G. Secure federated learning for multi-party network monitoring. IEEE Access 12, 163262–163284 (2024). 110. Chai, D. et al. A survey for federated learning evaluations: Goals and measures. IEEE Trans. Knowl. Data Eng. 36, 5007–5024. https://doi.org/10.1109/TKDE.2024.3382002 (2024). 111. Naidu, G., Zuva, T. & Sibanda, E. M. A review of evaluation metrics in machine learning algorithms. In Computer Science On-line Conference 15–25 (Springer, 2023). 112. Yacouby, R. & Axman, D. Probabilistic extension of precision, recall, and f1 score for more thorough evaluation of classification models. In Proceedings of the First Workshop on Evaluation and Comparison of NLP Systems 79–91 (2020). 113. Orozco-Arias, S. et al. Measuring performance metrics of machine learning algorithms for detecting and classifying transposable elements. Processes 8, 638 (2020). Author contributions S.S. led the research, authored the main manuscript, and prepared all the results & figures. S.S. and S.R. jointly conducted the execution of FL frameworks and methodology. A.S. and M.E. contributed to the introduction and background sections of the paper. K.E. and S.V. thoroughly reviewed the manuscript and guided throughout. Funding Open access funding provided by Vellore Institute of Technology. Declarations Competing interests The authors declare no competing interests. Additional information Correspondence and requests for materials should be addressed to K.E. Reprints and permissions information is available at www.nature.com/reprints. Publisher’s note Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations. Open Access This article is licensed under a Creative Commons Attribution 4.0 International License, which permits use, sharing, adaptation, distribution and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons licence, and indicate if changes were made. The images or other third party material in this article are included in the article’s Creative Commons licence, unless indicated otherwise in a credit line to the material. If material is not included in the article’s Creative Commons licence and your intended use is not permitted by statutory regulation or exceeds the permitted use, you will need to obtain permission directly from the copyright holder. To view a copy of this licence, visit http://creativecommons.org/licenses/by/4.0/. © The Author(s) 2025 Scientific Reports | (2025) 15:13061 33 | https://doi.org/10.1038/s41598-025-95858-2 www.nature.com/scientificreports/