2026-03-29 の論文
キーワード: trustworthy machine learning, trustworthy AI evaluation benchmark, AI alignment reinforcement learning from human feedback, LLM safety guardrails red teaming jailbreak, fairness bias mitigation machine learning, adversarial robustness certified defense, explainability interpretability deep learning, AI governance regulation compliance, differential privacy federated learning trustworthy, machine unlearning data deletion, hallucination detection factuality LLM, value alignment constitutional AI, out-of-distribution detection uncertainty quantification, formal methods verification neural network, formal verification machine learning safety, SysML model-based systems engineering AI
-
1. Suppression or Deletion: A Restoration-Based Representation-Level Analysis of Machine Unlearning
-
2. Trustworthy federated learning: privacy, security, and beyond
-
3. Federated learning with differential privacy for breast cancer diagnosis enabling secure data sharing and model integrity
-
4. ALDP-FL for adaptive local differential privacy in federated learning
-
5. A Framework for privacy-preserving in IoV using Federated Learning with Differential Privacy
- 著者: M Adnan, MH Syed, A Anjum et al. (2025)
- 発表: ieeexplore.ieee.org 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 26
- 概要: 本研究で提案するスキームは、差分プライバシーを用いたフェデレーテッドラーニングにおいて、機密情報を保護しつつデータの有用性を維持することを目指す。
- メモ
-
6. Privacy-preserving federated learning and uncertainty quantification in medical imaging
- 著者: N Koutsoubis, A Waqas, Y Yilmaz… (2025)
- 発表: pubs.rsna.org 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 36
- 概要: 本研究では、フェデレーテッド学習 (federated learning)、プライバシー保護型フェデレーテッド学習 (privacy-preserving federated learning)、およびフェデレーテッド学習における不確実性定量化 (uncertainty quantification) を組み合わせ、医療画像応用においてデータのプライバシーと信頼性を向上させる手法を提案する。
- 日本語全文 | メモ
-
7. Aldp-fl: an adaptive local differential privacy-based federated learning mechanism for IoT
- 著者: J Li, M Lu, J Zhang et al. (2025)
- 発表: Springer 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 9
- 概要: 本研究では、IoT環境における信頼性の高いフェデレーテッド学習を実現しつつプライバシー保護を強化するため、フェデレーティブラーニングベースの適応型ローカル差分プライバシー機構(adaptive local differential privacy mechanism)を開発した。
- メモ
-
8. Federated learning for privacy-preserving data analytics in mobile applications
- 著者: JN Okolo, AAG Arowogbadamu… (2025)
- 発表: researchgate.net 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 8
- 概要: データプライバシーを保護するため、フェデレーテッドラーニング(FL)実装は安全な手法[60]が採用されています。格子ベース暗号と量子耐性暗号を活用することで、フェデレーテッドラーニングは信頼できる状態を保ち続けます。
- メモ
-
9. A reliable and privacy-preserved federated learning framework for real-time smoking prediction in healthcare
-
10. Machine unlearning: Taxonomy, metrics, applications, challenges, and prospects
-
11. A survey of machine unlearning
- 著者: TT Nguyen, TT Huynh, Z Ren et al. (2025)
- 発表: dl.acm.org 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 573
- 概要: モデルのセキュリティを確保するために、攻撃が検出された後、機械的忘却(machine unlearning)機構を通じて対向データを削除できることが重要である[14, 135]。
- メモ
-
12. Evaluating machine unlearning: Applications, approaches, and accuracy
- 著者: Z Ali, A Muhammad, R Adnan et al. (2025)
- 発表: Wiley Online Library 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 3
- 概要: Athenaフレームワークは、機械学習サービスにおけるデータ削除(マシン・アンラーニング)を検証するためのもので、データ削除を高い確信度で保証しつつ、モデルの精度を維持します。
- メモ
-
13. Threats, attacks, and defenses in machine unlearning: A survey
- 著者: Z Liu, H Ye, C Chen et al. (2025)
- 発表: ieeexplore.ieee.org 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 78
- 概要: 情報漏洩リスクと悪意ある機械的削除(machine unlearning)による影響に焦点を当て、特定データの削除が機械学習システムに与える効果を検証した。
- メモ
-
14. A survey of security and privacy issues of machine unlearning
- 著者: A Chen, Y Li, C Zhao et al. (2025)
- 発表: Wiley Online Library 2025 | 📝 プレプリント | 🎓 Scholar | 📊 被引用 15
- 概要: 機械学習におけるデータ削除(machine unlearning)について、モデルオーナーが要求されたデータ D_u ⊆ D_{train} を削除した際の影響を体系的に調査し、削除後のモデル性能やプライバシー保護効果を評価する。
- メモ
-
15. The Right to be Forgotten in Pruning: Unveil Machine Unlearning on Sparse Models
-
16. Deep-learning based adaptive fusion of CC and MLO views for improved mammographic cancer diagnosis.
- 著者: Sannasi Chakravarthy Surulimani Ramaraj, H. Rajaguru, Rajesh Kumar Dhanaraj et al. (2026)
- 発表: MethodsX 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: Breast cancer remains the most prevalent malignancy among women worldwide. The timely detection of this cancer type is critical for improving survival outcomes. Despite advancements, mammogram classification using deep learning strategies still faces challenges. These include inter-view feature inconsistency, loss of diagnostic details, and limited interpretability. In order to address these issues, MammoFusion-Net, a dual-branch deep learning framework, is proposed for mammogram-based breast cancer classification. Using residual convolutional streams, the framework processes craniocaudal (CC) and mediolateral oblique (MLO) views independently. This supports preservation of view-specific anatomical information. In the proposed framework, a Gates Cross-View Fusion mechanism adaptively integrates features across views. As a result of experimental analysis, the proposed framework achieved 92.116 % (VinDr-Mammo dataset) and 95.556 % (INBreast dataset) of improved classification performance. •Employs a dual-branch architecture to independently process CC and MLO views using residual convolutional streams. •Integrates Gated Cross-View Fusion and attention mechanisms adaptively and refines multi-view features for stronger discrimination. •Demonstrates the explainability of the model through Grad-CAM visualizations that highlight lesion-relevant regions.
- メモ
-
17. Adaptive Gradient Methods for Differentially Private TinyML in 6G
- 著者: Chen Hou, Tao Huang, Qingyu Huang et al. (2026)
- 発表: IEEE wireless communications 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 1
- 概要: …
- メモ
-
18. Autonomous LLM Agent: A Memory-Augmented, Edge-Optimized SHAP Explanations With Zero-Day Attack Resilience in IoT/Industrial IoT Networks
- 著者: Y. Saheed, J. Chukwuere (2026)
- 発表: IEEE Internet of Things Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 2
- 概要: Anomaly-Agentは、LLMを活用した説明可能な異常検知フレームワークで、ドメインツールや外部知識取得、メモリ拡張された意思決定を組み合わせてエッジ環境のIoT/IIoTにおけるゼロデイ攻撃を適応的に検出・説明する。Edge-IIoTsetとCIC-IoT2023データセットでそれぞれ96%と89%の精度、FAR<0.04、ゼロデイ攻撃に対するリコール0.65を達成し、SHAPによる説明性も向上させた。
- メモ
-
19. A Hybrid Explainable AI for DDoS Attacks Detection in Industrial IoT Networks
- 著者: Makhduma F. Saiyed, Irfan S. Al-Anbagi (2026)
- 発表: IEEE Internet of Things Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: Industrial Internet of Things (IIoT) has transformed industrial processes by enabling real-time data monitoring and automation, yet remains vulnerable to cyberattacks such as distributed denial-of-service (DDoS). This paper presents a novel hybrid explainable AI DDoS detection system called HEAD, which integrates deep learning (DL), feature attribution, and model optimization within IIoT networks. HEAD introduces three key innovations: (1) a combined explanation-based feature selection approach using SHAP and LIME to identify both global and local feature importance, ranking features by the geometric mean of normalized SHAP and LIME values; (2) training a feedforward deep neural network on selected features to capture traffic patterns efficiently while maintaining high detection accuracy; and (3) applying SHAP GradientExplainer to prune neurons in the first hidden layer guided by input feature influence, resulting in a lightweight model with reduced computation without loss of accuracy. Experiments on HL-IoT, ToNIoT, and Edge-IIoTSet datasets demonstrate that HEAD achieves over 94% detection accuracy and improves model efficiency through SHAP-guided pruning. An interactive interface visualizes SHAP explanations and training results, aiding network administrators in monitoring predictions and refining detection policies. This transparent and deployable design makes HEAD suitable for real IIoT networks.
- メモ
-
20. Designing a Novel Explainable Artificial Intelligence Framework for Biogas Generation From Organic Waste
- 著者: Naif Alshabi, Gharbi Alshammari, Ali Alferaidi (2026)
- 発表: IEEE Internet of Things Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究は、持続可能な有機廃棄物処理において重要な役割を果たす嫌気性消化(AD)システムの運用効率とバイオガス生成量の変動に対応するため、深層時系列学習と生物学的最適化手法を組み合わせた人工知能フレームワークを提案した。説明可能な結合型 O-Net(XCO-Net)モデルは、事前処理された履歴バイオガスデータ、給餌レジーム、環境条件、原料特性を取り込み、Starfish Optimization Algorithm によってハイパーパラメータ(注意鋭さ、融合エンコーダ幅、ネットワーク深さ、遅延期間)を最適化し、最終層で解釈可能なリアルタイムバイオガス推定結果を提供する。実際の住宅用マイクロADデータに適用した結果、予測精度が大幅に向上し、RMSE = 0.38 m³/日、NNSE = 0.92 を達成し、ベースライン手法と比較して予測の一貫性が 39% 向上した。全体として、適応的で説明可能な AI ツールがマイクロAD運用を認知的かつ低炭素な廃棄物→エネルギー変換システムへと変革することを示した。
- メモ
-
21. FedShard: A Sharding-Based Federated Learning Framework With Layered Incentivization for IoT
- 著者: Juncheng Ma, Xiulong Liu, Changzhi Li et al. (2026)
- 発表: IEEE Internet of Things Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: FedShardは、レイヤード二重トラックインセンティブメカニズムとプライバシー知識蒸留モジュールを組み合わせたFLフレームワークで、シャーディング構造における多数クライアントの効率的な学習と収束・プライバシー向上を実現します。具体的には、長期・短期報酬を提供する二重トラックインセンティブによりトレーニング効率を高め、ローカル差分プライバシー(LDP)を取り入れた知識蒸留で精度とスループットを向上させます。実装はFabric上で行われ、SIFL、PEFL、ChainFLと比較した結果、精度が約29%向上し、スループットが約22%改善されました。
- メモ
-
22. MeatSpec-G: Generalized Low-Cost Spectral Imaging for Ubiquitous Meat Fraud Inspection
- 著者: Yinan Zhu, Haiyan Hu, Baichen Yang et al. (2026)
- 発表: IEEE Transactions on Mobile Computing 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: MeatSpecは、スペクトルイメージングを用いて肉の偽装検出を行う低コストかつユーザーフレンドリーなシステムで、従来の高価な専門装置に匹敵する性能を実現しつつ、現場での検査を可能にする。マルチスペクトルカメラによるスペクトル再構成と対照学習、バンド別特徴抽出、知識蒸留を組み合わせ、さらに拡張版MeatSpec-Gでは濃度や混合パターンの違いに適応した特徴整合訓練とカスケード型オープンセット認識フレームワークにより、未知の偽装条件でも高い汎用性を示す。実験では347対のスペクトル画像で91.06%の検出精度(高価なプロフェッショナルソリューションに僅か7.78%劣る)を達成し、ベースラインより21.58%向上。未知条件では88.89%(+27.78%)、未知偽装物質でも83.33%の検出精度を示した。
- メモ
-
23. A Comprehensive Review of Deep Learning Approaches for Air Quality Pollution Analysis and Prediction
- 著者: S. Tiwari (2026)
- 発表: International Journal for Research in Applied Science and Engineering Technology 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本稿では、近年の深層学習手法を用いた大気質予測に関する体系的レビューを行い、LSTM、GRU、CNN、オートエンコーダー、そしてハイブリッド CNN-LSTM モデルを取り上げる。従来の性能評価に留まらず、データ統合戦略、時空間モデリングプロセス、不確実性推定、リアルタイムモニタリング応用、および導入上の課題について批判的に検討した。2018〜2025 年の最新文献を総合し、解釈可能性、汎化能力、インフラ要件に関する研究ギャップを特定するとともに、スマートシティ計画、健康リスク特定、環境政策策定への深層学習応用についても言及した。ハイブリッド深層学習モデルは従来手法よりも効果的であり、説明可能性とスケーラビリティが実世界での導入に必要であることが示された。
- メモ
-
24. Geo Disaster AI Net: An Explainable Deep Ensemble Framework for Real-Time Urban and Rural Disaster Classification and Resilience
- 著者: Thanish Kumar T, Y. Vardhan, A. Rohitha et al. (2026)
- 発表: International Journal for Research in Applied Science and Engineering Technology 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 自然災害は都市部と農村部の両方に対して増大する脅威をもたらし、迅速な対応とレジリエンス計画を支援できるインテリジェントでリアルタイムな分類システムが必要です。本稿では、GeoDisasterAINetという説明可能な深層アンサンブルフレームワークを提示します。このフレームワークは、Random Forest (RF) による特徴学習、確率ベースの特徴変換、Support Vector Machine (SVM) 分類という三段階ハイブリッド機械学習パイプラインを統合し、82.46% の精度、82.1% の適合率、82.4% の再現率、AUC-ROC 0.881 を達成しました。インド(2010–2023 年)における洪水、地震、サイクロン、土砂災害を含む 6,857 件の多様なハザード記録を処理し、リアルタイム展開に適した約 100 ms の推論時間を実現しました。ハイブリッド構造は単独の Random Forest ベースラインと比較してエラー回復率が 10.87% 向上し、46 件の追加災害ケースを回復しました。特徴重要度分析を通じて説明可能性を提供し、Severity (0.225)、Fatalities (0.198)、Affected Area (0.165) が最も重要な予測因子であることを明らかにしました。さらに、都市部と農村部の災害影響を区別するために、夜間光データ (NTL)、ネットワーク機能曲線、合成資本指標を組み合わせた定量的レジリエンスフレームワークを提案しました。この研究は高精度な災害分類と実用的なレジリエンス洞察を橋渡しし、異種の地理的コンテキストに対してスケーラブルかつ解釈可能なソリューションを提供します。
- メモ
-
25. A Unified Taxonomy of CNN, Transformer, and Explainable AI Models for Brain Tumour Segmentation
- 著者: Dhanashree P M Kuthe, Dr. S. Joy Kumar (2026)
- 発表: International Journal for Research in Applied Science and Engineering Technology 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 脳腫瘍セグメンテーションは、MRIを用いた深層学習の重要な応用分野として注目されています。本稿では、100件以上の研究を包括的にレビューし、モデルアーキテクチャ、説明可能性技術、評価手法、臨床適用性に焦点を当てました。特にGrad-CAMなどのXAI手法を取り入れたロバストで解釈可能なシステムの開発が今後の課題として示されています。
- メモ
-
26. THE CULTURAL RESILIENCE OF MACAO’S INTANGIBLE CULTURAL HERITAGE: THE MECHANISM OF IDENTITY RECONSTRUCTION IN THE INTEGRATION OF CHINESE AND WESTERN CULTURES
- 著者: Shuo Zhang (2026)
- 発表: Geo Journal of Tourism and Geosites 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: Macauの無形文化遺産(ICH)は、東洋と西洋の伝統が交錯し、従来の分析では複雑さとレジリエンスを示す独特な中西融合を体現している。本研究では、画像分類、注意機構、アイデンティティ埋め込み、知識グラフモデリングを組み合わせたマルチモーダルAIフレームワーク「FusionNet」を提案し、MacauのICHに対して適用した結果、伝統的慣習が東西影響下で持続・変容するパターンと、文化的レジリエンスのメカニズム(特にハイブリッド/ローカルアイデンティティ)が可視化された。具体的には、LDAトピック分析で「中国伝統」「ポルトガル遺産」「ハイブリッド/ローカル」の3テーマを抽出し、画像分類精度はカテゴリ別に0.80以上、一部は0.95–1.00に達した。知識グラフ埋め込みとt‑SNE可視化により、ハイブリッドアイデンティティが中国とポルトガルクラスタの間に位置し、橋渡し役を果たすことが確認された。マルチモーダル融合は単一モーダルやベースライン手法よりも認識・意味関連タスクで堅牢であり、Macau ICH のレジリエンス経路を「核心的慣習の保持+外来要素の継続的取り込み」として定量化した。
- メモ
-
27. Recognising employees’ competences through verifiable micro-credentials: aligning higher education and employers’ needs in the digital era
- 著者: Daiva Stanelytė (2026)
- 発表: Entrepreneurship and Sustainability Issues 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 労働市場はデジタル化とIndustry 5.0の時代において、従業員が実際にできることを示すタイムリーで信頼できる証拠がますます求められています。しかし、履歴書や従来の学位だけでは具体的なコンピテンスについて情報が限られており、特に短期コースや非公式学習で培ったスキルについては把握しにくいです。本稿は、検証可能なマイクロクレデンシャルとデジタルバッジがこの情報非対称性をどのように縮小できるかを、2016〜2025年の査読付き論文30件のナラティブ・コンセプト中心レビューに基づき検討します。研究は、教育–評価層、技術–検証層、認識–政策層からなる三層モデルと、マイクロクレデンシャルの最小相互運用プロファイルを提案し、雇用主が示すコンピテンスニーズと学習成果・評価タスク・実物証拠(authentic artefacts)を結びつけます。さらに、高等教育機関が発行する検証可能なマイクロクレデンシャルの実装ロードマップと、雇用主にとって読みやすく有用な決定ルールを提示し、スキルベースの採用、社内移動、アップスキリング戦略を支援する実践的フレームワークを提供します。
- メモ
-
28. An Analytical and Simulation-Based Comparative Framework for Evaluating Scalability and Interpretability in Structured, Unstructured, and Hybrid Big Data Mining Systems
- 著者: T. Karthikeyan, Shashank Swami (2026)
- 発表: Open Access Journal of Multidisciplinary Research 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: …
- メモ
-
29. A Hybrid Explainable Deep Learning and Spectral-Texture Ensemble Approach for Tomato Leaf Disease Diagnosis
- 著者: Pratik Buchke, A. Mayuri (2026)
- 発表: Engineering Technologies and Systems 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究は、手作業で抽出したスペクトル-テクスチャ特徴と深層畳み込み特徴を統合したハイブリッドかつ説明可能なフレームワークを開発し、10種類のトマト葉疾患を高精度に多クラス分類することを目指す。RGB画像からExcess Green (ExG)・Excess Red (ExR)・HSV色相・植生指数などのスペクトル特徴と、Gray Level Co-occurrence Matrix (GLCM)・Tamura記述子・FFTベースのエネルギー・エントロピーから得られるテクスチャ特徴を抽出しRandom Forestで分類、同時にEfficientNetB0を微調整したCNNが画像の深層空間表現を学習する。最終的にSHAPとGrad-CAMによる可視化説明を行い、Late-fusionエンセンブルにより全体精度は96%に達し、全10クラスで高いロバスト性と汎化性能を示した。
- メモ
-
30. Design Principles for System-Level Integration of Static and Sequential Health Data
- 著者: Bhadane Dinesh Suresh, Pradnya A. Vikhar (2026)
- 発表: Open Access Journal of Multidisciplinary Research 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 以下の論文アブストラクトを日本語で2〜3文に要約してください。専門用語は英語のまま残してください。
The rapid proliferation of digital health records, wearable IoT devices, and continuous monitoring has created an unprecedented influx of heterogeneous clinical data. These include static information (demographics, medical history, lab values) and sequential time-series signals (ECG, continuous glucose monitoring, vital signs, etc.). Conventional models often handle each modality in isolation or simply concatenate features, failing to exploit the deep cross-modal relationships that can enhance predictive power. We present a holistic, system-level framework that deeply integrates static and sequential data through coordinated representation learning and fusion. Our design is guided by several principles: (1) Modality-Specific Representation Learning, which uses distinct encoder architectures (e.g. feedforward networks for tabular data vs. RNNs/Transformers for time-series) tailored to each modality’s statistical properties; (2) Representation Alignment and Compatibility, ensuring that learned embeddings from different branches are dimensionally and semantically harmonized for fusion; (3) Structured Fusion Strategy, where modality encoders operate in parallel and integrate their outputs at appropriate stages (early/intermediate/late or attention-based fusion); (4) Temporal–Contextual Interaction Modeling, whereby static context dynamically modulates the interpretation of sequential signals (e.g. via gating or attention conditioned on patient baseline); (5) Robustness and Missing Data Handling, employing mechanisms like time-aware interpolation, masking, and imputation to cope with irregular sampling, incomplete records, and noisy sensor data; and (6) Interpretability and Clinical Alignment, which incorporate feature attribution and attention visualization so that predictions can be explained in terms of medically meaningful factors. Together, these principles form a cohesive blueprint for constructing adaptive, personalized, and clinically trustworthy AI in healthcare. We discuss each principle in detail and illustrate how they interconnect to produce a unified multimodal architecture that respects the unique characteristics of static and dynamic health data.
-
31. Demystifying deep learning-based brain tumor segmentation with three-dimensional UNets and explainable artificial intelligence: A comparative analysis
- 著者: Ming Jie Ong, Sze Yinn Ung, Sim Kuan Goh et al. (2026)
- 発表: Advanced Technology in Neuroscience 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究では、磁気共鳴画像(MRI)における脳腫瘍セグメンテーションを自動化し、医師の臨床判断を支援するために、説明可能な人工知能(Explainable AI, XAI)技術を活用した深層学習モデルを評価した。3つのU-Net系モデル(従来型U-Net、Residual U-Net(ResUNet)、Attention U-Net(AttUNet))を比較し、Grad-CAM と注意可視化により各モデルの予測根拠を解析した結果、最終テストで ResUNet が Dice係数・Jaccard係数・精度・再現率・F1スコアすべてで最も高い性能を示した。特に Grad-CAM は腫瘍サブ領域への注目度を可視化し、AttUNet の注意モジュールの働きを示す可視化が有用であることが確認された。これらの結果から、今後の臨床評価において自動脳腫瘍セグメンテーションに ResUNet を採用することが推奨される。
- メモ
-
32. Secure Distributed AI: Trustworthy Intelligence for Collaborative Campus Systems
- 著者: M. H. Amini (2026)
- 発表: Conference on User Services 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: …
- メモ
-
33. Advancements in Machine Learning Algorithms for Big Data Analytics
- 著者: J. Budiasto (2026)
- 発表: Journal of Hunan University Natural Sciences 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究は、ビッグデータ解析における機械学習(ML)アルゴリズムの最近の進展を調査し、スケーラビリティ、リアルタイム処理、倫理的考慮に焦点を当てた。定性的文献レビューにより、ピアレビュー論文と業界レポートをテーマ別分析し、Apache SparkやHadoopなどの分散コンピューティングフレームワークによるスケーラビリティ向上、オンライン学習技術によるリアルタイム処理の強化が顕著であることが示された。一方で、ノイズデータ下でのモデル精度維持とアルゴリズムバイアス軽減という課題が残り、公平性、透明性、説明責任といった倫理的問題も指摘された。本研究はMLがビッグデータ応用に果たす役割を深化させ、業界横断的にスケーラブルで解釈可能かつ倫理的なモデルを実装するための実践的洞察を提供した。今後はハイブリッド手法の精緻化と、実世界シナリオでの適用性評価に注力すべきである。
- メモ
-
34. Decidable By Construction: Design-Time Verification for Trustworthy AI
- 著者: H. Haynes (2026)
- 発表: 2026 | 📝 プレプリント | 📚 S2 | 📊 被引用 0
- 概要: 以下の論文アブストラクトを日本語で2〜3文に要約してください。専門用語は英語のまま残してください。
A prevailing assumption in machine learning is that model correctness must be enforced after the fact. We observe that the properties determining whether an AI model is numerically stable, computationally correct, or consistent with a physical domain do not necessarily demand post hoc enforcement. They can be verified at design time, before training begins, at marginal computational cost, with particular relevance to models deployed in high-leverage decision support and scientifically constrained settings. These properties share a specific algebraic structure: they are expressible as constraints over finitely generated abelian groups , where inference is decidable in polynomial time and the principal type is unique. A framework built on this observation composes three prior results (arXiv:2603.16437, arXiv:2603.17627, arXiv:2603.18104): a dimensional type system carrying arbitrary annotations as persistent codata through model elaboration; a program hypergraph that infers Clifford algebra grade and derives geometric product sparsity from type signatures alone; and an adaptive domain model architecture preserving both invariants through training via forward-mode coeffect analysis and exact posit accumulation. We believe this composition yields a novel information-theoretic result: Hindley-Milner unification over abelian groups computes the maximum a posteriori hypothesis under a computable restriction of Solomonoff’s universal prior, placing the framework’s type inference on the same formal ground as universal induction. We compare four contemporary approaches to AI reliability and show that each imposes overhead that can compound across deployments, layers, and inference requests. This framework eliminates that overhead by construction.
-
35. NeSySwarm-IDS: End-to-End Differentiable Neuro-Symbolic Logic for Privacy-Preserving Intrusion Detection in UAV Swarms
- 著者: Gang Yang, Lin Ni, Tao Xia et al. (2026)
- 発表: Applied Sciences 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: NeSySwarm-IDSは、UAVスウォームのセキュリティにおいて「意味的ギャップ」を埋めるためのエンドツーエンド微分可能な神経符号化フレームワークである。軽量な1次元畳み込みニューラルネットワークと可微分 Łukasiewicz ファジィロジック推論器を組み合わせ、攻撃固有のルールを統合し、低次元のロジック重みに差分プライバシーノイズを付加して通信コストを削減しつつ (ϵ,δ)-DP を提供する。実験では UAV-NIDD データセットと自前データで高い検出精度を示し、限られた学習データでも従来の機械学習ベースラインを上回り、GPS スプーフィング事例から解釈可能性が確認された。
- メモ
-
36. Scientific benchmarking and validation advances for machine learning models in complex decision environments
- 著者: Adewale Adelanwa, Asmita Basnet (2026)
- 発表: Computer Science & IT Research Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 科学的ベンチマークと検証は、不確実性が高く次元が大きく変動するリスク環境で機械学習モデルを展開する際に、信頼性・堅牢性・汎化能力を確保するために重要です。本研究では、金融、医療、公共ガバナンス、重要インフラ管理などの領域でモデルの信頼性を強化するための高度なベンチマークと検証フレームワークを提案します。従来の性能測定手法の限界に対処するために、統計的検証、k‑fold クロスバリデーション、アウト・オブ・サンプルテスト、対抗的ロバストネス評価、時間的ドリフト分析を組み合わせ、予測安定性を多層的に評価します。さらに、正確さ、適合率、再現率、F1 スコア、ROC 曲線下面積といった従来指標に加えて、キャリブレーション診断、不確実性定量化、意思決定インパクト感度分析を導入し、高リスク環境でのモデル信頼性を包括的に評価できるようにします。標準化されたベンチマークデータセットと再現可能な評価パイプラインを開発し、異種システム間の比較可能性を向上させました。モンテカルロシミュレーションとシナリオベースのストレステストにより、極端だが妥当な運用条件下での耐久性を評価します。公平性監査、バイアス検出指標、説明可能性検証も組み込み、倫理的遵守とステークホルダー信頼を確保します。合成データと実世界データの実証により、提案ベンチマークで評価されたモデルはデータシフトに対してより堅牢で、解釈性が向上し、意思決定の一貫性が強化されることが示されました。結果は、継続的な検証サイクル、適応的モニタリング機構、ガバナンスに合わせたパフォーマンス閾値設定の重要性を強調します。科学的検証手法と運用リスク考慮を統合した本フレームワークは、信頼できる、説明責任のある高性能機械学習システムの構築に寄与し、政策立案者、データサイエンティスト、組織リーダーが複雑で変化する意思決定エコシステムへ機械学習を責任を持って導入するためのスケーラブルな指針を提供します。
- メモ
-
37. A Review of Human–AI Synergy in Smart Energy Management Concepts, Functions, Applications, and Future Frontiers
- 著者: Sihai An, Jing Qiu, Jiafeng Lin et al. (2026)
- 発表: Energy Internet 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: スマートエネルギーマネジメントシステム(EMS)は急速な変革期に入っている。人工知能(AI)—機械学習(ML)、深層学習(DL)、強化学習(RL)—が、再生可能エネルギーが豊富な電力系統のリアルタイム予測、スケジューリング、制御を支える計算基盤となっている。長期的な効率性、レジリエンス、社会的受容は人間とAIの協働に大きく依存しており、人が監視・介入・AIの決定を補完する役割が重要である。本レビューは、スマートグリッド、ビルディング、マイクログリッド、孤立ハイブリッドシステム向けのAI駆動EMSに関する最新文献と、居住者、オペレーター、政策立案者が明示的に関与する人間中心(Human‑in‑the‑Loop, HiTL)パラダイムを統合し、データ駆動型予測、適応的最適化、エッジインテリジェンスの評価を行う。また、透明性、相互運用性、技術的目標と人間的目標の共同最適化に関する研究ギャップを指摘する。設計された人間–AI協働はエネルギー効率と再生可能エネルギー統合だけでなく、将来のエネルギーシステムの堅牢性と信頼性も向上させることを示す。
- メモ
-
38. OM Forum—Supply Chain Management in the AI Era: A Vision Statement from the Operations Management Community
- 著者: Maxime C. Cohen, Tinglong Dai, Georgia Perakis et al. (2026)
- 発表: Manufacturing & Service Operations Management 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 2
- 概要: 問題定義: 人工知能(AI)はサプライチェーンマネジメントの研究と実務を急速に変革している。しかし、その影響はAIがオペレーション・マネジメント(OM)の理論・手法・基本原則とどの程度統合されているかに依存し、情報的、インセンティブ的、制度的な変化に対応するためにはOMも進化が必要である。OMコミュニティは、AIがサプライチェーンをどのように変革するだけでなく、AIを支えるサプライチェーンを持続可能でレジリエントかつ公平に設計する役割と責任を持つ。 方法論/結果: 本ビジョンステートメントは、AIとサプライチェーンマネジメントの相互作用を5つのレイヤー(インテリジェンス、実行、戦略、ヒューマン、インフラストラクチャ)に整理し、最近の研究と業界実践を統合して、AIが予測、計画、意思決定、リスク管理、人間–機械協働をどのように強化するかを示す。また、AIを支えるサプライチェーンについても検討した。最後に、データ品質、モデル統合、ガバナンス、労働力適応といった持続的な課題を指摘した。 管理的含意: AIの可能性をサプライチェーンマネジメントで実現するには、信頼できるデータとインフラストラクチャが必要であり、学習と最適化の統合、透明性と説明可能な意思決定システム、そして長期的な人間–AI協働へのコミットが重要である。これら要素が組み合わさることで、レジリエントかつ適応的で信頼できるサプライチェーンがAI時代に構築される基盤となる。
- メモ
-
39. The Competence Shadow: Theory and Bounds of AI Assistance in Safety Engineering
- 著者: Umair Siddique (2026)
- 発表: 2026 | 📝 プレプリント | 📚 S2 | 📊 被引用 0
- 概要: AIアシスタントがPhysical AIシステムの安全工学ワークフローに統合されるにつれ、重要な質問が浮かび上がります:AI支援は安全性分析の品質を向上させるのか、それとも実運用後にのみ顕在化する体系的な盲点を導入するのでしょうか?本稿では、安全分析におけるAI支援のための形式的枠組みを開発します。まず、安全工学がベンチマーク駆動評価に抵抗する理由を示し、安全性コンピテンスは文脈依存的な正確性、根本的な不完全性、専門家の合意できない点という3つの側面を持つことを説明します。その上で、ドメイン知識、標準専門知識、運用経験、文脈理解、判断力の5次元コンピテンスフレームワークを定式化し、AIが生成した安全分析によって人間の推論が体系的に狭められる「コンピテンス・シャドウ」概念を導入します。シャドウはAIが提示したものだけでなく、考慮されなかった部分も含みます。4つの代表的なヒューマン–AI協働構造を形式化し、閉形式の性能上限を導出し、コンピテンス・シャドウが乗法的に作用して、直感的な加算的見積もりよりもはるかに大きな品質低下(または向上)をもたらすことを示しました。中心的な発見は、AI支援はツール選定だけでなく、協働設計問題であるということです。同じツールでも使用方法次第で分析品質が劣化したり向上したりします。シャドウに強いワークフローの非劣化条件を導出し、信頼できるPhysical AIのために「ツール資格」から「ワークフロー資格」へのシフトを提案します。
- 日本語全文 | メモ
-
40. Prompt Attack Detection with LLM-as-a-Judge and Mixture-of-Models
- 著者: Hieu Le, B. Goh, Qu Tang (2026)
- 発表: 2026 | 📝 プレプリント | 📚 S2 | 📊 被引用 0
- 概要: Prompt attacks, including jailbreaks and prompt injections, pose a critical security risk to Large Language Model (LLM) systems. In production, guardrails must mitigate these attacks under strict low-latency constraints, resulting in a deployment gap in which lightweight classifiers and rule-based systems struggle to generalize under distribution shift, while high-capacity LLM-based judges remain too slow or costly for live enforcement. In this work, we examine whether lightweight, general-purpose LLMs can reliably serve as security judges under real-world production constraints. Through careful prompt and output design, lightweight LLMs are guided through a structured reasoning process involving explicit intent decomposition, safety-signal verification, harm assessment, and self-reflection. We evaluate our method on a curated dataset combining benign queries from real-world chatbots with adversarial prompts generated via automated red teaming (ART), covering diverse and evolving patterns. Our results show that general-purpose LLMs, such as gemini-2.0-flash-lite-001, can serve as effective low-latency judges for live guardrails. This configuration is currently deployed in production as a centralized guardrail service for public service chatbots in Singapore. We additionally evaluate a Mixture-of-Models (MoM) setting to assess whether aggregating multiple LLM judges improves prompt-attack detection performance relative to single-model judges, with only modest gains observed.
- 日本語全文 | メモ
-
41. Deep feature fusion and explainable AI for vision-based mango defect classification
- 著者: Priya Singh, Ajay Rana, Tanupriya Choudhury et al. (2026)
- 発表: Intelligent Data Analysis 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究は、マンゴーの収穫後の品質保持と商業価値・経済的持続可能性を支えるため、視覚ベースの自動欠陥分類技術を提案する。従来の単独CNNモデルに比べて汎用性と解釈性が向上した、ResNet50 と MobileNetV2 の深層特徴を組み合わせた混合説明可能ディープラーニングモデル(PCA 後に Gradient Boosting Classifier (GBC) を適用)を開発し、4 種類の欠陥(健全、黒斑点、しおれ、感染)を持つ 1200 枚の画像データで評価した結果、単一モデルや CNN+SVM のベンチマークに対し 3–5% の精度向上を実現し、全体的に精度・再現率・F1 スコア・MCC が向上した。Grad‑CAM を用いた解析により、欠陥部位を可視化でき、特徴融合とアンサンブル学習、説明可能 AI 手法の組み合わせが果物の自動品質評価システム構築に有効であることを示した。
- メモ
-
42. From Black Box to Glass Box: Implementing Explainable AI in Insurance Underwriting
- 著者: Jalees Ahmad (2026)
- 発表: International journal of innovative research and creative technology 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 保険業界は現在、従来の手作業中心の引受から、人工知能と高次元データ分析を活用したデジタルファーストのパラダイムへと深い構造変革を遂げている。機械学習(ML)アーキテクチャ、特にディープラーニングやアンサンブル手法は、運用コストを最大50%削減し、見積もりサイクルタイムを90%短縮できることが示されているが、その内部構造の不透明さが広範な導入の障壁となっている。本ホワイトペーパーでは、Explainable AI(XAI)フレームワークの体系的実装を通じて「ブラックボックス」システムから「ガラス箱」アーキテクチャへの転換を検討し、SHAPやLIMEなどのローカルおよびグローバル解釈手法に関する最新研究を統合して、EU AI ActやNAICのAI原則といった厳格な規制基準を満たすために必要な技術メカニズムを評価する。さらに、人間が介在する(Human‑in‑the‑Loop, HITL)ガバナンスが、予測精度と倫理的責任のバランスを取る上で不可欠であることを示し、最終的にAIによる保険引受の長期的な持続可能性は、「予測かつ防止」モデルを実現し、透明性を正確さと同等に重視することで、組織への信頼と消費者の自信を高めることが鍵となる。
- メモ
-
43. HFA-Net: Explainable Multi-Scale Deep Learning Framework for Illumination-Invariant Plant Disease Diagnosis in Precision Agriculture
- 著者: Muhammad Hassaan Ashraf, Farhana Jabeen, Muhammad Waqar et al. (2026)
- 発表: Italian National Conference on Sensors 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: HFA-Netは、マルチスケール・マルチレベルの特徴集約ステムとReduction‑Expansion (RE)機構を導入し、早期層からよりリッチで判別力のある特徴を抽出する。さらに、実環境の照明変動に対応するためにIllumination‑Adaptive Contrast Enhancement (IACE) 前処理パイプラインを設計した。実験結果は、通常条件で96.03%の精度を達成し、極暗・極明環境でもそれぞれ92.95%と93.07%の高い性能を維持することを示す。さらに、摂動ベース指標による定量的説明性解析とGrad‑CAM可視化により、モデルの予測が病害部位に忠実であり、解釈可能性と実用的な信頼性が向上していることを確認した。
- メモ
-
44. Large language models in healthcare quality management: a European perspective on process automation and compliance
- 著者: Markus Knott, Markus Krebs, A. Kerscher (2026)
- 発表: Frontiers in Digital Health 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: LLMは欧州医療システムのバックオフィス品質管理プロセスを変革し、患者と直接対話せずにコンプライアンス監視、品質保証、プロセス最適化を自動化しています。本レビューは2023〜2025年の系統的レビューと実装研究のエビデンスを統合し、Medical Device Regulation (MDR)、General Data Protection Regulation (GDPR)、EU Artificial Intelligence Act(Regulation EU 2024/1689)に基づく欧州規制枠組み内でのLLM導入状況を概観しました。研究は主に文書化ツールのAI支援で効率向上を示し、個別研究では文書作成速度が向上し処理時間が最大約50%短縮され、政策分析ではデジタルヘルスとAIソリューションにより管理業務負荷が最大30%削減されると推定されています。臨床試験応用では、LLM生成のインフォームド・コンセント文書が可読性を76%から67%に改善し、正確さは維持されました。一方で、実装ギャップが残り、519件の評価研究のうち患者ケアデータを使用したのはわずか5%で、精度指標に偏りがあり公平性(16%)、導入準備度(5%)、キャリブレーション(1%)は十分に報告されていません。LLMベースの品質管理システムはまだ規制承認を受けておらず、実装科学フレームワークも未成熟です。提案するリスク層別実装フレームワークは、医療機器分類を受けないプロセス指向アプリケーション—標準作業手順(SOP)自動化、監査文書作成、逸脱管理、コンプライアンスモニタリング—に焦点を当て、運用上の大きな利益をもたらします。高度な手法として、検索強化生成(RAG)アーキテクチャ、デジタルツイン統合、自然言語処理によるパターン認識が包括的な品質インテリジェンスプラットフォームへの道を開きます。LLMと知識グラフ、デジタルツイン、マルチモーダル解析といった新興技術の融合により、予測的品質管理が可能となり、単なる記録から事前検知へと拡張できます。エビデンスは行政的品質プロセスへの導入を支持し、特に人間の専門知識を文書作成から品質改善活動へシフトさせる効果が期待されます。現行の証拠は主に欧州外の医療環境やシミュレーション・限定的な設定に基づいていますが、成功にはLLMの非決定性に対処する検証方法、堅牢なガバナンス構造、そして高い品質基準を維持する変革管理が不可欠です。
- メモ
-
45. АЛГОРИТМІЧНА ВІДПОВІДАЛЬНІСТЬ: ТЕХНІЧНІ МОДЕЛІ ПОЯСНЮВАНОГО ШТУЧНОГО ІНТЕЛЕКТУ ТА ПРАВОВІ ВИКЛИКИ ЇХ ВПРОВАДЖЕННЯ
- 著者: Т. Р. Стисло (2026)
- 発表: Herald of Khmelnytskyi National University. Technical sciences 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本稿は、人工知能(AI)の役割が拡大し、意思決定プロセスの透明性が急務となっている状況において、アルゴリズムの説明責任を検討する。公共行政、金融、司法、医療などの分野で自動化システムが普及する中、特に人権・自由・法的責任に直接影響を与える決定に対してAIの説明可能性が重要であることを指摘し、技術的なExplainable Artificial Intelligence(XAI)モデルとしてSHAP、LIME、Grad-CAMを紹介し、複雑な深層学習アルゴリズムの解釈とAIシステムへの信頼向上に寄与する方法を示す。欧州連合のAI規則、OECD AI原則、ISO/IEC 42001:2023といった国際的規制イニシアティブに加え、ウクライナのAIガバナンスアプローチを分析し、コンプライアンス、リスク管理、説明責任メカニズムに関する課題を取り上げた。研究は、技術的な透明性と法的なアルゴリズムバイアス・エラー・潜在的被害に対する説明責任が相互に依存していることを明らかにし、特に公平性・非差別・人間の監督という倫理的課題を高リスクAI応用において強調した。結論として、XAIの効果的な実装には技術標準、倫理原則、法規制が連携することが必要であり、今後の研究方向としてウクライナにおけるアルゴリズム責任評価の国内メソッド構築、標準化されたAIシステム監査手順の確立、そしてそれらをデジタル倫理・AIに関するウクライナ法に統合することが有望であると示唆した。本研究の成果は、信頼できるAIシステム設計・規制に関わる研究者、政策立案者、法律専門家、開発者にとって有用である。
- メモ
-
46. From Sensing to Sense-Making: A Framework for On-Person Intelligence with Wearable Biosensors and Edge LLMs
- 著者: T. Brunyé, Mitchell V. Petrimoulx, Julie A Cantelon (2026)
- 発表: Italian National Conference on Sensors 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: …
- メモ
-
47. Predictive Fair Representation Learning with Variational Autoencoders
- 著者: Tatsuya Yamada, Takuya Konishi, Yoshinobu Kawahara (2026)
- 発表: New generation computing 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 概要なし。
- メモ
-
48. Enhancing and Reporting Robustness Boundary of Neural Code Models for Intelligent Code Understanding
- 著者: Tingxu Han, Wei Song, Weisong Sun et al. (2026)
- 発表: 2026 | 📝 プレプリント | 📚 S2 | 📊 被引用 0
- 概要: ENBECOMEは、ニューラルコードモデル(NCM)の推論時にのみランダムな意味を保った変形を入力コードに加えて決定境界を滑らかにし、経験的ロバスト性と証明可能なロバスト性境界を同時に提供するブラックボックス・トレーニング不要かつ軽量な防御手法です。実験では、欠陥検出タスクで攻撃成功率(ASR)を42.43%から9.74%に低減しつつ精度は0.29%のわずかな低下に抑え、平均証明可能ロバスト半径は1.63であり、最大1.63個の識別子変更に対して誤分類が起こらないことを保証します。
- 日本語全文 | メモ
-
49. Qualitative Study on Impact of EfficientNet-Based Deep Transfer Learning Model for Pneumonia Detection with Explainable Artificial Intelligence using Chest Radiographs
- 著者: USMAN, Opeyemi Lateef, ADEUSI, Oluwasegun Opeoluwa, KAREEM, Morufat Adebola et al. (2026)
- 発表: Federal University Gusau Faculty of Education Journal 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 肺炎は依然として世界的な公衆衛生上の重要な負担であり、特に小児、高齢者、免疫抑制状態にある人々に大きな影響を与えている。胸部X線画像の診断には胸像が日常的に用いられるが、手動での画像解釈は主観性や臨床業務の負荷、観察者間のばらつきに制約されやすい。本研究では、EfficientNetをベースとした深層転移学習フレームワークを提案し、胸部X線画像から肺炎を自動検出するだけでなく、説明可能AI(Explainable AI, XAI)機構を取り入れてモデルの解釈性を向上させた。モデルはKaggleの小児胸部X線データセットを用いて、80:10:10、70:15:15、60:20:20、75:15:10 の4つのトレーニング・検証・テスト分割で訓練・評価した。性能は精度(accuracy)、適合率(precision)、再現率(recall)、F1スコア、ROC曲線下面積(ROC-AUC)で測定し、さらにGrad-CAMを適用して予測の可視的説明を作成した。60:20:20 の分割で最も高い精度(90.5%)、再現率(99.0%)、F1スコア(94.9%)を達成し、ROC-AUC はやや中程度の 0.68–0.73 を示した。Grad-CAM の可視化により、モデルが臨床的に意味のある肺領域に主に注目していることが確認でき、診断決定の透明性と臨床的信頼感を高めた。全体として、EfficientNet と転移学習、説明可能AI を組み合わせた本手法は胸部X線画像からの肺炎検出に対して堅牢かつ解釈しやすいソリューションであることが示された。今後は外部データセットでの検証や、より高度な可視化技術を用いた診断信頼性の強化を目指す予定である。
- メモ
-
50. LeafFusionNet: a hybrid deep learning approach for robust plant disease detection
- 著者: Srijan Das, G. Prethija, C. Sudha (2026)
- 発表: Frontiers in Artificial Intelligence 2026 | 🏛 査読済み | 📚 S2 | 📊 被引用 0
- 概要: 本研究では、葉の病害を効果的に識別・分類するハイブリッドモデルである LeafFusionNet を提案する。LeafFusionNet は Convolutional Neural Network (CNN) と Vision Transformer (ViT) を組み合わせ、効率的な注意モジュールである Leaf Texture Attention Module (LeafTAM) を導入し、グローバル情報とローカル情報を同時に捉える。さらに、CNN‑ViT フュージョンの前に Gabor フィルタ層を追加して生理的に重要なテクスチャ特徴抽出能力を向上させた。Plant Village データセットで学習・検証した結果、精度 99.33%、精度・再現率・F1 スコアともに 99% を達成し、最先端モデルと比較して優れた汎化性能を示した。このハイブリッドモデルは農業診断システムの構築に活用でき、Transformer ベースの視覚モジュール、Gabor フィルタ、Grad‑CAM などの説明可能性手法を組み合わせることで、強力かつ解釈可能なシステム設計が可能である。
- メモ