Intelligence Artificielle & Fusion Multimodale pour Détection & Guidage Tumoral
Rapport de Recherche Stratégique — LumiSurg CONFIDENTIEL
Date : 2 mai 2026 | Horizon couvert : 2020–2026
RÉSUMÉ EXÉCUTIF
L'IA chirurgicale per-opératoire est en phase de déploiement clinique rapide, portée par :
- Des modèles de fondation adaptés à la chirurgie (SurgicalSAM, EndoViT, SurgiSAM2)
- Des plateformes multimodales FDA-cleared (Proprio, Caresyntax, Activ Surgical)
- Une convergence inédite NIR + spectroscopie + deep learning
- Des financements massifs ($180M Caresyntax, £17M Hypervision, $180M Proprio)
Position LumiSurg : La combinaison NIR-II + fusion IA multimodale représente un espace blanc stratégique où les acteurs actuels restent sur NIR-I. LumiSurg a 18–24 mois d'avance potentielle si elle intègre l'IA dans son pipeline dès maintenant.
SECTION 1 — FUSION D'IMAGES MULTIMODALE PAR IA
1.1 Architectures deep learning pour fusion PET/IRM + fluorescence
État de l'art 2024–2025
PPMF-Net (PET-MRI Progressive Parallel Fusion)
- Architecture : 3 modules (NIFE, TEGM, DEEM)
- NIFE = extraction features non-linéaires interactives
- TEGM = modélisation globale par Transformer
- DEEM = renforcement contours haute fréquence dans zones diagnostiques
- Référence : Electronics 2025, MDPI 2025
Deep Learning-Enhanced PET-MRI Fusion (2025)
- Fusion automatisée pour détection et classification de tumeurs cérébrales
- Modèles génératifs (GANs) pour synthèse d'images PET à partir d'IRM seules
- ResearchGate 2025 (pré-print avancé)
IA Frontiers Oncology Review (2025)
- Revue complète : fusion d'images + IA en temps réel pour oncologie
- Couvre CT, IRM, TEP, fluorescence, spectroscopie en combinaison
- Frontiers in Oncology, doi:10.3389/fonc.2025.1468753
Approche multimodale gliome (2025)
- Modèles légers : inférence en 5 secondes en per-opératoire
- Validation multi-centrique chinoise et internationale
- Résolution du biais inter-centres (key challenge)
Opportunité LumiSurg
Développer une pipeline de fusion PET/CT pré-op → fluorescence NIR-II per-op avec recalage élastique en temps réel. Aucun acteur actuel ne couvre l'ensemble de ce workflow pour NIR-II.
1.2 CT pré-op + fluorescence temps réel (registration)
Recalage déformable per-opératoire — deep learning
LIBR+ (Intraoperative Liver Registration) — MICCAI 2024
- Méthode hybride biomécanique + résidu deep learning
- Réseau dual-branch SR-GCN (Spline-Residual Graph Convolutional Network)
- Assimile mesures per-opératoires éparses et les propage sur toute la géométrie 3D
- Publication : Springer MICCAI 2024, doi:10.1007/978-3-031-72089-5_34
MambaMorph (2024) — recalage MR-CT déformable
- Framework Mamba (SSM = State Space Model) + apprentissage contrastif
- Features extractor supervisé par contrastive learning
- Avantage sur VoxelMorph : meilleures performances long-range
- arXiv:2401.13934
BridgeSplat (2025) — Gaussian Splatting chirurgical
- Couple reconstruction 3D per-opératoire (Gaussian Splatting) + CT pré-op
- Comble le gap entre vidéo chirurgicale et données volumétriques patient
- Publication MICCAI 2025
Recalage MR-CT non supervisé (dual-channel) — 2023
- Réseau dual-channel non supervisé pour neurochirurgie
- Temps d'inférence compatible per-op
- PMC10229200
Key takeaway registraion
Les approches 2024–2025 permettent un recalage CT→fluoresence sub-10 secondes avec gestion des déformations per-opératoires. LumiSurg devrait intégrer MambaMorph ou LIBR+ comme backbone de recalage.
SECTION 2 — IA POUR DÉTECTION DE TUMEURS EN PER-OPÉRATOIRE
2.1 Analyse temps réel des flux vidéo NIR
"Bon mariage" IA + fluorescence — AIS 2023
- Revue fondatrice : convergence IA + imagerie fluorescente pour chirurgie plus sûre
- DOI : 10.20517/ais.2023.25
- Couvre : segmentation tumeur, guidage marges, ganglions sentinelles
Intraoperative Fluorescence Robotic Surgery — Annals of Surgery 2023
- Validation clinique : robotic da Vinci + fluorescence NIR temps réel
- Applications : résection colorectale, lymphadénectomie, perfusion anastomotique
Perfusion ICG + IA (colorectal 2024–2025)
- Modèle DL replicant le jugement expert en temps réel pour sélection niveau transection
- Généralisabilité inter-chirurgiens démontrée
- PMC11634173 (Scientific Reports 2026)
- AUC-ROC >0.967 pour classification tissu rectal (cancer vs sain)
- KNN sur courbes ICG time-series
NIR-II + IA osteosarcome (2024)
- Précision 100% avec B7H3-IRDye800CW
- Confirme supériorité NIR-II pour visualisation tumorale précise
- Multispectral SWIR + machine learning classification pixels
2.2 Segmentation automatique tumeurs et marges
Transfer Learning + CNN — Journal of Fluorescence Surgery 2024
- Segmentation de tumeurs sur images fluorescentes per-op
- CNN pré-entraîné + transfer learning sur données fluorescence
- Publication : Journals Sagepub 2024, doi:10.1177/15533506241246576
Fluorescence + deep learning — oral cancer (PMC, 2024)
- Quantification profondeur de tumeur par IA sur images fluorescence
- Entraînement in silico (dataset synthétique) → validation clinique
- PMC11408754
Segmentation sémantique per-op robotique (prostatectomie) — 2024
- Deep learning pour segmentation temps réel en prostatectomie robot-assistée
- PMC10998267
npj Precision Oncology 2024 — convergence FGS + IA
- Revue complète algorithmes IA pour chirurgie oncologique guidée par fluorescence
- Nature doi:10.1038/s41698-024-00699-3
2.3 Détection ganglions sentinelles par IA
Modèle MFI-FFP (Multi-modal Fluorescence Imaging Feature Fusion Prediction)
- Fusion imagerie fluorescente multimodale NIR per-op
- AUC 0.7512 / ACC 0.8617 pour prédiction métastases axillaires
- AACR Clinical Cancer Research 2024 (Supplement P2-02-20)
CONFIDENT-B — Essai clinique (PMC 2024)
- IA assistée pour détection métastases dans ganglions sentinelles (sein)
- App Metastasis Detection (Visiopharm) sur coupes histologiques numérisées
- PMC11358151
ChatGPT-4 pour coupes extemporanées (2025)
- Précision 92.2% / sensibilité 100% / spécificité 80.6% sur 90 GS
- Applicabilité diagnostic per-opératoire en temps réel
- PMC12743367
GAINS System (goggle + fluorescence + IA)
- Navigation augmentée par lunettes + NIR + IA
- 100% sensibilité détection GS (évaluation pilote sein + mélanome)
- Réseau de neurones + dye NIR
2.4 Modèles pré-entraînés disponibles
| Modèle | Type | Disponibilité | Performance |
|---|---|---|---|
| SurgicalSAM | Segmentation per-op (instruments) | Open source GitHub | State-of-art EndoVis2018 |
| SurgiSAM2 | Segmentation vidéo chirurgicale | Open source GitHub | MICCAI/NeurIPS 2024 |
| EndoViT | Vision Transformer endoscopie | Open source (HuggingFace) | Surpasse ImageNet pretraining |
| Federated EndoViT | Version fédérée multi-centres | arXiv 2025 | Privacy-preserving |
| SAM2 | Foundation segmentation | Meta AI Open | Adaptable chirurgie |
SECTION 3 — IA + SPECTROSCOPIE
3.1 Raman guidé par IA
Sentry System — Raman + ML cerveau (2024)
- Système temps réel de détection tumorale in situ par Raman + classifieurs ML
- Étude multicentrique (Nature Scientific Reports 2024)
- doi:10.1038/s41598-024-62543-9
DeepeR — deep learning Raman (PMC 2022, référence fondatrice)
- Framework DL entraîné sur >1,5M spectres hyperspectral Raman
- Accélération imagerie Raman : ×40 à ×90
- PMC9286315
Frontiers Raman + IA cancer (2025)
- Revue exhaustive applications IA-Raman en oncologie
- SERS (Surface Enhanced) pour détection early-stage
- doi:10.3389/fmolb.2025.1690063
ACS Omega — Raman + cerveau (2023)
- Fingerprint moléculaire par Raman pour gliomes, méningiomes, métastases
- doi:10.1021/acsomega.3c01848
Axes de brevetabilité Raman-IA pour LumiSurg
- Algorithme de classification Raman spécialisé NIR-II (2100–2260 cm⁻¹ alkyne window)
- Pipeline Raman guidé par fluorescence (pre-scan NIR → spot Raman ciblé)
3.2 Hyperspectral Imaging + deep learning
Hypervision Surgical (spinout KCL) — Série A £17M (2024/2025)
- Première caméra HSI chirurgicale UKCA + FDA-cleared
- Partenariat imec (Belgique) pour capteurs on-chip spectraux
- Évaluations multi-centres UK en cours
- Site : hypervisionsurgical.com
HeiPorSPECTRAL Dataset
- Dataset public de chirurgie porcine HSI
- Standard de facto pour benchmark IA HSI chirurgicale
- Utilisé pour deep learning segmentation organes et tumeurs
npj Precision Oncology — benchmark HSI cerveau (2023)
- 61 images hyperspectral, 34 patients, in vivo
- Meilleur F1 macro médian : 70.2 ± 7.9%
- doi:10.1038/s41698-023-00475-9
iScience — correction HSI + unmixing (2024)
- Framework deep learning pour correction et démélange spectral per-op cérébral
- Cell Press iScience doi:10.1016/j.isci.2024.111497
RGB → Hyperspectral reconstruction (PMC 2024)
- Reconstruction hyperspectrale depuis image RGB standard + IA
- Démocratise l'accès HSI sans caméra dédiée
- PMC11665794
Tableau acteurs HSI chirurgicaux
| Acteur | Technologie | Stade | Commentaire |
|---|---|---|---|
| Hypervision Surgical | HSI + IA (KCL spinout) | FDA cleared, essais cliniques | Prioritaire pour LumiSurg |
| imec Belgium | Capteurs HSI on-chip | Partenaire industriel | Miniaturisation chirurgicale |
| digipath (Allemagne) | HSI + DL pathologie | Recherche | Synergies possibles |
| DIRAC (Heidelberg) | TIVITA HSI système | Commercialisé (recherche) | Référence dataset |
| ScienceDirect 2023 | HSI + ML marges | Validation clinique | Revue de référence |
3.3 OCT (Optical Coherence Tomography) + IA
OCT-IA sein — margins assessment (2023)
- WF-OCT + CNN binaire : 585 scans d'entraînement, 155 validation
- AUROC 0.976 / sensibilité 0.93 / spécificité 0.98
- MDPI Life 2023, doi:10.3390/life13122340
Microscope-integrated OCT — cerveau in vivo (2024)
- OCT intégré microscope opératoire pour détection résiduelle tumeur
- SVM : 85% précision ; réseau neuronal : 82% ; autoencoder : 85%
- Journal of Neurosurgery 2024, doi:10.3171/2024.2.JNS231613
OCT + DL — métastases hépatiques colorectales (2023)
- CNN pré-entraîné (Xception) : distinction foie sain vs métastase ex vivo
- Springer JCRCO 2023
OCT per-opératoire — sarcomes tissu mou
- Études pilotes Ohio State University 2024
- Marges négatives confirmées post-OCT per-op
Positionnement OCT pour LumiSurg
L'OCT est complémentaire à la fluorescence NIR-II : profondeur sub-millimétrique (1–2mm) vs NIR-II (~5–10mm). Fusion OCT + NIR-II = couverture complète des marges tumorales.
SECTION 4 — JUMEAUX NUMÉRIQUES DU PATIENT
4.1 Reconstruction 3D pré-op et digital twin
Digital Twins en chirurgie — PMC 2025
- Revue complète : construction à partir IRM/CT + modélisation physique
- K-means clustering pour segmentation tumeur 3D sur modèle cérébral
- CardioVision : DL sur CT → reconstruction 3D aorte automatisée
- PMC12081715, PMC12578008, PMC12370374
Journal Applied Clinical Medical Physics (2025)
- Intégration multi-modalités (CT, IRM, TEP, échographie) dans le twin numérique
- Simulation prédictive, modélisation temps-réel
- Wiley 2025, doi:10.1002/acm2.70226
Résultats chirurgie robotique prostate (2024)
- Modèles 3D patient-spécifiques issus IRM → taux marges positives 8.1% vs 22.2%
- Validation clinique prospective
4.2 Calage AR per-opératoire avec HoloLens
Mixed Reality en chirurgie — revue majeure (PMC 2025)
- Revue de toutes utilisations per-opératoires AR/MR chez l'humain, multi-disciplines
- PMC12746634
AR robotic partial nephrectomy
- Recalage automatique modèle 3D CT + images endoscopiques intraoperatoires
- Réduction ajustements manuels
- IJCARS 2019–2024 (série de validation)
SurgAR / CHU Bordeaux Digital URO 3D
- Référence française : calage AR + modèles 3D urologie
- (Documenté dans rapport HoloLens LumiSurg précédent)
4.3 Intégration signal fluorescent dans digital twin
Etat de l'art et gap identifié
- Aucun système publié à ce jour ne fusionne signal fluorescence NIR per-op avec digital twin en temps réel
- Approches existantes : séquentielle (pré-op puis per-op), non simultanée
- Opportunité LumiSurg : premier système à intégrer NIR-II live dans jumeau numérique patient
Architecture possible :
CT/IRM pré-op → reconstruction 3D segmentée (IA)
↓
Digital Twin patient (modèle déformable)
↓
Caméra NIR-II per-op → localisation fluorescence temps réel
↓
Recalage déformable (BridgeSplat / MambaMorph)
↓
Overlay AR HoloLens / écran chirurgien
SECTION 5 — FOUNDATION MODELS POUR IMAGERIE CHIRURGICALE
5.1 SAM (Segment Anything Model) adapté per-op
SurgicalSAM — AAAI 2024
- Adaptation SAM pour instruments chirurgicaux per-op
- Encodeur de prompt prototypique (classe-based, sans prompt explicite)
- Apprentissage contrastif pour discrimination inter-classes
- GitHub : wenxi-yue/SurgicalSAM
- Performances state-of-art EndoVis2018 et EndoVis2017
SurgiSAM2 — NeurIPS 2024 Workshop AIM-FM
- Extension SAM2 pour vidéo chirurgicale anatomie
- GitHub : jinlab-imvr/Surgical-SAM-2
- Vidéo + segmentation temporelle cohérente
Recognize Any Surgical Object — ICLR 2025
- Généralisation multi-objets chirurgicaux (instruments + anatomie + tumeurs)
- Proceedings ICLR 2025
5.2 Modèles spécialisés chirurgie
EndoViT (2024)
- ViT pré-entraîné sur Endo700k (>700k images endoscopiques, 9 datasets MIS)
- Surpasse ImageNet pretraining sur tâches complexes
- Reconnaissance triplets actions (instrument + verbe + cible)
- PubMed 38570373
Federated EndoViT (2025)
- Version fédérée multi-centres pour preserving-privacy
- Pré-entraînement distribué sans partage de données patients
- arXiv:2504.16612
Scaling self-supervised surgical foundation models (2025)
- Amélioration méthodique des modèles fondation chirurgicaux
- ScienceDirect doi:10.1016/j.media.2025.103564
5.3 LLM pour aide à la décision per-opératoire
SurgeryLLM (Nature npj Digital Medicine, 2024)
- Framework RAG (Retrieval Augmented Generation) + guidelines chirurgicales
- Intègre données patient-spécifiques + guidelines basées preuves
- PMC11655968, doi:10.1038/s41746-024-01391-3
PEACH — Chatbot périopératoire (Singapour, 2024)
- Approuvé par Singapore Health Sciences Authority (Classe A CDSS)
- Déployé en routine en clinique préopératoire dès décembre 2024
- Modèle : LLM + workflow périopératoire
Surgical Action Planning — SAP (MICCAI 2025)
- Génération de plans d'action chirurgicaux depuis entrées visuelles
- Cholécystectomie : système LLM + vision per-op
- Springer doi:10.1007/978-3-032-05114-1_54
ChatGPT-4 vs Gemini en chirurgie plastique (2024)
- Comparaison LLMs pour support décision per-op en reconstruction
- MDPI Medicina 2024, doi:10.3390/medicina60060957
Deep learning real-time image-guided surgery — revue systématique (2025)
- Revue complète : applications, méthodologies, pertinence clinique
- OAE Publishing AIS.2025.92
SECTION 6 — CARTOGRAPHIE DES ACTEURS IA CHIRURGIE
6.1 Plateformes IA chirurgicales (B2B, systèmes)
Caresyntax ⭐⭐⭐ (Priorité Haute)
- Financement : $180M Serie C (2024) — Symbiotic Capital, MTIP AG, Pictet
- Modèle : plateforme vendor-neutral d'intelligence chirurgicale
- Présence : >4 000 blocs opératoires dans le monde
- Croissance : +75% revenue H1 2024, +50% revenue organique annuel 2024
- Technologie : capture multi-modale per-op, analytics, IA workflow
- Synergie LumiSurg : intégration signal NIR-II dans leur plateforme d'analytics
- URL : caresyntax.com
Proprio ⭐⭐⭐ (Partenariat potentiel)
- 4 clearances FDA (dont "Picasso" jan 2026) — 1ère plateforme guidage chirurgical IA FDA-cleared
- Technologie : Paradigm = array Prism (light-field + depth + IR) → modèle 3D anatomie temps réel
- Résultats cliniques : ×10 réduction imagerie radiologique per-op (50 premières chirurgies)
- Prix : TIME Best Invention 2025, Fast Company Most Innovative 2024
- Dataset : révélation dataset massif de chirurgie (2024)
- Synergie LumiSurg : leur capteur multi-modal pourrait intégrer canal NIR-II
- URL : propriovision.com
Activ Surgical ⭐⭐ (Veille active)
- Produit : ActivSight™ Intelligent Light — illumination multi-spectrale per-op
- FDA : 510(k) cleared
- Technologie : colorectal AI mode (perfusion ciblée), mesures physiologiques per-op
- Impact : 17.5% des cas colorectaux modifient décision per-op avec ActivSight
- Infrastructure : NVIDIA Clara Holoscan (IGX) pour IA en temps réel
- URL : activsurgical.com
Pixee Medical ⭐⭐ (Veille)
- Financement : $18.6M levés (France)
- Technologie : IA per-op pour guidage chirurgical orthopédique
- Partenaire : PitchBook profile confirmé
- Synergie : IA per-op + instruments guidés
Moon Surgical ⭐⭐
- Produit : Maestro — système robotique + IA laparoscopique
- FDA cleared : chirurgie mini-invasive
- Co-manipulation : IA + chirurgien (pas de robotique autonome)
Tribvn Healthcare ⭐⭐
- Spécialité : IA anatomopathologie + imagerie numérique
- Technologie : WSI (Whole Slide Imaging) + classification IA
- Synergie LumiSurg : intégration results IA patho + fluorescence per-op
6.2 Acteurs imagerie multimodale per-opératoire (spécialisés)
Hypervision Surgical ⭐⭐⭐ (TOP PRIORITÉ)
- Financement : £17M Série A (KCL spinout)
- Technologie : HSI (hyperspectral imaging) per-op + IA
- Clearances : UKCA + FDA
- Évaluations : multi-centres NHS UK en cours
- Partenaire : imec Belgium pour miniaturisation capteurs
- Synergie LumiSurg : intégration HSI + canal NIR-II → fusion multimodale complète
Surgical Theater (Medtronic 2023) ⭐⭐
- Acquisition : par Medtronic en 2023
- Technologie : planification chirurgicale IA + navigation per-op
- Intégration : StealthStation + IA segmentation anatomie
- Présence : >1 000 centres neurochirurgie mondiaux
Fluoptics (Grenoble, France) ⭐⭐
- Produit : FLUOBEAM® système NIR chirurgical
- Partenaire : Getinge pour distribution
- Niche : parathyroïde, glandes parathyroïdes, lymphatique
- Position : NIR-I uniquement — espace libre pour LumiSurg en NIR-II
6.3 Big MedTech — divisions IA chirurgicale
Stryker ⭐⭐⭐
- Part de marché : ~39% FGS, leader SPY-PHI/1688 AIM
- IA roadmap : SPY-QP (quantification automatique perfusion ICG), Mako AI (orthopédie)
- SPY-QP : clearance FDA, déploiement en cours chirurgie plastique + colorectale
- TaaS bundle : implants 3D + navigation AR + formation, modèle abonnement
- Synergie : licence technologie IA NIR-II à Stryker = scénario exit rapide
Medtronic ⭐⭐⭐
- StealthStation : >1 000 centres neuro, intégration US + IA segmentation anatomie
- EleVision NIR : système NIR per-op laparoscopique
- Acquisition Surgical Theater (2023) : planification IA → navigation per-op
- Synergie : intégration module NIR-II + IA dans EleVision → partenariat OEM
Intuitive Surgical ⭐⭐⭐
- Firefly : adoption >60% nouveaux da Vinci 5/Xi en 2025
- IA roadmap : algorithmes d'analyse per-op en développement sur plateforme Ion/da Vinci 5
- Dataset : accès to large-scale surgical video dataset (propriétaire)
- Synergie : NIR-II compatible Firefly = marché captif robotique
Karl Storz ⭐⭐
- IMAGE1 S Rubina : multi-agents NIR (ICG + MB + IRDye)
- Partenaire ICG : seul système supportant agents multiples
- Stratégie IA : en développement, partenariats actifs
SECTION 7 — DATASETS OPEN SOURCE & BENCHMARKS
7.1 Datasets chirurgicaux disponibles
| Dataset | Modalité | Taille | Spécialité | Accès |
|---|---|---|---|---|
| HeiPorSPECTRAL | HSI (porcin) | >100 images multi-organes | Général chirurgie | Public |
| Endo700k | Endoscopie visible | >700 000 images | MIS (9 datasets) | Public HuggingFace |
| EndoVis2018 | Endoscopie robotic | Séquences vidéo | Instruments | Public (challenge) |
| EndoVis2017 | Endoscopie robotic | Séquences vidéo | Instruments | Public (challenge) |
| CholecSeg8k | Laparoscopie | 8 000 images | Cholécystectomie | Public |
| SurgT | Multi-tâche chirurgicale | Vidéo + annotations | Robotique | Public |
| Stanford AIMI | Multi-modal médical | Annotations expertées | Oncologie | Semi-public |
| MICCAI challenges | Divers | Annuels | Tous types | Public compétition |
7.2 Datasets fluorescence spécifiques (rares)
Gap identifié : Aucun dataset public de grande envergure n'existe pour la fluorescence NIR intraopératoire annotée (images + ground truth segmentation tumorale confirmée histologiquement).
Approches actuelles :
- Données synthétiques in silico (cf. PMC11408754)
- Transfer learning depuis données histopathologiques
- Datasets propriétaires industriels (Stryker, Intuitive, Medtronic)
Recommandation LumiSurg : Constitution d'un dataset propriétaire fluorescence NIR-II annoté = actif stratégique majeur (barrière à l'entrée, valeur de licensing, levier partenariat académique).
SECTION 8 — BREVETS IA GUIDAGE CHIRURGICAL
8.1 Tendances brevets IA médical 2022–2025
Analyse systématique internationale (PMC 2024)
- Croissance exponentielle brevets IA santé 2020–2024
- USA + Chine = 70%+ dépôts mondiaux
- Domaines actifs : segmentation d'images, navigation chirurgicale, IA peropératoire
- PMC11041483
Pathologie digitale + IA (MDPI Cancers 2022)
- Brevets actifs en classification IA d'images histologiques
- Voies de protection identiques applicables à imagerie fluorescence
8.2 Espaces de brevetabilité pour LumiSurg
| Domaine | Type de brevet | Freedom-to-Operate | Priorité |
|---|---|---|---|
| Algorithme classification fluorescence NIR-II + IA | Logiciel/méthode | FTO favorable (NIR-II = nouveau) | P0 |
| Fusion NIR-II + HSI temps réel | Composition/dispositif | FTO favorable | P0 |
| Recalage déformable CT → NIR-II per-op | Méthode | Vérifier MambaMorph/LIBR+ brevets | P1 |
| Digital twin + signal fluorescence live | Dispositif/système | Espace vierge | P0 |
| LLM décision per-op guidé par fluorescence | Méthode | Espace émergent | P1 |
Recommandation : Dépôt PCT combinant dispositif NIR-II + algorithme IA dans les 12 prochains mois.
SECTION 9 — POSITIONNEMENT LUMISURG DANS L'ÉCOSYSTÈME IA
9.1 Matrice concurrentielle IA × Fluorescence
NIR-I NIR-II
┌──────────────┬──────────────┐
High IA │ Stryker SPY │ LumiSurg │
integration │ Activ Surgical │ CIBLE │
│ Caresyntax │ (gap) │
├──────────────────┼──────────────┤
Low IA │ Karl Storz │ Aucun acteur│
integration │ Olympus │ établi │
│ Medtronic EleV │ │
└──────────────────┴──────────────┘
LumiSurg peut occuper le quadrant NIR-II + High IA — espace blanc avec aucun concurrent établi.
9.2 Recommandations stratégiques prioritaires
P0 — Actions immédiates (0–6 mois)
Partenariat Hypervision Surgical : Intégrer canal HSI dans pipeline NIR-II LumiSurg → offre unique NIR-II + HSI fusionnés par IA. Hypervision cherche acteurs complémentaires (pas de fluorescence dans leur offre).
Collaboration académique dataset NIR-II : Partenariat CHU/université pour constitution dataset fluorescence NIR-II annoté. Cible : IHU Strasbourg, CHU Bordeaux, Heidelberg NCT. Dataset = actif IP et levier régulateur.
Adoption SurgicalSAM/SAM2 pour segmentation tumeur : Intégrer backbone open source + fine-tuning sur données NIR-II propriétaires. Gain de temps développement : 12–18 mois.
Brevet PCT méthode fusion NIR-II + IA : Déposer avant publication académique associée.
P1 — Actions 6–18 mois
Intégration Caresyntax : Leur plateforme (>4 000 ORs) manque d'un module fluorescence NIR-II. Proposition de module "LumiSurg IA" intégré dans leur workflow = accès marché massif.
Module recalage déformable : Implémenter LIBR+ ou MambaMorph pour recalage CT pré-op → NIR-II per-op. Validation clinique sur foie/colorectal prioritairement.
Digital Twin + NIR-II : Prototype de digital twin patient intégrant signal fluorescence en temps réel. Cible : présentation IHU/SFR (Société Française de Radiologie) 2026.
SurgeryLLM adapté oncologie FGS : LLM RAG avec guidelines FGS pour aide décision per-op. Interface chirurgien vocale/textuelle.
P2 — Horizon 18–36 mois
OCT + NIR-II fusion : Intégrer canal OCT pour couverture complète marges (sub-mm + plusieurs mm). Cible spécialités : sein, cerveau, ORL.
Partenariat Proprio : Leur array Prism multi-modal (light-field + depth + IR) + canal NIR-II LumiSurg = première plateforme de guidage chirurgical 5D (3D spatial + NIR-II + IA).
Exit/partenariat Big MedTech : Approche Stryker pour licence SPY-PHI+ NIR-II. Médtronic pour intégration EleVision NIR-II. Intuitive Surgical pour Firefly NIR-II.
9.3 Analyse risques / opportunités IA
| Risque | Probabilité | Impact | Mitigation |
|---|---|---|---|
| Caresyntax développe module NIR en interne | Moyenne | Fort | Partenariat avant 2026 |
| Stryker acquiert Hypervision | Haute | Fort | Partenariat HSI avant acquisition |
| Dataset public NIR-II créé par consortium | Basse | Moyen | Propriété IP sur algorithmes |
| Réglementation IA (EU AI Act) bloque déploiement | Moyenne | Fort | Classe IIa → IA en support décision (non autonome) |
| Proprio/Activ intègrent NIR-II | Basse (12 mois) | Fort | Brevets + déploiement clinique rapide |
SECTION 10 — PUBLICATIONS DE RÉFÉRENCE CLÉS
Top 10 publications à lire en priorité
npj Precision Oncology 2024 — "Illuminating the future of precision cancer surgery with fluorescence imaging and AI convergence" — doi:10.1038/s41698-024-00699-3 (revue de référence FGS+IA)
Nature npj Precision Oncology 2023 — HSI benchmark pour détection tumorale per-op cerveau — doi:10.1038/s41698-023-00475-9
AIS 2023 — "Bon mariage" IA + fluorescence per-op — doi:10.20517/ais.2023.25
Frontiers Oncology 2025 — IA + fusion d'images pour oncologie temps réel — doi:10.3389/fonc.2025.1468753
Nature npj Digital Medicine 2024 — SurgeryLLM, framework RAG chirurgical — doi:10.1038/s41746-024-01391-3
MICCAI 2024 — LIBR+, recalage élastique foie intraopératoire — doi:10.1007/978-3-031-72089-5_34
AAAI 2024 — SurgicalSAM, SAM adapté per-op — GitHub wenxi-yue/SurgicalSAM
Nature Scientific Reports 2024 — Sentry System, Raman per-op cerveau multicentrique — doi:10.1038/s41598-024-62543-9
Journal of Neurosurgery 2024 — OCT microscope-intégré + IA in vivo cerveau — doi:10.3171/2024.2.JNS231613
npj Imaging 2026 — Advanced imaging techniques for tumor intraoperative navigation — doi:10.1038/s44303-026-00150-1
ANNEXE A — SOURCES ET LIENS
Publications académiques (2023–2026)
- npj Precision Oncology 2024 — FGS+AI convergence
- npj Precision Oncology 2023 — HSI benchmark brain tumor
- Frontiers Oncology 2025 — AI image fusion real-time
- AIS 2023 — Bon mariage IA + fluorescence
- AIS 2025 — Deep learning real-time image-guided surgery review
- MDPI Electronics 2025 — PPMF-Net PET-MRI fusion
- MICCAI 2024 — LIBR+ liver registration
- arXiv 2024 — MambaMorph MR-CT registration
- PMC 2023 — Deformable MR-CT dual-channel neurosurgery
- Springer 2025 — BridgeSplat deformable surgical navigation
- AAAI 2024 — SurgicalSAM
- Scientific Reports 2025 — SurgiSAM2
- PubMed — EndoViT
- arXiv 2025 — Federated EndoViT
- npj Digital Medicine 2024 — SurgeryLLM
- Springer MICCAI 2025 — Surgical Action Planning LLM
- PMC 2024 — CONFIDENT-B sentinel node AI
- AACR 2024 — MFI-FFP fluorescence multimodal sentinel node
- MDPI Life 2023 — WF-OCT + CNN breast margins
- Journal Neurosurgery 2024 — OCT microscope integrated brain
- Nature Scientific Reports 2024 — Raman multicentrique cerveau
- Frontiers Mol Biosciences 2025 — AI Raman cancer review
- Cell iScience 2024 — HSI correction unmixing deep learning
- PMC 2024 — RGB to hyperspectral reconstruction
- PMC 2025 — Digital twins surgery
- PMC 2025 — Mixed reality intraoperative humans review
- PMC 2024 — NIR perfusion AI interpretable design
- PMC 2024 — ICG perfusion quantification colorectal AI
- npj Imaging 2026 — Advanced imaging tumor intraoperative navigation
- PMC 2025 — LLM perioperative medicine RCT
Acteurs industriels
- Caresyntax — Precision Surgery Platform
- Proprio — AI Surgical Guidance Platform
- Activ Surgical — ActivSight Intelligent Light
- Hypervision Surgical — HSI per-op
- imec — Surgical HSI chips
Datasets open source
- GitHub — Medical Imaging Datasets
- Stanford AIMI Shared Datasets
- SurgicalSAM GitHub
- Surgical-SAM-2 GitHub
ANNEXE B — GLOSSAIRE
| Terme | Définition |
|---|---|
| FGS | Fluorescence-Guided Surgery |
| NIR-I | Near-Infrared Première Fenêtre (700–900nm) |
| NIR-II | Near-Infrared Deuxième Fenêtre (1000–1700nm) |
| HSI | Hyperspectral Imaging |
| OCT | Optical Coherence Tomography |
| SERS | Surface-Enhanced Raman Scattering |
| MambaMorph | Recalage déformable IRM-CT par State Space Model |
| LIBR+ | Liver Registration (biomécanique + résidu DL) |
| SurgicalSAM | SAM adapté instruments per-opératoires |
| EndoViT | ViT pré-entraîné sur 700k images endoscopiques |
| RAG | Retrieval Augmented Generation (LLM + base de connaissances) |
| FTO | Freedom To Operate (analyse brevets) |
| PCT | Patent Cooperation Treaty (brevet international) |
| Digital Twin | Jumeau numérique patient |
| Gaussian Splatting | Technique 3D reconstruction temps réel |
Rapport produit par LumiSurg Intelligence — Mai 2026 CONFIDENTIEL — Diffusion restreinte