CONFIDENTIEL — Document propriétaire LumiSurg. Usage interne uniquement. Ne pas diffuser.
🤖 IA

IA & fusion multimodale — Guidage tumoral chirurgical

📅 2 mai 2026📖 21 min de lecture📝 ~4 262 mots

Rapport stratégique mondial sur l'IA appliquée à la fusion multimodale pour guidage tumoral. Architectures Transformer, SurgicalSAM, foundation models, acteurs (Caresyntax, Proprio, Hypervision) et espace blanc NIR-II + High IA.


Intelligence Artificielle & Fusion Multimodale pour Détection & Guidage Tumoral

Rapport de Recherche Stratégique — LumiSurg CONFIDENTIEL

Date : 2 mai 2026 | Horizon couvert : 2020–2026


RÉSUMÉ EXÉCUTIF

L'IA chirurgicale per-opératoire est en phase de déploiement clinique rapide, portée par :

  • Des modèles de fondation adaptés à la chirurgie (SurgicalSAM, EndoViT, SurgiSAM2)
  • Des plateformes multimodales FDA-cleared (Proprio, Caresyntax, Activ Surgical)
  • Une convergence inédite NIR + spectroscopie + deep learning
  • Des financements massifs ($180M Caresyntax, £17M Hypervision, $180M Proprio)

Position LumiSurg : La combinaison NIR-II + fusion IA multimodale représente un espace blanc stratégique où les acteurs actuels restent sur NIR-I. LumiSurg a 18–24 mois d'avance potentielle si elle intègre l'IA dans son pipeline dès maintenant.


SECTION 1 — FUSION D'IMAGES MULTIMODALE PAR IA

1.1 Architectures deep learning pour fusion PET/IRM + fluorescence

État de l'art 2024–2025

PPMF-Net (PET-MRI Progressive Parallel Fusion)

  • Architecture : 3 modules (NIFE, TEGM, DEEM)
  • NIFE = extraction features non-linéaires interactives
  • TEGM = modélisation globale par Transformer
  • DEEM = renforcement contours haute fréquence dans zones diagnostiques
  • Référence : Electronics 2025, MDPI 2025

Deep Learning-Enhanced PET-MRI Fusion (2025)

  • Fusion automatisée pour détection et classification de tumeurs cérébrales
  • Modèles génératifs (GANs) pour synthèse d'images PET à partir d'IRM seules
  • ResearchGate 2025 (pré-print avancé)

IA Frontiers Oncology Review (2025)

  • Revue complète : fusion d'images + IA en temps réel pour oncologie
  • Couvre CT, IRM, TEP, fluorescence, spectroscopie en combinaison
  • Frontiers in Oncology, doi:10.3389/fonc.2025.1468753

Approche multimodale gliome (2025)

  • Modèles légers : inférence en 5 secondes en per-opératoire
  • Validation multi-centrique chinoise et internationale
  • Résolution du biais inter-centres (key challenge)

Opportunité LumiSurg

Développer une pipeline de fusion PET/CT pré-op → fluorescence NIR-II per-op avec recalage élastique en temps réel. Aucun acteur actuel ne couvre l'ensemble de ce workflow pour NIR-II.


1.2 CT pré-op + fluorescence temps réel (registration)

Recalage déformable per-opératoire — deep learning

LIBR+ (Intraoperative Liver Registration) — MICCAI 2024

  • Méthode hybride biomécanique + résidu deep learning
  • Réseau dual-branch SR-GCN (Spline-Residual Graph Convolutional Network)
  • Assimile mesures per-opératoires éparses et les propage sur toute la géométrie 3D
  • Publication : Springer MICCAI 2024, doi:10.1007/978-3-031-72089-5_34

MambaMorph (2024) — recalage MR-CT déformable

  • Framework Mamba (SSM = State Space Model) + apprentissage contrastif
  • Features extractor supervisé par contrastive learning
  • Avantage sur VoxelMorph : meilleures performances long-range
  • arXiv:2401.13934

BridgeSplat (2025) — Gaussian Splatting chirurgical

  • Couple reconstruction 3D per-opératoire (Gaussian Splatting) + CT pré-op
  • Comble le gap entre vidéo chirurgicale et données volumétriques patient
  • Publication MICCAI 2025

Recalage MR-CT non supervisé (dual-channel) — 2023

  • Réseau dual-channel non supervisé pour neurochirurgie
  • Temps d'inférence compatible per-op
  • PMC10229200

Key takeaway registraion

Les approches 2024–2025 permettent un recalage CT→fluoresence sub-10 secondes avec gestion des déformations per-opératoires. LumiSurg devrait intégrer MambaMorph ou LIBR+ comme backbone de recalage.


SECTION 2 — IA POUR DÉTECTION DE TUMEURS EN PER-OPÉRATOIRE

2.1 Analyse temps réel des flux vidéo NIR

"Bon mariage" IA + fluorescence — AIS 2023

  • Revue fondatrice : convergence IA + imagerie fluorescente pour chirurgie plus sûre
  • DOI : 10.20517/ais.2023.25
  • Couvre : segmentation tumeur, guidage marges, ganglions sentinelles

Intraoperative Fluorescence Robotic Surgery — Annals of Surgery 2023

  • Validation clinique : robotic da Vinci + fluorescence NIR temps réel
  • Applications : résection colorectale, lymphadénectomie, perfusion anastomotique

Perfusion ICG + IA (colorectal 2024–2025)

  • Modèle DL replicant le jugement expert en temps réel pour sélection niveau transection
  • Généralisabilité inter-chirurgiens démontrée
  • PMC11634173 (Scientific Reports 2026)
  • AUC-ROC >0.967 pour classification tissu rectal (cancer vs sain)
  • KNN sur courbes ICG time-series

NIR-II + IA osteosarcome (2024)

  • Précision 100% avec B7H3-IRDye800CW
  • Confirme supériorité NIR-II pour visualisation tumorale précise
  • Multispectral SWIR + machine learning classification pixels

2.2 Segmentation automatique tumeurs et marges

Transfer Learning + CNN — Journal of Fluorescence Surgery 2024

  • Segmentation de tumeurs sur images fluorescentes per-op
  • CNN pré-entraîné + transfer learning sur données fluorescence
  • Publication : Journals Sagepub 2024, doi:10.1177/15533506241246576

Fluorescence + deep learning — oral cancer (PMC, 2024)

  • Quantification profondeur de tumeur par IA sur images fluorescence
  • Entraînement in silico (dataset synthétique) → validation clinique
  • PMC11408754

Segmentation sémantique per-op robotique (prostatectomie) — 2024

  • Deep learning pour segmentation temps réel en prostatectomie robot-assistée
  • PMC10998267

npj Precision Oncology 2024 — convergence FGS + IA

  • Revue complète algorithmes IA pour chirurgie oncologique guidée par fluorescence
  • Nature doi:10.1038/s41698-024-00699-3

2.3 Détection ganglions sentinelles par IA

Modèle MFI-FFP (Multi-modal Fluorescence Imaging Feature Fusion Prediction)

  • Fusion imagerie fluorescente multimodale NIR per-op
  • AUC 0.7512 / ACC 0.8617 pour prédiction métastases axillaires
  • AACR Clinical Cancer Research 2024 (Supplement P2-02-20)

CONFIDENT-B — Essai clinique (PMC 2024)

  • IA assistée pour détection métastases dans ganglions sentinelles (sein)
  • App Metastasis Detection (Visiopharm) sur coupes histologiques numérisées
  • PMC11358151

ChatGPT-4 pour coupes extemporanées (2025)

  • Précision 92.2% / sensibilité 100% / spécificité 80.6% sur 90 GS
  • Applicabilité diagnostic per-opératoire en temps réel
  • PMC12743367

GAINS System (goggle + fluorescence + IA)

  • Navigation augmentée par lunettes + NIR + IA
  • 100% sensibilité détection GS (évaluation pilote sein + mélanome)
  • Réseau de neurones + dye NIR

2.4 Modèles pré-entraînés disponibles

Modèle Type Disponibilité Performance
SurgicalSAM Segmentation per-op (instruments) Open source GitHub State-of-art EndoVis2018
SurgiSAM2 Segmentation vidéo chirurgicale Open source GitHub MICCAI/NeurIPS 2024
EndoViT Vision Transformer endoscopie Open source (HuggingFace) Surpasse ImageNet pretraining
Federated EndoViT Version fédérée multi-centres arXiv 2025 Privacy-preserving
SAM2 Foundation segmentation Meta AI Open Adaptable chirurgie

SECTION 3 — IA + SPECTROSCOPIE

3.1 Raman guidé par IA

Sentry System — Raman + ML cerveau (2024)

  • Système temps réel de détection tumorale in situ par Raman + classifieurs ML
  • Étude multicentrique (Nature Scientific Reports 2024)
  • doi:10.1038/s41598-024-62543-9

DeepeR — deep learning Raman (PMC 2022, référence fondatrice)

  • Framework DL entraîné sur >1,5M spectres hyperspectral Raman
  • Accélération imagerie Raman : ×40 à ×90
  • PMC9286315

Frontiers Raman + IA cancer (2025)

  • Revue exhaustive applications IA-Raman en oncologie
  • SERS (Surface Enhanced) pour détection early-stage
  • doi:10.3389/fmolb.2025.1690063

ACS Omega — Raman + cerveau (2023)

  • Fingerprint moléculaire par Raman pour gliomes, méningiomes, métastases
  • doi:10.1021/acsomega.3c01848

Axes de brevetabilité Raman-IA pour LumiSurg

  • Algorithme de classification Raman spécialisé NIR-II (2100–2260 cm⁻¹ alkyne window)
  • Pipeline Raman guidé par fluorescence (pre-scan NIR → spot Raman ciblé)

3.2 Hyperspectral Imaging + deep learning

Hypervision Surgical (spinout KCL) — Série A £17M (2024/2025)

  • Première caméra HSI chirurgicale UKCA + FDA-cleared
  • Partenariat imec (Belgique) pour capteurs on-chip spectraux
  • Évaluations multi-centres UK en cours
  • Site : hypervisionsurgical.com

HeiPorSPECTRAL Dataset

  • Dataset public de chirurgie porcine HSI
  • Standard de facto pour benchmark IA HSI chirurgicale
  • Utilisé pour deep learning segmentation organes et tumeurs

npj Precision Oncology — benchmark HSI cerveau (2023)

  • 61 images hyperspectral, 34 patients, in vivo
  • Meilleur F1 macro médian : 70.2 ± 7.9%
  • doi:10.1038/s41698-023-00475-9

iScience — correction HSI + unmixing (2024)

  • Framework deep learning pour correction et démélange spectral per-op cérébral
  • Cell Press iScience doi:10.1016/j.isci.2024.111497

RGB → Hyperspectral reconstruction (PMC 2024)

  • Reconstruction hyperspectrale depuis image RGB standard + IA
  • Démocratise l'accès HSI sans caméra dédiée
  • PMC11665794

Tableau acteurs HSI chirurgicaux

Acteur Technologie Stade Commentaire
Hypervision Surgical HSI + IA (KCL spinout) FDA cleared, essais cliniques Prioritaire pour LumiSurg
imec Belgium Capteurs HSI on-chip Partenaire industriel Miniaturisation chirurgicale
digipath (Allemagne) HSI + DL pathologie Recherche Synergies possibles
DIRAC (Heidelberg) TIVITA HSI système Commercialisé (recherche) Référence dataset
ScienceDirect 2023 HSI + ML marges Validation clinique Revue de référence

3.3 OCT (Optical Coherence Tomography) + IA

OCT-IA sein — margins assessment (2023)

  • WF-OCT + CNN binaire : 585 scans d'entraînement, 155 validation
  • AUROC 0.976 / sensibilité 0.93 / spécificité 0.98
  • MDPI Life 2023, doi:10.3390/life13122340

Microscope-integrated OCT — cerveau in vivo (2024)

  • OCT intégré microscope opératoire pour détection résiduelle tumeur
  • SVM : 85% précision ; réseau neuronal : 82% ; autoencoder : 85%
  • Journal of Neurosurgery 2024, doi:10.3171/2024.2.JNS231613

OCT + DL — métastases hépatiques colorectales (2023)

  • CNN pré-entraîné (Xception) : distinction foie sain vs métastase ex vivo
  • Springer JCRCO 2023

OCT per-opératoire — sarcomes tissu mou

  • Études pilotes Ohio State University 2024
  • Marges négatives confirmées post-OCT per-op

Positionnement OCT pour LumiSurg

L'OCT est complémentaire à la fluorescence NIR-II : profondeur sub-millimétrique (1–2mm) vs NIR-II (~5–10mm). Fusion OCT + NIR-II = couverture complète des marges tumorales.


SECTION 4 — JUMEAUX NUMÉRIQUES DU PATIENT

4.1 Reconstruction 3D pré-op et digital twin

Digital Twins en chirurgie — PMC 2025

  • Revue complète : construction à partir IRM/CT + modélisation physique
  • K-means clustering pour segmentation tumeur 3D sur modèle cérébral
  • CardioVision : DL sur CT → reconstruction 3D aorte automatisée
  • PMC12081715, PMC12578008, PMC12370374

Journal Applied Clinical Medical Physics (2025)

  • Intégration multi-modalités (CT, IRM, TEP, échographie) dans le twin numérique
  • Simulation prédictive, modélisation temps-réel
  • Wiley 2025, doi:10.1002/acm2.70226

Résultats chirurgie robotique prostate (2024)

  • Modèles 3D patient-spécifiques issus IRM → taux marges positives 8.1% vs 22.2%
  • Validation clinique prospective

4.2 Calage AR per-opératoire avec HoloLens

Mixed Reality en chirurgie — revue majeure (PMC 2025)

  • Revue de toutes utilisations per-opératoires AR/MR chez l'humain, multi-disciplines
  • PMC12746634

AR robotic partial nephrectomy

  • Recalage automatique modèle 3D CT + images endoscopiques intraoperatoires
  • Réduction ajustements manuels
  • IJCARS 2019–2024 (série de validation)

SurgAR / CHU Bordeaux Digital URO 3D

  • Référence française : calage AR + modèles 3D urologie
  • (Documenté dans rapport HoloLens LumiSurg précédent)

4.3 Intégration signal fluorescent dans digital twin

Etat de l'art et gap identifié

  • Aucun système publié à ce jour ne fusionne signal fluorescence NIR per-op avec digital twin en temps réel
  • Approches existantes : séquentielle (pré-op puis per-op), non simultanée
  • Opportunité LumiSurg : premier système à intégrer NIR-II live dans jumeau numérique patient

Architecture possible :

CT/IRM pré-op → reconstruction 3D segmentée (IA)
         ↓
    Digital Twin patient (modèle déformable)
         ↓
Caméra NIR-II per-op → localisation fluorescence temps réel
         ↓
Recalage déformable (BridgeSplat / MambaMorph)
         ↓
Overlay AR HoloLens / écran chirurgien

SECTION 5 — FOUNDATION MODELS POUR IMAGERIE CHIRURGICALE

5.1 SAM (Segment Anything Model) adapté per-op

SurgicalSAM — AAAI 2024

  • Adaptation SAM pour instruments chirurgicaux per-op
  • Encodeur de prompt prototypique (classe-based, sans prompt explicite)
  • Apprentissage contrastif pour discrimination inter-classes
  • GitHub : wenxi-yue/SurgicalSAM
  • Performances state-of-art EndoVis2018 et EndoVis2017

SurgiSAM2 — NeurIPS 2024 Workshop AIM-FM

  • Extension SAM2 pour vidéo chirurgicale anatomie
  • GitHub : jinlab-imvr/Surgical-SAM-2
  • Vidéo + segmentation temporelle cohérente

Recognize Any Surgical Object — ICLR 2025

  • Généralisation multi-objets chirurgicaux (instruments + anatomie + tumeurs)
  • Proceedings ICLR 2025

5.2 Modèles spécialisés chirurgie

EndoViT (2024)

  • ViT pré-entraîné sur Endo700k (>700k images endoscopiques, 9 datasets MIS)
  • Surpasse ImageNet pretraining sur tâches complexes
  • Reconnaissance triplets actions (instrument + verbe + cible)
  • PubMed 38570373

Federated EndoViT (2025)

  • Version fédérée multi-centres pour preserving-privacy
  • Pré-entraînement distribué sans partage de données patients
  • arXiv:2504.16612

Scaling self-supervised surgical foundation models (2025)

  • Amélioration méthodique des modèles fondation chirurgicaux
  • ScienceDirect doi:10.1016/j.media.2025.103564

5.3 LLM pour aide à la décision per-opératoire

SurgeryLLM (Nature npj Digital Medicine, 2024)

  • Framework RAG (Retrieval Augmented Generation) + guidelines chirurgicales
  • Intègre données patient-spécifiques + guidelines basées preuves
  • PMC11655968, doi:10.1038/s41746-024-01391-3

PEACH — Chatbot périopératoire (Singapour, 2024)

  • Approuvé par Singapore Health Sciences Authority (Classe A CDSS)
  • Déployé en routine en clinique préopératoire dès décembre 2024
  • Modèle : LLM + workflow périopératoire

Surgical Action Planning — SAP (MICCAI 2025)

  • Génération de plans d'action chirurgicaux depuis entrées visuelles
  • Cholécystectomie : système LLM + vision per-op
  • Springer doi:10.1007/978-3-032-05114-1_54

ChatGPT-4 vs Gemini en chirurgie plastique (2024)

  • Comparaison LLMs pour support décision per-op en reconstruction
  • MDPI Medicina 2024, doi:10.3390/medicina60060957

Deep learning real-time image-guided surgery — revue systématique (2025)

  • Revue complète : applications, méthodologies, pertinence clinique
  • OAE Publishing AIS.2025.92

SECTION 6 — CARTOGRAPHIE DES ACTEURS IA CHIRURGIE

6.1 Plateformes IA chirurgicales (B2B, systèmes)

Caresyntax ⭐⭐⭐ (Priorité Haute)

  • Financement : $180M Serie C (2024) — Symbiotic Capital, MTIP AG, Pictet
  • Modèle : plateforme vendor-neutral d'intelligence chirurgicale
  • Présence : >4 000 blocs opératoires dans le monde
  • Croissance : +75% revenue H1 2024, +50% revenue organique annuel 2024
  • Technologie : capture multi-modale per-op, analytics, IA workflow
  • Synergie LumiSurg : intégration signal NIR-II dans leur plateforme d'analytics
  • URL : caresyntax.com

Proprio ⭐⭐⭐ (Partenariat potentiel)

  • 4 clearances FDA (dont "Picasso" jan 2026) — 1ère plateforme guidage chirurgical IA FDA-cleared
  • Technologie : Paradigm = array Prism (light-field + depth + IR) → modèle 3D anatomie temps réel
  • Résultats cliniques : ×10 réduction imagerie radiologique per-op (50 premières chirurgies)
  • Prix : TIME Best Invention 2025, Fast Company Most Innovative 2024
  • Dataset : révélation dataset massif de chirurgie (2024)
  • Synergie LumiSurg : leur capteur multi-modal pourrait intégrer canal NIR-II
  • URL : propriovision.com

Activ Surgical ⭐⭐ (Veille active)

  • Produit : ActivSight™ Intelligent Light — illumination multi-spectrale per-op
  • FDA : 510(k) cleared
  • Technologie : colorectal AI mode (perfusion ciblée), mesures physiologiques per-op
  • Impact : 17.5% des cas colorectaux modifient décision per-op avec ActivSight
  • Infrastructure : NVIDIA Clara Holoscan (IGX) pour IA en temps réel
  • URL : activsurgical.com

Pixee Medical ⭐⭐ (Veille)

  • Financement : $18.6M levés (France)
  • Technologie : IA per-op pour guidage chirurgical orthopédique
  • Partenaire : PitchBook profile confirmé
  • Synergie : IA per-op + instruments guidés

Moon Surgical ⭐⭐

  • Produit : Maestro — système robotique + IA laparoscopique
  • FDA cleared : chirurgie mini-invasive
  • Co-manipulation : IA + chirurgien (pas de robotique autonome)

Tribvn Healthcare ⭐⭐

  • Spécialité : IA anatomopathologie + imagerie numérique
  • Technologie : WSI (Whole Slide Imaging) + classification IA
  • Synergie LumiSurg : intégration results IA patho + fluorescence per-op

6.2 Acteurs imagerie multimodale per-opératoire (spécialisés)

Hypervision Surgical ⭐⭐⭐ (TOP PRIORITÉ)

  • Financement : £17M Série A (KCL spinout)
  • Technologie : HSI (hyperspectral imaging) per-op + IA
  • Clearances : UKCA + FDA
  • Évaluations : multi-centres NHS UK en cours
  • Partenaire : imec Belgium pour miniaturisation capteurs
  • Synergie LumiSurg : intégration HSI + canal NIR-II → fusion multimodale complète

Surgical Theater (Medtronic 2023) ⭐⭐

  • Acquisition : par Medtronic en 2023
  • Technologie : planification chirurgicale IA + navigation per-op
  • Intégration : StealthStation + IA segmentation anatomie
  • Présence : >1 000 centres neurochirurgie mondiaux

Fluoptics (Grenoble, France) ⭐⭐

  • Produit : FLUOBEAM® système NIR chirurgical
  • Partenaire : Getinge pour distribution
  • Niche : parathyroïde, glandes parathyroïdes, lymphatique
  • Position : NIR-I uniquement — espace libre pour LumiSurg en NIR-II

6.3 Big MedTech — divisions IA chirurgicale

Stryker ⭐⭐⭐

  • Part de marché : ~39% FGS, leader SPY-PHI/1688 AIM
  • IA roadmap : SPY-QP (quantification automatique perfusion ICG), Mako AI (orthopédie)
  • SPY-QP : clearance FDA, déploiement en cours chirurgie plastique + colorectale
  • TaaS bundle : implants 3D + navigation AR + formation, modèle abonnement
  • Synergie : licence technologie IA NIR-II à Stryker = scénario exit rapide

Medtronic ⭐⭐⭐

  • StealthStation : >1 000 centres neuro, intégration US + IA segmentation anatomie
  • EleVision NIR : système NIR per-op laparoscopique
  • Acquisition Surgical Theater (2023) : planification IA → navigation per-op
  • Synergie : intégration module NIR-II + IA dans EleVision → partenariat OEM

Intuitive Surgical ⭐⭐⭐

  • Firefly : adoption >60% nouveaux da Vinci 5/Xi en 2025
  • IA roadmap : algorithmes d'analyse per-op en développement sur plateforme Ion/da Vinci 5
  • Dataset : accès to large-scale surgical video dataset (propriétaire)
  • Synergie : NIR-II compatible Firefly = marché captif robotique

Karl Storz ⭐⭐

  • IMAGE1 S Rubina : multi-agents NIR (ICG + MB + IRDye)
  • Partenaire ICG : seul système supportant agents multiples
  • Stratégie IA : en développement, partenariats actifs

SECTION 7 — DATASETS OPEN SOURCE & BENCHMARKS

7.1 Datasets chirurgicaux disponibles

Dataset Modalité Taille Spécialité Accès
HeiPorSPECTRAL HSI (porcin) >100 images multi-organes Général chirurgie Public
Endo700k Endoscopie visible >700 000 images MIS (9 datasets) Public HuggingFace
EndoVis2018 Endoscopie robotic Séquences vidéo Instruments Public (challenge)
EndoVis2017 Endoscopie robotic Séquences vidéo Instruments Public (challenge)
CholecSeg8k Laparoscopie 8 000 images Cholécystectomie Public
SurgT Multi-tâche chirurgicale Vidéo + annotations Robotique Public
Stanford AIMI Multi-modal médical Annotations expertées Oncologie Semi-public
MICCAI challenges Divers Annuels Tous types Public compétition

7.2 Datasets fluorescence spécifiques (rares)

Gap identifié : Aucun dataset public de grande envergure n'existe pour la fluorescence NIR intraopératoire annotée (images + ground truth segmentation tumorale confirmée histologiquement).

Approches actuelles :

  • Données synthétiques in silico (cf. PMC11408754)
  • Transfer learning depuis données histopathologiques
  • Datasets propriétaires industriels (Stryker, Intuitive, Medtronic)

Recommandation LumiSurg : Constitution d'un dataset propriétaire fluorescence NIR-II annoté = actif stratégique majeur (barrière à l'entrée, valeur de licensing, levier partenariat académique).


SECTION 8 — BREVETS IA GUIDAGE CHIRURGICAL

8.1 Tendances brevets IA médical 2022–2025

Analyse systématique internationale (PMC 2024)

  • Croissance exponentielle brevets IA santé 2020–2024
  • USA + Chine = 70%+ dépôts mondiaux
  • Domaines actifs : segmentation d'images, navigation chirurgicale, IA peropératoire
  • PMC11041483

Pathologie digitale + IA (MDPI Cancers 2022)

  • Brevets actifs en classification IA d'images histologiques
  • Voies de protection identiques applicables à imagerie fluorescence

8.2 Espaces de brevetabilité pour LumiSurg

Domaine Type de brevet Freedom-to-Operate Priorité
Algorithme classification fluorescence NIR-II + IA Logiciel/méthode FTO favorable (NIR-II = nouveau) P0
Fusion NIR-II + HSI temps réel Composition/dispositif FTO favorable P0
Recalage déformable CT → NIR-II per-op Méthode Vérifier MambaMorph/LIBR+ brevets P1
Digital twin + signal fluorescence live Dispositif/système Espace vierge P0
LLM décision per-op guidé par fluorescence Méthode Espace émergent P1

Recommandation : Dépôt PCT combinant dispositif NIR-II + algorithme IA dans les 12 prochains mois.


SECTION 9 — POSITIONNEMENT LUMISURG DANS L'ÉCOSYSTÈME IA

9.1 Matrice concurrentielle IA × Fluorescence

                    NIR-I         NIR-II
                ┌──────────────┬──────────────┐
High IA     │  Stryker SPY    │  LumiSurg    │
integration │  Activ Surgical │  CIBLE       │
            │  Caresyntax     │  (gap)       │
            ├──────────────────┼──────────────┤
Low IA      │  Karl Storz     │  Aucun acteur│
integration │  Olympus        │  établi      │
            │  Medtronic EleV │              │
            └──────────────────┴──────────────┘

LumiSurg peut occuper le quadrant NIR-II + High IA — espace blanc avec aucun concurrent établi.

9.2 Recommandations stratégiques prioritaires

P0 — Actions immédiates (0–6 mois)

  1. Partenariat Hypervision Surgical : Intégrer canal HSI dans pipeline NIR-II LumiSurg → offre unique NIR-II + HSI fusionnés par IA. Hypervision cherche acteurs complémentaires (pas de fluorescence dans leur offre).

  2. Collaboration académique dataset NIR-II : Partenariat CHU/université pour constitution dataset fluorescence NIR-II annoté. Cible : IHU Strasbourg, CHU Bordeaux, Heidelberg NCT. Dataset = actif IP et levier régulateur.

  3. Adoption SurgicalSAM/SAM2 pour segmentation tumeur : Intégrer backbone open source + fine-tuning sur données NIR-II propriétaires. Gain de temps développement : 12–18 mois.

  4. Brevet PCT méthode fusion NIR-II + IA : Déposer avant publication académique associée.

P1 — Actions 6–18 mois

  1. Intégration Caresyntax : Leur plateforme (>4 000 ORs) manque d'un module fluorescence NIR-II. Proposition de module "LumiSurg IA" intégré dans leur workflow = accès marché massif.

  2. Module recalage déformable : Implémenter LIBR+ ou MambaMorph pour recalage CT pré-op → NIR-II per-op. Validation clinique sur foie/colorectal prioritairement.

  3. Digital Twin + NIR-II : Prototype de digital twin patient intégrant signal fluorescence en temps réel. Cible : présentation IHU/SFR (Société Française de Radiologie) 2026.

  4. SurgeryLLM adapté oncologie FGS : LLM RAG avec guidelines FGS pour aide décision per-op. Interface chirurgien vocale/textuelle.

P2 — Horizon 18–36 mois

  1. OCT + NIR-II fusion : Intégrer canal OCT pour couverture complète marges (sub-mm + plusieurs mm). Cible spécialités : sein, cerveau, ORL.

  2. Partenariat Proprio : Leur array Prism multi-modal (light-field + depth + IR) + canal NIR-II LumiSurg = première plateforme de guidage chirurgical 5D (3D spatial + NIR-II + IA).

  3. Exit/partenariat Big MedTech : Approche Stryker pour licence SPY-PHI+ NIR-II. Médtronic pour intégration EleVision NIR-II. Intuitive Surgical pour Firefly NIR-II.

9.3 Analyse risques / opportunités IA

Risque Probabilité Impact Mitigation
Caresyntax développe module NIR en interne Moyenne Fort Partenariat avant 2026
Stryker acquiert Hypervision Haute Fort Partenariat HSI avant acquisition
Dataset public NIR-II créé par consortium Basse Moyen Propriété IP sur algorithmes
Réglementation IA (EU AI Act) bloque déploiement Moyenne Fort Classe IIa → IA en support décision (non autonome)
Proprio/Activ intègrent NIR-II Basse (12 mois) Fort Brevets + déploiement clinique rapide

SECTION 10 — PUBLICATIONS DE RÉFÉRENCE CLÉS

Top 10 publications à lire en priorité

  1. npj Precision Oncology 2024 — "Illuminating the future of precision cancer surgery with fluorescence imaging and AI convergence" — doi:10.1038/s41698-024-00699-3 (revue de référence FGS+IA)

  2. Nature npj Precision Oncology 2023 — HSI benchmark pour détection tumorale per-op cerveau — doi:10.1038/s41698-023-00475-9

  3. AIS 2023 — "Bon mariage" IA + fluorescence per-op — doi:10.20517/ais.2023.25

  4. Frontiers Oncology 2025 — IA + fusion d'images pour oncologie temps réel — doi:10.3389/fonc.2025.1468753

  5. Nature npj Digital Medicine 2024 — SurgeryLLM, framework RAG chirurgical — doi:10.1038/s41746-024-01391-3

  6. MICCAI 2024 — LIBR+, recalage élastique foie intraopératoire — doi:10.1007/978-3-031-72089-5_34

  7. AAAI 2024 — SurgicalSAM, SAM adapté per-op — GitHub wenxi-yue/SurgicalSAM

  8. Nature Scientific Reports 2024 — Sentry System, Raman per-op cerveau multicentrique — doi:10.1038/s41598-024-62543-9

  9. Journal of Neurosurgery 2024 — OCT microscope-intégré + IA in vivo cerveau — doi:10.3171/2024.2.JNS231613

  10. npj Imaging 2026 — Advanced imaging techniques for tumor intraoperative navigation — doi:10.1038/s44303-026-00150-1


ANNEXE A — SOURCES ET LIENS

Publications académiques (2023–2026)

Acteurs industriels

Datasets open source


ANNEXE B — GLOSSAIRE

Terme Définition
FGS Fluorescence-Guided Surgery
NIR-I Near-Infrared Première Fenêtre (700–900nm)
NIR-II Near-Infrared Deuxième Fenêtre (1000–1700nm)
HSI Hyperspectral Imaging
OCT Optical Coherence Tomography
SERS Surface-Enhanced Raman Scattering
MambaMorph Recalage déformable IRM-CT par State Space Model
LIBR+ Liver Registration (biomécanique + résidu DL)
SurgicalSAM SAM adapté instruments per-opératoires
EndoViT ViT pré-entraîné sur 700k images endoscopiques
RAG Retrieval Augmented Generation (LLM + base de connaissances)
FTO Freedom To Operate (analyse brevets)
PCT Patent Cooperation Treaty (brevet international)
Digital Twin Jumeau numérique patient
Gaussian Splatting Technique 3D reconstruction temps réel

Rapport produit par LumiSurg Intelligence — Mai 2026 CONFIDENTIEL — Diffusion restreinte

← Retour à l'Intelligence Documentaire