Un outil d’IA pourrait aider les hôpitaux à repérer plus tôt le risque de violences conjugales
Un outil d’IA pourrait aider les hôpitaux à repérer plus tôt le risque de violences conjugales
En santé, certains des problèmes les plus graves ne sont pas forcément les plus rares. Souvent, ce sont ceux qui se cachent au vu de tous. Les violences conjugales en font partie. Des patientes peuvent se présenter aux urgences, en médecine générale, en orthopédie, en santé mentale ou dans d’autres services avec des fractures, des douleurs chroniques, de l’anxiété, une dépression, des troubles du sommeil ou des symptômes diffus sans que la cause sous-jacente soit identifiée.
Ce n’est pas simplement parce que les soignants manquent d’empathie. C’est aussi parce que les violences apparaissent souvent de manière fragmentée, disséminées sur plusieurs consultations, enfouies dans des plaintes non spécifiques, et difficiles à relier dans un système de soins rapide et cloisonné. Quand elles sont enfin reconnues, de nombreuses occasions d’agir en sécurité ont parfois déjà été perdues.
C’est dans ce contexte qu’une nouvelle génération d’outils d’intelligence artificielle suscite de l’intérêt. L’argument le plus crédible n’est pas qu’ils puissent déterminer seuls si une patiente subit des violences. Il est plutôt qu’ils pourraient aider à repérer plus tôt des profils de risque dans les données cliniques, afin de déclencher un questionnement plus attentif, sensible au traumatisme, et éventuellement une orientation plus sûre.
Les données fournies soutiennent globalement ce cadrage. Ensemble, elles suggèrent que l’apprentissage automatique peut repérer des schémas associés au risque de violences conjugales et, dans certains cas, signaler ce risque plusieurs années avant que certaines patientes ne demandent explicitement de l’aide. Mais ces mêmes données rappellent aussi une chose essentielle : prédire n’est pas protéger. Sans personnel formé, procédures sûres et prise en charge sensible au traumatisme, une alerte algorithmique n’est qu’un signal — et elle peut faire du mal si elle est mal utilisée.
Pourquoi cela compte : les violences conjugales passent encore souvent inaperçues
Si ce type d’outil paraît prometteur, c’est d’abord parce que les soins courants passent encore trop souvent à côté des violences conjugales. Une revue rétrospective en orthopédie incluse dans les références renforce ce constat en montrant que ces situations peuvent rester non reconnues même dans des contextes où les blessures sont fréquentes.
Ce n’est pas surprenant. Les patientes concernées ne révèlent pas toujours spontanément ce qu’elles vivent. Elles peuvent consulter pour des douleurs, des ecchymoses, des troubles du sommeil, une aggravation de leur santé mentale, des blessures répétées, des symptômes digestifs, ou un recours fréquent aux soins qui paraît décousu lorsqu’on regarde chaque consultation séparément. Aucun rendez-vous, pris isolément, ne rend forcément le tableau évident.
C’est précisément là que l’IA trouve sa justification la plus solide : non pas poser un diagnostic à elle seule, mais aider les systèmes de santé à repérer des schémas qu’un clinicien sous pression de temps pourrait ne pas voir.
Ce que les études suggèrent que l’IA peut faire
L’étude la plus directement pertinente parmi les références est une analyse clinique multimodale utilisant l’apprentissage automatique, qui a rapporté une bonne capacité de discrimination pour identifier les patientes à risque de violences conjugales. Elle suggère également que des signaux de risque pourraient être détectés bien avant que certaines patientes ne cherchent activement de l’aide.
C’est important, car cela change la logique du repérage. Au lieu d’attendre une révélation explicite ou une situation de crise, un système de santé pourrait utiliser des données déjà présentes — historique de soins, schémas de consultation, blessures répétées, notes cliniques, variables médicales et comportementales — pour identifier les patientes chez qui un dépistage plus attentif serait justifié.
La littérature plus large soutient aussi l’idée que l’apprentissage automatique peut classer des signaux liés à la violence à partir de textes non structurés. C’est essentiel, car une grande partie des informations importantes en santé ne figure pas dans des cases standardisées, mais dans des notes médicales, des résumés de triage, des descriptions de symptômes ou des récits fragmentés.
Toutes les preuves fournies ne sont toutefois pas aussi proches d’une application hospitalière réelle. L’une des études repose sur du texte issu des réseaux sociaux en Iran, ce qui la rend moins directement pertinente pour le dépistage clinique de patientes en France. Mais elle soutient malgré tout l’idée plus générale selon laquelle l’apprentissage automatique peut repérer des motifs linguistiques liés à la violence et à la détresse.
Au total, ces travaux ne prouvent pas que l’IA va transformer la prise en charge. Ils appuient en revanche une affirmation plus étroite et plus crédible : l’IA pourrait être une aide utile pour identifier plus tôt un risque de violences conjugales dans les soins.
La vraie promesse : moins d’occasions manquées
Dans une histoire comme celle-ci, la question la plus utile n’est probablement pas « L’IA peut-elle diagnostiquer les violences ? », mais plutôt « L’IA peut-elle aider les systèmes de santé à rater moins d’occasions de repérer le risque ? »
C’est une prétention plus modeste, mais aussi beaucoup plus défendable.
Les violences conjugales sont souvent reconnues tardivement, après des contacts répétés avec le système de soins. Si un modèle peut repérer un schéma suggérant un risque élevé, il peut offrir une seconde chance à un professionnel de poser la bonne question, au bon moment, de la bonne manière.
Dans le meilleur des cas, cela signifie :
- poser des questions en privé et en sécurité ;
- utiliser un langage non jugeant et sensible au traumatisme ;
- éviter toute confrontation qui pourrait accroître le danger ;
- proposer des ressources et une orientation adaptée ;
- et respecter le rythme, l’autonomie et la sécurité immédiate de la patiente.
C’est là que la technologie peut avoir une vraie utilité : non pas remplacer le soin, mais favoriser un meilleur soin.
Ce que l’IA ne doit pas faire
Les données fournies ne soutiennent pas l’idée que l’IA puisse diagnostiquer à elle seule des violences conjugales. L’argument le plus solide est qu’elle peut signaler un risque et renforcer la vigilance clinique.
Cette distinction est capitale. Les violences conjugales ne sont pas un résultat biologique. C’est une réalité humaine, relationnelle et souvent dangereuse, façonnée par la contrainte, la dépendance, la peur, le traumatisme et des enjeux de sécurité. Tout outil qui chercherait à la réduire à une étiquette binaire risquerait d’écraser une situation qui demande du contexte et du jugement clinique.
Et l’IA peut se tromper dans les deux sens :
- en ne signalant pas une personne réellement en danger ;
- ou en signalant à tort une personne qui ne vit pas cette situation.
Ces deux erreurs ont des conséquences. Un faux négatif, c’est une occasion de plus manquée. Un faux positif peut entraîner malaise, stigmatisation, documentation sensible mal gérée et, dans un mauvais contexte, même un risque accru pour la patiente si l’information apparaît là où elle ne devrait pas.
Les enjeux éthiques ne sont pas secondaires
L’enthousiasme autour de l’IA en santé progresse vite, mais ici les questions éthiques ne sont pas périphériques : elles sont au cœur du sujet.
Parmi les plus importantes :
- la confidentialité, car les données liées à la violence et à la vulnérabilité sont extrêmement sensibles ;
- le biais algorithmique, si le modèle fonctionne mieux dans certains groupes que dans d’autres ;
- les faux positifs et faux négatifs, avec des conséquences personnelles potentiellement graves ;
- les risques liés à la documentation, si un signalement apparaît dans un contexte non sécurisé ;
- et plus largement le danger que des patientes vulnérables soient traitées comme des “cas suspects” plutôt que comme des personnes à soutenir.
Ces préoccupations ne signifient pas que la technologie n’a aucun rôle à jouer. Elles signifient que sa mise en œuvre devrait être extrêmement prudente. Un modèle de ce type n’a de sens que s’il s’inscrit dans un cadre de sécurité solide.
Une bonne prédiction ne garantit pas de meilleurs résultats
Autre limite importante : les performances d’un modèle ne se traduisent pas automatiquement par une meilleure prise en charge. Un algorithme statistiquement impressionnant peut échouer dans la vraie vie s’il n’existe pas de réponse humaine sûre et efficace après l’alerte.
Pour qu’un dépistage assisté par IA améliore réellement les choses, les systèmes de santé doivent apporter bien plus qu’un logiciel. Il faut :
- des procédures de dépistage privées et sûres ;
- des professionnels formés à une approche sensible au traumatisme ;
- des filières d’orientation claires vers les soutiens sociaux, psychologiques et juridiques ;
- des pratiques de documentation prudentes, qui n’augmentent pas le danger ;
- une évaluation continue des bénéfices comme des effets indésirables.
Sans cela, un modèle d’IA risque surtout de devenir un détecteur sophistiqué de vulnérabilité sans voie fiable vers la protection.
Pourquoi cette histoire résonne aujourd’hui
Cette actualité importe non seulement parce qu’elle parle d’IA, mais parce qu’elle met en lumière quelque chose de dérangeant dans la médecine contemporaine : même dans des systèmes saturés de données, la souffrance peut rester invisible lorsqu’elle n’est pas exprimée de manière évidente.
Si l’IA peut aider les systèmes de santé à voir des motifs qu’ils manquent aujourd’hui, cela pourrait avoir une valeur réelle. Mais cette valeur ne viendra pas d’une automatisation de l’empathie ou d’une délégation du jugement clinique. Elle viendra du fait que le système devient un peu moins aveugle à des signaux d’alerte qui étaient déjà présents.
C’est aussi une manière plus réaliste de penser l’IA en santé en général. Tous les outils utiles n’ont pas vocation à remplacer un spécialiste ou à poser un diagnostic définitif. Parfois, une innovation utile consiste simplement à aider un soignant à poser plus tôt une question qui aurait dû l’être.
La lecture la plus équilibrée
Les données fournies soutiennent une lecture prudemment positive d’un outil d’IA pour le risque de violences conjugales. L’apprentissage automatique semble capable d’identifier des schémas associés à ce risque, et l’étude la plus directement pertinente suggère que des signaux cliniquement significatifs peuvent émerger avant que certaines patientes ne demandent explicitement de l’aide. Cela fait de l’IA un outil potentiellement utile pour signaler plus tôt un risque dans des contextes où les violences sont souvent manquées.
Mais les limites sont importantes. Une grande partie des preuves les plus solides provient encore du développement de modèles et de validations rétrospectives, plutôt que d’implémentations prospectives dans des systèmes de soins réels. Une bonne précision prédictive ne garantit pas de meilleurs résultats pour les patientes. Et de fortes préoccupations demeurent autour des biais, de la confidentialité, des faux positifs et du risque de nuire à des personnes déjà vulnérables.
La conclusion la plus prudente est donc la suivante : l’IA pourrait aider les systèmes de santé à repérer plus tôt des occasions manquées de dépistage des violences conjugales, mais seulement si elle sert d’appui à des professionnels formés, au sein de dispositifs respectueux du traumatisme, protecteurs de la confidentialité et prêts à orienter en sécurité. Seule, elle ne suffit pas. Intégrée à une réponse clinique soigneusement pensée, elle pourrait en revanche avoir une utilité réelle.