L’IA pourrait aider à repérer plus tôt le risque de violences conjugales, mais prédire n’est pas protéger

  • Accueil
  • Blogue
  • L’IA pourrait aider à repérer plus tôt le risque de violences conjugales, mais prédire n’est pas protéger
L’IA pourrait aider à repérer plus tôt le risque de violences conjugales, mais prédire n’est pas protéger
27/03

L’IA pourrait aider à repérer plus tôt le risque de violences conjugales, mais prédire n’est pas protéger


L’IA pourrait aider à repérer plus tôt le risque de violences conjugales, mais prédire n’est pas protéger

Les violences conjugales comptent parmi les problèmes de santé les plus difficiles à repérer tant qu’elles restent partiellement cachées. Elles n’arrivent pas toujours dans le cabinet médical sous la forme d’une révélation claire. Elles apparaissent souvent par fragments : blessures répétées, douleurs chroniques, anxiété, dépression, insomnie, rendez-vous manqués, peur, silence ou changements brusques de comportement.

Pour les médecins, infirmiers, psychologues, sages-femmes ou travailleurs sociaux, reconnaître ce schéma suffisamment tôt n’a rien d’évident. Les consultations sont courtes. Les patientes ne se sentent pas toujours en sécurité pour parler. Et beaucoup de personnes vivant des violences ne nomment pas immédiatement ce qu’elles subissent. C’est pourquoi un nouvel outil d’intelligence artificielle destiné à prédire quelles patientes pourraient présenter un risque plus élevé de violences conjugales attire l’attention.

L’idée est séduisante. Si le système de santé pouvait identifier plus tôt des situations de vulnérabilité, il pourrait peut-être proposer un soutien, un dépistage plus attentif et des voies d’aide plus sûres avant que la violence ne s’aggrave. Mais dans ce domaine, il est facile de confondre promesse technique et bénéfice clinique. En matière de violences conjugales, prédire un risque n’équivaut pas à protéger une personne.

Pourquoi cette piste est crédible

L’idée d’utiliser l’intelligence artificielle pour anticiper un risque de violence n’est pas apparue par hasard. La littérature fournie soutient l’usage plus large du machine learning et des évaluations structurées pour la prédiction de comportements violents, y compris dans les contextes de violences domestiques ou conjugales.

Une revue intégrative a conclu que le machine learning présente un potentiel important dans la recherche sur les violences domestiques pour la classification, la prédiction et la détection de schémas, y compris à partir de données cliniques et textuelles. C’est un point important, car cela suggère que des algorithmes pourraient repérer des combinaisons de signaux qui passent facilement inaperçues dans un système de soins sous tension.

La littérature plus générale sur l’évaluation du risque de violence va dans le même sens. Depuis longtemps, des approches structurées et actuarielles montrent qu’elles peuvent, dans certains contextes, être plus robustes que le seul jugement clinique non assisté. Cela ne veut pas dire qu’une machine “comprend” mieux une personne qu’un professionnel expérimenté. Cela signifie plutôt que, lorsque de nombreuses variables s’entremêlent, des outils structurés peuvent parfois organiser l’information de façon plus cohérente.

Il existe aussi un précédent historique. L’évaluation du risque de violences conjugales s’appuie déjà, dans certains contextes, sur des instruments structurés. Vue sous cet angle, l’IA apparaît moins comme une rupture totale que comme une extension possible d’une tradition de stratification du risque déjà existante.

Pourquoi cela concerne directement la santé

Les violences conjugales ne sont pas seulement un problème judiciaire ou social. Ce sont aussi un problème majeur de santé, avec des conséquences physiques, psychiques et reproductives profondes. Elles peuvent être associées à des traumatismes, des douleurs chroniques, une dépression, de l’anxiété, un état de stress post-traumatique, un usage de substances, des problèmes de santé sexuelle et reproductive, des complications de grossesse et un risque accru d’homicide.

Et pourtant, beaucoup de situations ne sont pas identifiées à temps. Certaines patientes ne se sentent pas en sécurité pour parler. D’autres ne qualifient pas encore ce qu’elles vivent comme de la violence. Dans de nombreux lieux de soins, il manque du temps, de la formation ou des protocoles clairs pour détecter les signaux plus subtils.

C’est là que les outils prédictifs paraissent particulièrement prometteurs. En théorie, un modèle entraîné sur des données cliniques pourrait signaler des patientes qui justifient une conversation plus attentive, plus sensible au traumatisme, et une évaluation plus rigoureuse des besoins de sécurité et d’accompagnement.

Dans cette perspective, l’intérêt ne serait pas de “détecter automatiquement” les victimes, mais de réduire le risque qu’une situation grave reste invisible dans le parcours de soins.

Ce que l’IA peut faire — et ce qu’elle ne peut pas faire

C’est aussi là qu’il faut être très prudent.

Un algorithme peut estimer une probabilité. Il peut repérer des motifs associés à un risque plus élevé. Il peut signaler qu’une patiente mérite une attention supplémentaire. Mais rien de cela ne prouve, à lui seul, qu’un tel outil améliore la sécurité, réduit les violences ou conduit à de meilleurs résultats de santé.

Les études fournies ne valident pas directement l’outil spécifique évoqué dans la communication des NIH. Elles soutiennent la direction générale — l’idée que la prédiction assistée par IA du risque de violences conjugales constitue une piste de recherche crédible —, mais elles ne démontrent pas que ce modèle précis est prêt pour un usage clinique courant.

Cette distinction est essentielle. En santé, un bon signal prédictif ne se transforme pas automatiquement en bénéfice concret. Entre l’identification d’un risque et l’amélioration réelle de la vie d’une patiente, il y a toute une chaîne d’exigences : confidentialité, confiance, organisation des soins, formation des professionnels, modalités sûres de dialogue, accès à des ressources adaptées et risque d’effets indésirables.

La question éthique n’est pas secondaire, elle est centrale

S’il existe un domaine où l’IA en santé doit avancer avec une extrême prudence, c’est bien celui-ci.

Utiliser des modèles prédictifs pour les violences conjugales soulève de grandes questions sur la vie privée, la surveillance, la stigmatisation et les biais algorithmiques. Les erreurs peuvent faire mal dans les deux sens.

Un faux positif peut déclencher une conversation intrusive, altérer la confiance, laisser une mention sensible dans le dossier médical, voire augmenter le danger si un conjoint violent découvre qu’une suspicion a été documentée. Un faux négatif peut être tout aussi problématique autrement, en donnant un faux sentiment de sécurité et en empêchant un soutien qui aurait peut-être été nécessaire.

Se pose aussi la question des données sur lesquelles ces systèmes apprennent. Les algorithmes sont entraînés à partir de traces historiques, et ces traces reflètent souvent la sous-déclaration, les inégalités d’accès aux soins, des biais institutionnels et des inégalités sociales. Une technologie qui semble objective peut donc reproduire d’anciens angles morts ou faire peser une charge injuste sur certains groupes tout en en invisibilisant d’autres.

Dans le contexte français, ces enjeux ne sont pas abstraits. Le risque est façonné par la précarité, le logement, le statut administratif, l’isolement, le contrôle coercitif, les inégalités territoriales d’accès aux soins et aux ressources de protection. Un modèle qui ignorerait ce contexte pourrait paraître sophistiqué dans une publication et pourtant s’avérer injuste ou peu utile dans la pratique.

Le vrai test, c’est l’implémentation

Si un outil de ce type devait un jour être intégré aux soins, l’élément décisif ne serait pas uniquement le modèle mathématique. Ce serait le système construit autour de lui.

Une implémentation responsable devrait être sensible au traumatisme, protectrice de la vie privée et attentive aux biais. Elle devrait inclure des règles strictes de confidentialité, une réflexion rigoureuse sur qui voit les alertes, et des protocoles précis sur la manière dont les professionnels y répondent. Une alerte ne devrait jamais fonctionner comme une accusation automatique ni comme un dispositif de surveillance silencieuse. Au mieux, elle devrait servir de point d’appui pour une conversation humaine plus réfléchie et plus sûre.

Cela implique quelque chose de fondamental : l’IA ne peut pas remplacer l’écoute, le consentement ni le jugement clinique. Son rôle le plus défendable serait celui d’un outil d’appui aidant les équipes à repérer plus tôt un risque possible, tout en laissant la décision sur la manière d’agir à des professionnels formés et encadrés par des garde-fous éthiques.

Sans cette infrastructure, la technologie risque de faire ce que l’innovation en santé fait parfois mal : transformer un problème profondément humain en un signal numérique élégant, mais d’utilité pratique incertaine.

Ce que cette recherche apporte réellement

Même avec toutes ces limites, cette recherche a une vraie importance. Elle renforce l’idée que les violences conjugales doivent être considérées comme une priorité de santé nécessitant de meilleurs outils de repérage et de réponse, et non comme un problème qui n’émerge que lorsqu’une personne est prête à parler.

C’est un changement important. Pendant longtemps, les systèmes de santé ont abordé les violences interpersonnelles de façon réactive, en attendant une blessure évidente, une crise aiguë ou une révélation explicite. Les outils de risque assistés par IA suggèrent un déplacement vers une approche plus proactive : tenter de repérer plus tôt une vulnérabilité, avant que les dommages ne deviennent encore plus graves.

Cela ne rend pas la technologie suffisante. Mais cela rappelle une réalité essentielle : les violences laissent souvent des traces cliniques et comportementales avant d’être nommées.

Ce qui reste à démontrer

La question la plus importante reste aussi la plus simple : ce type d’outil aide-t-il réellement les patientes dans la vie réelle ?

Au vu des données fournies, la réponse reste incertaine. Les études ne montrent pas que la prédiction assistée par IA améliore la sécurité, réduit les violences, facilite réellement l’accès à des ressources utiles ou améliore les résultats de santé en soins courants. Elles n’établissent pas non plus que le système évoqué par les NIH soit prêt pour un déploiement clinique sans supervision étroite.

Le cadrage le plus juste n’est donc pas celui d’une solution déjà disponible. C’est celui d’une possibilité crédible, mais éthiquement délicate.

Ce qu’il faut retenir

La prédiction du risque de violences conjugales assistée par intelligence artificielle constitue une piste de recherche plausible et potentiellement importante en santé. Les travaux disponibles soutiennent l’idée que le machine learning et les évaluations structurées peuvent aider à repérer des schémas de risque que le seul jugement clinique peut parfois manquer.

Mais dans ce domaine, la précision prédictive n’est pas synonyme de bénéfice pour la patiente. Entre une alerte et une issue plus sûre s’étend un espace éthique complexe, traversé par les questions de vie privée, de biais, de traumatisme, de confiance et de disponibilité de l’aide.

Si ce type d’outil finit par trouver une place utile, ce ne sera pas parce qu’il “détecte les violences” avec une autorité mathématique. Ce sera parce qu’il aide les soignants à répondre plus tôt, avec plus de tact, de préparation et d’humanité — sans transformer les personnes vulnérables en objets de surveillance. C’est à cette condition que sa valeur devra être jugée.