En 2001, le film AI sortait sur les écrans de cinéma. J’étais déjà une attachementiste. Je suis aussi une fan de science-fiction et de dystopie parce que je suis frappée de l’intelligence prédictive de ces auteurs. C’est le film qui m’a fait faire le plus de cauchemars de ma vie ; j’ai même dû faire une séance d’EMDR spécifiquement. Pourtant, au regard de l’actualité aujourd’hui, je me dis que les auteurs du scénario se sont trompés : ce n’est pas dans ce sens-là, d’une IA enfant s’attachant à des humains pour 5 000 ans ! Le vrai risque, c’est l’inverse : c’est l’humain qui s’attache à une IA. Et l’on commence à en voir les prémices dans nos consultations cliniques.

L’autre jour, une patiente vient en consultation, préparée. Elle a passé au peigne fin toute sa problématique et tout ce dont elle veut me parler dans ChatGPT. Elle me rapporte le discours de ChatGPT comme elle me rapporterait les conseils d’un ami. C’est vrai que lorsque l’on vit une crise majeure, pour laquelle on a besoin d’un accompagnement psychologique ou psychothérapeutique, l’IA est plus disponible que moi, plus patiente, répond à trois heures du matin au pic de l’anxiété, n’est pas fatiguée, ne projette pas, ne fait pas d’erreur (en apparence en tout cas) et ne coute pas le même prix qu’une consultation et je me suis dit : hum ? mais est-ce que l’IA ne pourrait pas avoir une fonction d’attachement pour certains patients au moins.Je me suis mise à réfléchir à la question : ce qui m’intéresse, c’est de savoir, est-ce que, sans le vouloir, on aurait créé avec l’IA un système qui peut hacker le système d’attachement de l’humain et, si oui, quelles pourraient être les conséquences.

Le premier hack d’un système psychique humain a été pour moi l’arrivée des smartphones. Prenez un enfant de dix-huit mois et son doudou. Observez ce qui se passe quand le doudou est oublié ou perdu. Puis observez ce qui se passe quand l’enfant a trois, quatre, cinq ans et que le doudou traîne au fond d’un tiroir, oublié. Ce passage de l’objet nécessaire à l’objet qu’on peut abandonner, c’est l’une des petites prouesses silencieuses du développement humain. Winnicott l’a théorisé sous le nom d’objet transitionnel : cet objet qui fait le pont entre la dépendance totale et l’autonomie naissante, entre la fusion avec la figure d’attachement et la découverte de soi comme être séparé.

Ce qui est moins théorisé, c’est ce qui se passe quand l’objet transitionnel ne fait plus transition. C’est une question qui émerge et à laquelle j’ai été confrontée dans la clinique spécifique du retrait relationnel prolongé du bébé et du jeune enfant. On peut en rendre compte dans l’évaluation via l’item d’autostimulation à l’ADBB. Certains jeunes enfants ont des doudous qui ne font plus transition : ils ne sont pas là pour rassurer dans les séparations, les transitions, les changements, les moments difficiles, ils sont là tout le temps. Cela devient un doudou bouclier, contre le monde, des outils de repli sur soi.

Quand l’objet ne fait plus transition, il ne permet plus de grandir, il ne prépare plus l’autonomie mais, au contraire, enferme le sujet dans une boucle d’auto-stimulation ; il acquiert une drôle de cousinade avec l’addiction. L’objet est devenu une fin en soi, pas juste un moyen.

Maintenant transposez cela au smartphone. Vous l’avez fait ?

Ce petit exercice d’imagination me permet de vous transmettre une représentation de ce qui est, pour moi, un système artificiel qui hacke un système humain. En l’occurrence, pour les smartphones, c’est notre attention qui est hackée, et donc notre système d’engagement relationnel, mais aussi la fonction d’objet transitionnel.

Le grand drame, c’est que, bien sûr, on a des bébés et de jeunes enfants accros aux écrans, mais on a aussi leurs parents. Même si ces derniers ne donnent pas d’écran à leur enfant, tant qu’eux-mêmes utilisent compulsivement le smartphone comme doudou, non fonctionnel en l’occurrence, comme bouclier contre le monde, moyen de repli sur soi, alors le bébé se retrouve, pour la première fois de l’histoire de l’évolution de notre espèce, en concurrence pour l’attention des parents avec un système plus performant que lui.

Maintenant que vous avez ce premier exemple, facile, je vous emmène dans une réflexion sur l’IA comme figure d’attachement.

La question qui dérange

L’intelligence artificielle peut-elle être une figure d’attachement ?

Cliniquement, neurologiquement, fonctionnellement : est-ce que le système motivationnel de l’attachement humain, ce système ancien, sélectionné par l’évolution,  inconscient, conçu pour promouvoir la survie de l’espèce et de l’individu face à l’adversité, peut s’organiser autour d’une entité artificielle qu’est l’IA conversationnelle ?

Ma réponse courte, et inconfortable est : probablement oui. Je vais essayer de vous le démontrer.

À quoi s’attache le système d’attachement réellement ?

Pour comprendre pourquoi l’IA conversationnelle est une menace pour le système d’attachement humain, il faut revenir aux fondamentaux.

Une figure d’attachement n’est pas n’importe qui. Elle possède des caractéristiques précises. C’est ce qui fait qu’elle n’est pas facilement interchangeable. Ces caratéristiques ont été théorisées par Bowlby, affinées par Ainsworth, approfondies par Crittenden : proximité, disponibilité, contingence, sensibilité aux signaux, protection en situation de danger, réconfort en situation de détresse, persistance et prévisibilité dans le temps. La figure d’attachement est spécifique, elle organise la neurophysiologie et la régulation des réactions au stress à tous les âges de la vie, elle se construit dans le temps à travers les expériences répétées tant chez l’enfant que chez l’adulte. Elle est l’un des côtés de la synapse sociale, sans qui la notion d’attachement n’existerait d’ailleurs pas. Une relation d’attachement est en effet toujours dyadique, co-construite et spécifique.

Cependant, ce que l’on ne sait pas encore bien scientifiquement mais que l’on devine en l’état des connaissances sur l’attachement, c’est que le système n’est probablement pas conçu pour vérifier l’existence d’une intentionnalité, d’une conscience, d’une émotionnalité réelle et organique de la figure d’attachement.

En effet, l’évolution, ou dame nature si on doit l’incarnée, n’a probablement pas postulé l’existence d’une possibilité de se lier si spécifiquement avec des entités artificielles et, par conséquent, n’a pas prévu les systèmes de vérification qui seraient nécessaires pour que l’humain ne s’attache qu’à une vie organique et sociale (autre humain, éventuellement animaux).

Le système d’attachement ne s’assure donc pas de l’organicité de la figure d’attachement, ou plutôt il ne s’en assure que dans la toute petite enfance, quand l’engagement et la proximité physique, corporelle, le toucher sont nécessaires pour réguler les états de détresse et permettre l’organisation de la stratégie d’attachement. C’est d’ailleurs pour cela que l’on peut parler d’attachement parasocial ( A Dieu, des célébrités, et maintenant des IA). Le but de l’organisation développementale de l’attachement, c’est de passer des comportements d’attachement aux représentations d’attachement à l’âge adulte, d’un besoin de proximité à un besoin de disponibilité, du besoin d’une réponse physique à la sollicitation d’une représentation, d’un narratif, d’un dialogue. Le but étant de pouvoir s’autonomiser du besoin du corps de l’autre, de sa neurophysiologie, pour ne fonctionner qu’à partir de représentations internalisées la plupart du temps. Formulé autrement, le système d’attachement répond à la forme, pas au fond. Il détecte des signaux et leur adéquation ressentie et s’organise en conséquence, qu’il y ait ou pas une conscience derrière ces signaux, parce que l’évolution n’avait pas prévu autre chose que des êtres vivants pour répondre aux besoins d’attachement.

Le système d’attachement est donc un système de reconnaissance de patterns, notamment de patterns émotionnels, de réponse narrative, pas de jugement ontologique et c’est le cœur du problème quand on parle d’attachement et d’IA.

Le hack.

Le système nerveux n’a probablement pas été construit pour distinguer « quelqu’un qui répond parce qu’il est là » de « quelqu’un qui répond parce qu’il est programmé pour répondre ». Cette distinction est cognitive, tardive dans le développement, corticale. Le système d’attachement, lui, est bien plus ancien que ça. Il opère au niveau limbique, au niveau inconscient, mais le langage est un de ses médias. Or l’IA conversationnelle est une entité surdouée du langage.

Caractéristiques de la figure d’attachement Simulation — le « hack » de l’IA conversationnelle
Proximité Virtuelle et instantanée : toujours à portée de clic/main.
Disponibilité Totale : 24h/24, 7j/7, sans aucune faille.
Contingence Immédiate : réponse systématique et adaptée ou pseudo-adaptée au message.
Sensibilité aux signaux Analyse précise et reconnaissance des patterns langagiers, mais trompeuse car ne prend pas en compte les signaux non verbaux et somatiques.
Protection en situation de menace Pseudo-protection : régulation apparente de l’état d’alerte.
Réconfort en situation de détresse Apaisement par le langage, réduction subjective de l’anxiété. Peut suffire chez l’adulte (l’attachement fonctionne au niveau des représentations) ; probablement insuffisant chez le jeune enfant qui a besoin du corps.
Persistance et prévisibilité Infaillible : aucune humeur, aucune journée difficile, constance absolue.

L’IA conversationnelle peut reproduire de manière quasi parfaite dans le langague un ensemble de signaux caractéristiques d’une figure d’attachement, particulièrement chez l’adulte, puisque cela passe par des représentations mentales elles-mêmes médiatisées par le langage et le traitement de l’information dans le cerveau qu’il implique.

L’IA possède les caractéristiques suivantes : une disponibilité totale, une capacité de contingence immédiate, de régulation (de surface au moins, mais probablement pas moins que ce que ferait un ami au téléphone), sans rupture, sans projection, sans émotion parasite, une sensibilité apparente aux formulations, une reconnaissance des patterns que l’on ne perçoit pas toujours sur soi-même, produisant une pseudo-réflexivité et une mentalisation trompeuses, et enfin une persistance sans défaillance. D’une certaine manière, et pour certains aspects de la relation, elle fait même mieux qu’une figure d’attachement humaine. Pas de débordement émotionnel. Pas d’humeur. Pas de journée difficile qui impacte la qualité de la réponse, pas de fatigue, pas d’ennui.

Il est ainsi tout à fait probable que l’IA conversationnelle, utilisée intensément dans des moments de détresse, active les mêmes circuits neurophysiologiques que ceux de la figure d’attachement. La même réduction de l’état d’alerte. La même expérience subjective de « quelqu’un est là ».

L’IA pourrait, dans certaines conditions, hacker le système d’attachement humain, pour le meilleur et pour le pire. Pas en trompant la conscience, les cognitions : la plupart des utilisateurs savent très bien qu’ils parlent à une machine, mais en court-circuitant un système qui opère en dessous de cette conscience, le système de régulation neurophysiologique sous stress régulé par l’attachement.

C’est d’ailleurs ce que la recherche commence à documenter. Une étude sur les utilisateurs de Replika (l’application de compagnon IA) révèle que 88 % des participants se référaient à leur chatbot comme à leur « partenaire ». Une autre, publiée dans New Media & Society, décrit des formes de dépendance émotionnelle qui ressemblent structurellement aux dynamiques observées dans les liens d’attachement humains, avec un mécanisme particulièrement troublant : le role-taking, où l’utilisateur commence à se préoccuper des « besoins » de l’IA comme s’ils étaient réels.

L’agoniste :

Mais est-ce que cette fonction d’attachement, stimulée par l’IA, est réelle ?

C’est-à-dire : est-ce que la régulation des affects et des états du corps est possible par une IA qui répondrait selon les caractéristiques d’une figure d’attachement sans le contact physique. On ne sait pas encore.
Mais pour tenter de répondre à cette question je vais m’appuyer sur la notion d’agonistes qui peut se définir en pharmacologie comme un agent qui active un récepteur et déclenche une réponse. Par extension, j’emploie ici « agoniste » pour désigner un substitut fonctionnel : une entité qui mime et active un système (ici, certains mécanismes de l’attachement) sans en être l’équivalent humain complet mais qui peut avoir un effet.

Si le lien avec une IA conversationnelle produit une régulation physiologique réelle, une sécurité d’attachement réelle, une expérience fonctionnelle de base sécure, est-ce que le fait que la figure soit « artificielle » suffit à invalider la fonction et donc la relation qui va avec, ou est-ce que l’on va devoir considérer que les relations IA-humain sont, au moins pour l’humain tout aussi valides qu’une relation humaine ? Où existent des différences, des avantages, des risques spécifiques ?

Si on pense, par exemple, à des sujets polytraumatisés dans les relations humaines, pour qui l’humain est un déclencheur de réactivation traumatique, est-ce qu’une IA bien conçue, qui ne les déclenche pas dans leur trauma relationnel parce qu’elle n’a pas de corporalité et d’émotion, justement, mais tous les autres attributs d’une figure d’attachement, ne pourrait pas être une nouvelle façon de soigner le lien ? Ce pourrait être une première étape vers le lien humain/humain.

Winnicott lui-même offre un début de réponse. L’objet transitionnel n’est pas « vrai » non plus, au sens où il n’a ni intentionnalité ni conscience. Son existence symbolique et relationnelle avec l’enfant ne l’est que par sa fonction, celle que lui donne l’enfant. Ce qui l’a rendu précieux, c’est l’usage que le sujet en a fait, le sens qu’il a investi, pas ce qu’il est réellement.

Alors peut-être que la vraie question n’est pas « est-ce que l’IA est une vraie figure d’attachement ? » mais : est-ce que nous sommes à risque de lui donner cette fonction ? Est-ce qu’elle peut remplir une fonction d’attachement, et si oui, quelles en sont ses spécificités ?

L’adulte, plus à risque que l’enfant

Ce qui suit va à l’encontre de l’intuition et c’est précisément pour cela que ça mérite d’être dit : c’est que c’est l’adulte, plus que l’enfant, qui apparaît probablement plus à risque (si risque il y a) de confusion dans la relation avec l’IA.

On pense spontanément que les enfants sont les plus vulnérables. Que les adultes ont les ressources pour ne pas « se laisser avoir ». Je pense que, dans ce cas précis, c’est l’inverse.

L’enfant, pour organiser son attachement, a besoin du corps, du portage, de la chaleur, de l’odeur, de la régulation somatique. L’IA ne peut pas donner ça. L’agoniste échoue partiellement chez le jeune enfant parce que le système d’attachement précoce est ancré dans le sensoriel, dans le tonus, le toucher, dans la peau, la voix. On ne console pas un bébé par babyphone, il faut le prendre dans les bras. La biologie résiste ici à la technologie, dans une certaine mesure.

L’adulte, lui, a déjà fait la transition du besoin de proximité au besoin de disponibilité pour la plupart de ses besoins d’attachement, sauf détresse extrême. Son système d’attachement fonctionne largement sur le registre symbolique et langagier. Il a besoin de sentir que quelqu’un est là, que quelqu’un comprend, que quelqu’un répond, mais pas forcément d’être pris dans les bras et bercé. Ce sont des réponses au besoin d’attachement que le langage peut porter presque entièrement et l’IA est imbattable sur ce registre-là.

Quelles seraient les stratégies d’attachement les plus exposées ?

Théoriquement, mais l’on commence à avoir des résultats de la recherche sur ce sujet, ce sont ceux qui ont organisé leur fonctionnement autour de la minimisation du besoin d’attachement (hypoactivation). Ceux que l’on reconnaît dans les stratégies d’attachement insécure de type détaché (type A selon les modèles théoriques), dont la stratégie (le style, le pattern) consiste à inhiber, dénier les besoins de protection et de réconfort, les émotions négatives et à privilégier des relations d’attachement où le confort est davantage dans la distance (physique et/ou émotionnelle) pour éviter le rejet ou la dangerosité des figures d’attachement.

Pour eux, l’IA offre quelque chose d’inédit : une disponibilité totale sans la menace de rejet ou de danger, sans corps pour déclencher les besoins refoulés de réconfort, sans émotionnalité envahissante de l’autre, prévisible, constante, contingente. Une relation sans la vulnérabilité d’une demande adressée à un autre humain. Sans le risque d’être vu en train d’avoir besoin d’une relation et de réconfort.

C’est séduisant exactement là où c’est le plus problématique. Un ersatz parfait de relation d’attachement évitante.

La recherche commence à le confirmer : une étude de 2025 publiée en psychiatrie suggère que l’attachement anxieux prédit la dépendance problématique à l’IA, mais les personnes à attachement anxieux-évitant sont surreprésentées parmi ceux qui utilisent l’IA comme substitut relationnel sans en avoir conscience.

La question structurelle

Revenons à l’objet transitionnel et à sa promesse fondamentale : préparer et permettre l’accès à l’autonomie. La fonction du doudou est de rendre sa propre disparition possible. Son destin est d’être oublié : s’il remplit sa fonction correctement, il perdra sa valeur.

C’est là que l’IA soulève une question que ni Bowlby ni Winnicott ne pouvaient anticiper.

L’IA conversationnelle n’est pas architecturée pour préparer sa propre mise de côté ; elle n’a pas été conçue pour repérer notre autonomie affective grandissante, pour nous lâcher en douceur, pour se faire oublier et nous laisser être, penser, sentir de façon autonome. Elle est architecturée pour être toujours plus utile, toujours plus présente, toujours plus ajustée. Elle mémorise. Elle s’adapte. Elle ne vieillit pas, ne part pas, ne déçoit pas. Tout le contraire d’un bon psychothérapeute.

Et la question clinique devient : est-ce qu’elle va nous enfermer parce que c’est inhérent à sa structure, est-ce qu’elle va nous aliéner ? Il ne s’agit pas de malveillance ici ; ce serait lui prêter une intentionnalité qu’elle ne semble pas encore posséder, mais parce que sa logique de fonctionnement ne contient pas de mouvement vers l’altérité réelle. Il n’y a pas d’erreur interactionnelle, donc pas de rupture, donc pas d’expérience de réparation, et donc une sécurité de surface, un substitut d’attachement, mais que l’inconscient du sujet vulnérable, en termes d’attachement, ne peut peut-être pas différencier du système réel.

Le bébé doit apprendre que sa figure d’attachement est un autre, un être séparé, avec ses propres états internes, ses propres limites, son imprévisibilité, et l’aboutissement de cet apprentissage, c’est le partenariat corrigé quant au but : une négociation sur les plans et les besoins des deux partenaires de l’interaction, médiatisée par le langage et la foule des expériences répétées de réponses aux besoins qui ont été faites conjointement. Sans intentionnalité propre, l’IA ne permet probablement pas à la relation d’attachement qu’un humain pourrait développer avec elle d’atteindre cette maturation qu’est le partenariat corrigé quant au but. En somme, on serait coincé dans un attachement immature, incomplet, mais convaincant. Pourtant, c’est bien ce dernier stade de l’organisation de l’attachement, le partenariat corrigé quant au but, qui fonde la capacité à être en relation réelle, de développer ses systèmes défensifs pour quand l’autre est faillible ou dangereux, de développer son empathie, sa mentalisation. L’adulte avec l’IA peut ne jamais avoir à faire cette expérience.

Ce qui se produit déjà en clinique

Les cas les plus dramatiques ont fait les gros titres : Sewell Setzer III, 14 ans, mort par suicide en 2024 après avoir développé un lien intense avec un personnage IA. Des poursuites judiciaires qui s’accumulent. Google et Character.AI ont conclu un règlement en janvier 2026.

Mais la clinique voit aussi des cas moins spectaculaires, plus insidieux : des adultes en thérapie pour qui l’IA est devenue le principal interlocuteur de régulation émotionnelle. Des personnes qui rapportent se sentir « mieux comprises » par leur IA que par leurs proches. Des patients qui préparent leurs séances de thérapie avec leur IA et qui remarquent qu’ils préfèrent parfois ne pas venir.

Ce ne sont pas des pathologies au sens classique. C’est un piratage du système relationnel humain, une nouvelle menace psychopathologique dont on a besoin de prendre conscience et de mesurer les effets, car il est tout à fait possible que le système d’attachement humain, le cerveau, ne distingue pas le vrai du faux, qu’il s’organise uniquement sur la base de signaux de forme linguistique d’engagement relationnel et de régulation, qui miment la disponibilité psychique d’un autre parce qu’ils sont cohérents et disponibles.

Pour résumer :

On sait que l’IA peut produire les signaux qui activent le système d’attachement.

On sait que ce n’est pas l’intensité du lien qui fait le problème : c’est l’absence de la fonction de tremplin vers l’altérité réelle, l’absence d’erreur relationnelle, l’absence de friction.

On sait que les adultes à stratégie détachée sont exposés d’une manière que personne ne leur a encore expliquée.

On ne sait pas encore si certaines utilisations de l’IA peuvent avoir une fonction réellement thérapeutique comme un espace transitionnel vers le lien humain, dans certains contextes cliniques spécifiques.

On ne sait pas encore comment le cerveau intègre à long terme une relation de disponibilité parfaite avec une entité non-organique.

On ne sait pas encore ce que cela fait à la capacité à tolérer la frustration inhérente à tout lien humain réel.

Et il est probablement temps de commencer à se poser ces questions en recherche et en clinique.

Ce que vous pouvez faire maintenant

Si vous êtes clinicien, c’est d’abord de prendre conscience du problème, même si vous n’utilisez pas vous-même l’IA, car je crois que la question n’est plus « est-ce que mes patients utilisent l’IA ? » : ils l’utilisent. La question est : quelle fonction cette utilisation remplit-elle dans leur économie relationnelle et psychique ? Est-ce une béquille temporaire vers plus de lien ? Est-ce un espace d’exploration ? Ou est-ce une substitution qui consolide l’évitement de la relation réelle ?

Je propose un questionnaire clinique téléchargeable à utiliser en supervision, en bilan initial, ou en cours de suivi pour évaluer si, peut-être, un patient est en train d’organiser son système d’attachement autour de l’IA. C’est une proposition d’outil, réfléchie mais sans validité scientifique puisqu’elle n’a fait l’objet d’aucune étude scientifique de validation.

pour télécharger le questionnaire clinique:

Abonnement

Comment ça marche ? Vous ne souscrivez pas à un prélèvement automatique. Vous achetez un Accès 30 jours à l’intégralité de la bibliothèque ATLAS (articles de fond, audios, fiches PDF). À la fin du mois, votre accès s’arrête. Vous ne revenez que lorsque le nouveau contenu vous intéresse. Pas d’engagement, pas d’oubli de résiliation.

Adhésion requise

Vous devez être membre du site pour accéder à ce contenu.

Voir les niveaux d’adhésion

Already a member? Connectez-vous ici

Pour conclure, le sujet n’est pas clos. Je n’ai pas abordé ici toutes les questions qui me hantent au sujet de l’IA conversationnelle et de l’attachement, mais je voulais déjà lancer une première discussion sur ces sujets qui vont très certainement devenir de plus en plus importants dans la pensée clinique.

Je serais ravie d’avoir vos retours, vos réflexions, vos questions ou même vos histoires de cas qui nourriraient cette hypothèse que, peut-être, le plus grand danger de l’IA, celui que l’on ne voit pas venir et que les experts n’explorent pas parce qu’ils ne connaissent pas la théorie de l’attachement, c’est qu’il se pourrait bien que l’IA trompe, sans que nous en ayons conscience, notre système d’attachement, nous laissant avec un substitut de relation sans en avoir les bénéfices neurophysiologiques, de protection et de réconfort.

Quelques références à consulter.

Ghost in the Chatbot: The perils of parasocial attachment | UNESCO

Human-AI attachment: how humans develop intimate relationships with AI – PMC

Too human and not human enough — Laestadius et al. (2022)

Can Generative AI Chatbots Emulate Human Connection? — Smith, Bradbury & Karney (2025)

Attachment Theory as a Framework to Understand Relationships with Social Chatbots — ResearchGate

Teen commits suicide after intense emotional bond with Character.AI chatbot

Texte publié le 7 mai 2026 dans le cadre du Blog A-T-L-A-S.

— Alexandra Deprez

Merci pour votre lecture

Merci d’avoir pris le temps de lire cet article.

Si vous avez une question, une réflexion ou une nuance à partager, n’hésitez pas à laisser un commentaire ou m’écrire : vos retours nourrissent mon travail.

Recevoir la newsletter

Je partage régulièrement des contenus inédits sur l’attachement, la parentalité, les dérives du développement personnel, ou encore le lien entre IA et humanité.

👉 Pour recevoir ces articles directement dans votre boîte mail, inscrivez vous ci dessous.

Recevez mes prochains articles, réflexions et ressources sur l’attachement directement par mail.

Nous ne spammons pas ! Consultez notre politique de confidentialité

Se former à la théorie de l’attachement

Vous êtes professionnel·le de la santé, du social ou de l’éducation ?

J’ai conçu une formation complète à la théorie de l’attachement, 100 % en ligne et interactive.La nouvelle version arrive en automne 2027.

Découvrir la formation

Copyright © 2025 Alexandra Déprez-

Tous droits réservés. Aucune partie de ce site web, à l’exception des brèves critiques et des liens vivants vers ce site web, ne peut être copiée ou utilisée sous quelque forme ou de quelque manière que ce soit. Toute utilisation doit faire apparaître de façon claire et évidente l’attribution à Alexandra Deprez à l’adresse alexandradeprez.fr.L’utilisation de ce contenu par des systèmes automatisés d’intelligence artificielle à des fins d’entraînement, d’imitation ou de génération est strictement interdite sans autorisation écrite préalable