PROJET AUTOBLOG


PsyEtGeek

source: PsyEtGeek

⇐ retour index

Les IA sont là. Il faut modifier le code de déontologie des psychologues

vendredi 15 août 2025 à 21:01

L’intelligence artificielle (IA) n’est plus une promesse futuriste : elle est désormais intégrée aux pratiques professionnelles, y compris dans le champ de la psychologie. Outils de rédaction, d’aide à l’analyse, de conceptualisation ou d’organisation de données cliniques, les systèmes IA — notamment les grands modèles de langage — deviennent des assistants polyvalents du quotidien. Or, cette transformation soulève des questions inédites en matière d’éthique, de responsabilité, de confidentialité et de formation. Face à ces enjeux, le Code de déontologie des psychologues doit évoluer.

Voici les modifications proposées

1. Préambule — Clarification du contexte technologique

Ajout suggéré :
« Le développement de technologies numériques, et en particulier de l’intelligence artificielle (IA), transforme les modalités d’exercice de la psychologie. Le présent code intègre les principes éthiques liés à l’usage de ces outils, afin de garantir la protection des personnes et la responsabilité professionnelle dans un environnement numérique. »

2. Titre I – Principes généraux

Article 1 – Respect des droits de la personne

Ajout :
« Le psychologue veille à ce que l’usage d’outils numériques, notamment basés sur l’IA, respecte pleinement la confidentialité, la sécurité et le consentement éclairé des personnes. Aucun contenu identifiable ne doit être introduit dans des systèmes IA publics. »

Article 2 – Compétence

Ajout :
« L’utilisation de l’intelligence artificielle suppose des compétences spécifiques en littératie numérique, en interprétation des sorties algorithmiques, et en évaluation critique des limites de ces outils. Le psychologue s’abstient d’utiliser une IA qu’il ne maîtrise pas. »

Article 3 – Responsabilité

Ajout :
« L’usage d’une IA ne saurait déléguer ou diluer la responsabilité du psychologue. Il demeure seul responsable des conclusions, décisions ou recommandations issues de l’usage de ces outils. »

Article 5 – Qualité scientifique

Ajout :
« Le psychologue s’assure que les outils d’IA utilisés dans sa pratique sont validés scientifiquement et adaptés à un usage psychologique. Il évalue leur robustesse, leur transparence, et les éventuels biais algorithmiques. »

3. Titre II – Exercice professionnel

Article 9 – Consentement

Ajout :
« Le psychologue informe les personnes de l’usage éventuel de systèmes numériques ou d’IA dans leur prise en charge, en explicitant les objectifs, les risques et les limites. »

Article 12 – Production de documents

Ajout :
« En cas d’usage d’IA générative dans la rédaction de comptes rendus, synthèses ou protocoles, le psychologue demeure responsable du contenu produit, et procède à une vérification complète et critique. »

Nouvel article proposé : Protection des données en contexte d’IA

« Le psychologue garantit que les données utilisées pour entraîner, enrichir ou interagir avec des systèmes d’IA respectent les normes de sécurité, de confidentialité et d’anonymisation. Il évite toute transmission de données à des plateformes non conformes aux normes européennes (ex. : RGPD). »

4. Titre III – Formation

Article 27 – Formation initiale

Ajout :
« La formation des futurs psychologues inclut une sensibilisation aux enjeux de l’IA, à ses usages potentiels, à ses limites cliniques et aux risques éthiques qu’elle comporte. »

Article 30 – Formation continue

Ajout :
« Le psychologue s’engage à suivre une formation continue portant sur les outils numériques et les technologies d’IA, afin d’en faire un usage éclairé, critique et éthique. »

La modification du code actuel ne vise pas à encadrer l’IA comme une pratique distincte, mais à clarifier son usage dans les pratiques psychologiques existantes. Cela nécessite de :

Pourquoi certains adolescents basculent-ils dans des usages problématiques des jeux vidéo

mardi 22 juillet 2025 à 07:18

La question des usages problématiques des jeux vidéo chez les adolescents est complexe, et la science montre qu’il n’existe pas une cause unique, mais plutôt un enchevêtrement de facteurs. On peut les regrouper en trois grandes familles : les usages du jeu, la personnalité et le contexte social.

1. Facteurs liés à l’usage des jeux
Les adolescents qui développent des usages problématiques jouent souvent à certains types de jeux (comme les jeux de rôle en ligne massivement multijoueurs, ou MMORPG, et les jeux de tir) et ont tendance à jouer pour échapper à des difficultés ou à des échecs dans la vie réelle. La pratique devient alors un moyen de faire face au stress ou aux émotions négatives, au lieu d’être simplement un loisir (Mößle & Rehbein, 2013).
Les mécanismes du jeu eux-mêmes jouent aussi un rôle?: certains jeux sont conçus pour capter et retenir l’attention à l’aide de récompenses fréquentes, de quêtes à répétition ou de systèmes de progression sans fin. Plus ces éléments sont présents, plus le risque d’un usage excessif augmente (Griffiths & Nuyens, 2017).

2. Facteurs individuels et de personnalité
Les jeunes les plus à risque présentent souvent certains traits ou difficultés personnels?: hyperactivité, impulsivité, humeur dépressive, faible estime de soi, ou difficultés à se sentir compétent dans le cadre scolaire. Les recherches montrent aussi que le manque de compétences sociales ou un sentiment de solitude peut pousser à jouer davantage, parfois de façon problématique (Lemmens, Valkenburg & Peter, 2011).

3. Facteurs sociaux et environnementaux
Le contexte familial et social est déterminant. Un adolescent qui vit des tensions familiales, qui manque de soutien de la part de ses parents, ou qui rencontre des difficultés avec ses pairs, est plus susceptible de se tourner vers le jeu vidéo comme refuge ou comme espace de réussite alternative (Mößle & Rehbein, 2013). Les problèmes de violence parentale ou la négligence affective sont aussi associés à un risque plus élevé.

4. Le jeu problématique?: conséquence ou cause??
La tentation est grande d’accuser les jeux vidéo eux-mêmes d’être la cause des usages problématiques. Pourtant, les données disponibles suggèrent une relation plus complexe, où le jeu est souvent une réponse à une souffrance préexistan. L’idée que les jeux vidéo créent des additions reste a ce jour infondée. Les mécaniques de rétention (récompenses fréquentes, progression continue, défi quotidien, notification) qui sont avancées (Griffiths & Nuyens, 2017). ne sont pas suffisantes pour expliquer une éventuelle addiction. En effet , des centaines millions de personnes jouent à des jeux dotés de ces mécaniques, mais seule une petite minorité développe une utilisation problématique. Cela indique que d’autres facteurs (individuels, sociaux, psychologiques) entrent en jeu

Les recherches montrent que les joueurs les plus vulnérables à une utilisation problématique présentent souvent des fragilités personnelles?: faible estime de soi, sentiment de solitude, impulsivité, humeur dépressive ou anxieuse, difficultés scolaires ou familiales. C’est souvent pour faire face à ces difficultés qu’ils investissent plus intensément les jeux vidéo?; le jeu devient alors un moyen de compensation ou de régulation émotionnelle (Lemmens et al., 2011; Mößle & Rehbein, 2013).

L’environnement familial, la qualité des relations avec les parents, le soutien social, mais aussi les difficultés avec les pairs jouent un rôle important. Les adolescents isolés ou en souffrance relationnelle sont plus à risque d’utiliser le jeu comme refuge, quels que soient les mécanismes de rétention du jeu lui-même (Mößle & Rehbein, 2013; Kowert et al., 2015). Souvent les parents voient les jeux vidéo comme une cause des conflits dans la famille, alors que du point de vue de l’adolescnet, les jeux vidéo sont une activité dans laquelle il se met à l’écart des tensions familiales

Plusieurs résultats de recherche soulignent que ce sont plutôt des vulnérabilités préexistantes (difficultés personnelles, manque de soutien social, etc.) qui poussent certains jeunes à utiliser le jeu vidéo comme échappatoire, et non le jeu en lui-même qui crée le problème.Plusieurs s longitudinales montrent que les difficultés psychologiques précèdent souvent l’usage problématique?: c’est parce que certains adolescents se sentent seuls, peu compétents ou mal dans leur peau qu’ils développent des comportements excessifs avec les jeux vidéo. Cependant, un usage massif et déséquilibré peut à son tour aggraver le sentiment de solitude ou de mal-être, créant un cercle vicieux (Lemmens et al., 2011; Kowert et al., 2015).

 

Le jeu problématique n’est pas un phénomène isolé, mais un symptôme. Pour le comprendre et le prévenir, il faut se pencher non seulement sur les caractéristiques des jeux, mais surtout sur les parcours, les souffrances et les besoins des adolescents qui y trouvent refuge.

Lemmens, J. S., Valkenburg, P. M., & Peter, J. (2011). Psychosocial causes and consequences of pathological gaming. Computers in Human Behavior, 27(1), 144–152. https://doi.org/10.1016/j.chb.2010.07.015

Mößle, T., & Rehbein, F. (2013). Predictors of problematic video game usage in childhood and adolescence. Sucht, 59(3), 153–164. https://doi.org/10.1024/0939-5911.a000247

Griffiths, M. D., & Nuyens, F. (2017). An overview of structural characteristics in problematic video game playing. Current Addiction Reports, 4(3), 272–283. https://doi.org/10.1007/s40429-017-0162-y

Kowert, R., Vogelgesang, J., Festl, R., & Quandt, T. (2015). Psychosocial causes and consequences of online video game play. Computers in Human Behavior, 45, 51–58. https://doi.org/10.1016/j.chb.2014.11.074

Griffiths, M. D., & Nuyens, F. (2017). An overview of structural characteristics in problematic video game playing. Current Addiction Reports, 4(3), 272–283. https://doi.org/10.1007/s40429-017-0162-y

Lemmens, J. S., Valkenburg, P. M., & Peter, J. (2011). Psychosocial causes and consequences of pathological gaming. Computers in Human Behavior, 27(1), 144–152.

Mößle, T., & Rehbein, F. (2013). Predictors of problematic video game usage in childhood and adolescence. Sucht, 59(3), 153–164.

Bean, A. M., Nielsen, R. K. L., van Rooij, A. J., & Ferguson, C. J. (2017). Video Game Addiction: The Push To Pathologize Video Games. Professional Psychology: Research and Practice.

Király, O., et al. (2018). Policy responses to problematic video game use: A systematic review of current measures and future possibilities. Journal of Behavioral Addictions, 7(3), 503–517.

 

 

 

 

Que se passe-t-il quand les enfants utilisent l’intelligence artificielle (IA) générative ?

dimanche 8 juin 2025 à 14:35

L’IA générative (comme ChatGPT ou DALL·E) fait déjà partie du quotidien des enfants, même si ces outils ne sont pas toujours conçus pour eux. Une étude menée au Royaume-Uni menée par The Alan Turing Institute cherche à savoir comment ces technologies influencent leur bien-être, leur créativité, leur apprentissage et leurs relations sociales.

L’un des premiers constats : l’IA générative fait déjà partie du quotidien d’une partie des enfants. Environ 1 enfant sur 4 entre 8 et 12 ans déclare en avoir utilisé, souvent à travers des outils comme ChatGPT, Gemini ou My AI sur Snapchat. Les enfants des écoles privées y ont accès beaucoup plus souvent que ceux des écoles publiques, ce qui creuse un écart entre eux.

Les usages sont variés : création d’images, recherche d’informations, divertissement… et les plus grands (12 ans) s’en servent aussi pour faire leurs devoirs. Chez les enfants ayant des besoins éducatifs particuliers, l’IA sert surtout à communiquer, s’exprimer et se sentir moins seuls. Les enfants ayant des difficultés d’apprentissage l’utilisent souvent pour s’exprimer, communiquer, ou se sentir moins seuls.

Du côté des adultes, l’ambiance est partagée. Les parents sont majoritairement positifs, mais ils s’inquiètent des risques de contenus inappropriés ou trompeurs. En revanche, la triche scolaire ne semble pas les alarmer autant. Les enseignants, eux, voient un gain de temps et d’efficacité grâce à l’IA dans leur propre travail. Mais ils s’inquiètent de son impact sur la créativité, l’engagement en classe et la diversité des idées des élèves. Une majorité a constaté que certains élèves rendent des devoirs générés entièrement par IA.

Lors d’ateliers créatifs organisés dans des écoles publiques en Écosse, les enfants ont montré une réelle capacité à réfléchir aux usages de l’IA. Beaucoup ont évoqué des inquiétudes environnementales : ils se demandent si utiliser l’IA vaut la peine, vu la consommation d’énergie et d’eau qu’elle implique. D’autres se méfient des contenus que l’IA peut produire, notamment quand il est difficile de savoir si une information est vraie ou fausse.

Ils aimeraient que l’IA soit utilisée pour aider les autres, notamment les enfants qui ont plus de difficultés à l’école. Mais ils notent aussi que les images générées par l’IA ne les représentent pas toujours, en particulier pour les enfants issus de minorités. Et malgré leur intérêt pour ces nouvelles technologies, beaucoup préfèrent encore dessiner ou bricoler « en vrai » quand on leur en donne la possibilité.

Les résultats quantitatifs et qualitatifs se complètent. Ils montrent que l’IA peut avoir des effets positifs, notamment pour les enfants en difficulté, mais qu’elle soulève aussi des risques importants. Les enfants ne sont pas naïfs : ils posent de bonnes questions, s’inquiètent de la fiabilité, de l’impact écologique ou du manque de diversité dans les contenus générés. Les différences sociales jouent un rôle fort : les enfants les plus favorisés y ont plus facilement accès, ce qui pourrait accentuer les inégalités éducatives.

Demain, l’IA

L’étude propose plusieurs recommandations concrètes :

Les enfants ne sont pas de simples usagers passifs de l’IA. Ils sont acteurs, curieux et critiques, et méritent d’être écoutés. Pour que l’IA soit vraiment utile à tous, il faut penser avec eux, pas seulement pour eux.

Faut-il interdire les smartphones ?

mardi 3 juin 2025 à 07:17

Un état des lieux scientifique en 2025

Les smartphones sont désormais omniprésents dans la vie des adolescents : en 2022, 98 % des jeunes de 15 ans dans les pays de l’OCDE possédaient un smartphone connecté (OCDE, 2025). Face à l’inquiétude grandissante autour de leurs effets sur la santé mentale, la réussite scolaire et le bien-être social, la tentation d’en limiter ou d’en interdire l’usage, notamment à l’école, est forte. Mais que dit la recherche ? Faut-il vraiment bannir les smartphones ?

Interdire les smartphones à l’école : un impact limité

Les politiques scolaires restrictives visant à interdire les smartphones sont de plus en plus répandues. Pourtant, leur efficacité reste modérée. Plusieurs études de grande ampleur convergent sur ce point :

En somme, interdire les smartphones en milieu scolaire réduit certes leur usage pendant la journée, mais ce temps d’écran est généralement reporté en dehors de l’école. Le gain sur le plan du bien-être ou de la réussite scolaire reste très limité.

Des effets différenciés selon les profils

Certaines études révèlent toutefois des bénéfices plus marqués chez des sous-groupes spécifiques, notamment chez les filles et les élèves issus de milieux défavorisés :

Pourquoi l’interdiction n’est pas la solution miracle

Si les usages intensifs des smartphones et des réseaux sociaux sont associés à une diminution du bien-être, à une augmentation de l’anxiété, des troubles du sommeil et des difficultés scolaires, l’interdiction pure et simple n’enraye pas ces phénomènes. Elle peut même s’avérer contre-productive :

Quelle alternative ? Vers un usage réfléchi et accompagné

Les recherches récentes insistent sur la nécessité de dépasser la logique du “tout ou rien” et de privilégier l’éducation et la co-construction des règles :

Recommandations des institutions internationales

Les organisations internationales, dont l’OCDE et la Lancet Digital Health, recommandent une approche équilibrée :

Conclusion

Interdire purement et simplement les smartphones, notamment à l’école, n’est pas une solution miracle : l’effet sur la santé mentale et la réussite scolaire est modeste, voire inexistant, même si certains groupes vulnérables peuvent en bénéficier davantage. La clé réside dans une régulation adaptée, associant protection, éducation et participation des jeunes à l’élaboration des règles. Les enjeux du numérique sont avant tout éducatifs, sociaux et éthiques : il s’agit moins de bannir que d’accompagner, pour que les smartphones deviennent de véritables outils d’autonomie et de bien-être.

Références

ChatGPT peut-il penser comme un psychanalyste ?

dimanche 25 mai 2025 à 09:29

Dans mes discussions avec mes collègues, je suis souvent surpris par la certitude avec laquelle ils affirment qu’une IA ne les remplacera jamais. Il me semble que c’est un bon exemple de la blessure algorithmique, une nouvelle blessure narcissique – après la blessure copernicienne (la Terre n’est pas le centre de l’univers), la blessure darwinienne (l’homme est un animal comme les autres) et la blessure psychanalytique (« le Moi n’est pas le maître dans sa propre maison ») – que les IA infligent à l’humanité.

De fait, les IA font déjà au moins aussi bien que les psychanalystes, comme cela a été montré dans une étude récente. Une équipe de chercheurs sud-coréens s’est posé la question suivante : ChatGPT est-il capable de produire des interprétations psychodynamiques crédibles, comme le ferait un clinicien formé à la psychanalyse ? Pour le savoir, ils ont soumis à l’intelligence artificielle un cas clinique psychiatrique issu de la littérature, centré sur une patiente souffrant de crises d’angoisse et de dépression.

L’objectif : voir si ChatGPT peut non seulement résumer les faits, mais aussi proposer une formulation psychodynamique, c’est-à-dire une interprétation du fonctionnement psychique du patient en lien avec son histoire, ses émotions et ses conflits internes.

Comment l’étude a-t-elle été menée ?

Les chercheurs ont testé quatre types de demandes (ou “prompts”) adressées à ChatGPT :

  1. Un prompt simple : “Voici l’histoire du cas, propose une formulation”.Un prompt enrichi avec des mots-clés générés par ChatGPT lui-même.
  2. Un prompt avec des mots-clés choisis par un psychiatre.
  3. Un prompt combinant l’histoire et des concepts psychanalytiques classiques (comme « représentation d’objet », « cohésion du moi », « mécanismes de défense »).

À partir de chacun de ces prompts, ChatGPT a produit une formulation complète. On lui a ensuite demandé de le faire selon trois approches différentes de la psychanalyse :
– la psychologie du Moi,
– les relations d’objet,
– la psychologie du Self.

Cela a donné 12 textes différents, que cinq psychiatres cliniciens ont évalués à l’aveugle.

Qu’ont-ils découvert ?

Les résultats sont surprenants :

En bref, plus le prompt donnait de cadre théorique, plus l’IA produisait un texte riche et pertinent. Cela montre que ChatGPT peut non seulement traiter l’information, mais aussi s’adapter à différents modèles psychodynamiques.

Ce que ça veut dire

Même si l’intelligence artificielle n’a aucune conscience, ni formation clinique réelle, elle est capable de générer des textes ressemblant à des analyses psychanalytiques professionnelles, si elle reçoit les bonnes instructions. Cela ouvre des perspectives pour la formation des cliniciens, la supervision, ou même des outils d’aide à la réflexion thérapeutique.

Mais attention : il s’agit d’une étude exploratoire, basée sur un seul cas, et les résultats reposent sur l’avis subjectif de quelques experts. ChatGPT n’est pas (encore) un psychanalyste, mais il peut en imiter le langage et le raisonnement, à condition qu’on lui fournisse le bon cadre.

I'm richer than you! infinity loop