
IA et travail social : comprendre les enjeux éthiques, les risques et les limites professionnelles
- Posted by L'Hypno-Alchimiste
- Categories Réflexions professionnelles en travail social
- Date 9 mai 2026
- Comments 0 comment
- Tags anonymisation données sociales, confidentialité travail social, données sensibles travail social, éthique IA social, IA travail social, intelligence artificielle travail social, posture professionnelle, protection des données sociales, RGPD travail social, travail social
IA et travail social : les risques éthiques à ne pas sous-estimer
L’intelligence artificielle peut soutenir certaines pratiques professionnelles, mais son usage dans le travail social soulève des questions majeures de confidentialité, de responsabilité, de biais et de protection des personnes accompagnées.
Cadre de lecture Une lecture éthique, professionnelle et responsable de l’IA dans le travail social
Cet article s’adresse aux professionnels du travail social, aux étudiants du secteur social et médico-social, ainsi qu’aux structures qui commencent à intégrer des outils d’intelligence artificielle dans leurs pratiques quotidiennes.
Il constitue la suite directe d’un précédent article consacré aux usages concrets de l’IA dans le travail social : aide à la rédaction, organisation des informations, soutien administratif ou encore gain de temps dans certaines tâches répétitives.
L’objectif ici est différent.
Il ne s’agit plus de présenter ce que l’IA permet de faire, mais d’examiner les questions éthiques et professionnelles que son utilisation soulève dans les métiers de l’accompagnement.
Car dans le travail social, l’usage d’un outil ne peut jamais être dissocié de ses conséquences sur les personnes accompagnées, sur les pratiques professionnelles et sur la responsabilité des institutions.
Dans le précédent article, nous avons vu que l’intelligence artificielle pouvait devenir un outil utile dans le travail social, notamment pour soutenir la rédaction, structurer l’information et dégager du temps pour la relation humaine.
Mais cette utilité n’a de sens que si elle s’inscrit dans un cadre clair.
Car utiliser l’IA dans le travail social, ce n’est jamais un simple geste technique.
C’est un acte professionnel qui engage la confidentialité, la responsabilité et l’éthique.
Et c’est précisément là que les enjeux deviennent sensibles.
Le premier risque : les données sensibles
Dans le travail social, tu manipules des informations particulièrement sensibles.
Des histoires de vie.
Des parcours complexes.
Des situations parfois fragiles.
Mais il ne faut pas oublier une chose essentielle : dès qu’une information est saisie dans un outil d’intelligence artificielle en ligne, elle devient une donnée numérique qui quitte souvent ton environnement professionnel immédiat.
Or, beaucoup d’outils d’IA fonctionnent via des serveurs externes, parfois hébergés dans d’autres pays, avec des politiques de traitement des données difficiles à comprendre pour les utilisateurs.
Cela signifie concrètement une chose :
Tout ce que tu écris peut potentiellement être stocké, analysé, conservé ou réutilisé.
Et c’est précisément là que les inquiétudes apparaissent.
Car au final, très peu de professionnels savent réellement ce que deviennent les données envoyées à ces plateformes.
Sont-elles simplement utilisées pour générer une réponse ?
Sont-elles conservées pendant plusieurs mois ?
Servent-elles à entraîner les futurs modèles d’intelligence artificielle ?
Peuvent-elles être revendues, croisées avec d’autres données ou exploitées à des fins commerciales ?
Dans la majorité des cas, les réponses restent floues.
Même lorsque les plateformes affichent des politiques de confidentialité ou des garanties de sécurité, celles-ci sont souvent longues, techniques et difficiles à interpréter concrètement dans un cadre professionnel.
Le problème n’est donc pas uniquement technique.
Il est aussi éthique et juridique.
Car une donnée personnelle dans le travail social n’est jamais une simple information.
C’est une partie de la vie d’une personne.
Et une fois cette donnée transmise à une plateforme externe, il devient très difficile de savoir où elle circule réellement, qui peut y avoir accès et comment elle sera utilisée dans le futur.
Le risque principal n’est donc pas l’outil en lui-même.
C’est son utilisation sans cadre clair, sans vigilance et sans réelle maîtrise du devenir des données personnelles.
L’anonymisation : une fausse sécurité ?
Face à ce risque, beaucoup adoptent une solution qui paraît logique et professionnelle :
anonymiser les situations.
Et il faut reconnaître une chose importante : dans le travail social, l’anonymisation fait déjà partie de la culture professionnelle.
Dès les études et les formations, on apprend à protéger les personnes accompagnées.
On apprend à modifier les noms, à retirer les lieux précis, à éviter certains détails trop reconnaissables.
Dans les écrits professionnels, les analyses de pratique ou les échanges entre collègues, cette vigilance est constamment rappelée.
C’est même une base du métier.
Les travailleurs sociaux savent qu’ils manipulent des informations sensibles et qu’ils ont une responsabilité dans la manière de les transmettre.
C’est pour cela que beaucoup pensent naturellement que l’utilisation de l’IA reste acceptable à partir du moment où les situations sont anonymisées.
En apparence, cela semble effectivement suffisant.
On enlève les noms, les adresses, les dates précises, les éléments directement identifiants.
Mais dans la pratique, la réalité est plus complexe.
Car une situation sociale ne se résume pas à un nom ou à une adresse.
Une personne peut parfois être reconnue à travers :
- son parcours,
- la composition familiale,
- une situation administrative particulière,
- un événement précis,
- une combinaison de difficultés,
- ou simplement le contexte territorial.
Dans certains secteurs, notamment en milieu rural ou dans des dispositifs spécialisés, quelques détails peuvent suffire à identifier quelqu’un.
Même sans nom.
Et c’est précisément ce qui rend l’usage de l’IA délicat.
Car lorsqu’on rédige une demande à une intelligence artificielle, on a souvent tendance à donner beaucoup de contexte pour obtenir une réponse pertinente.
Plus on détaille la situation, plus l’outil peut produire une réponse adaptée.
Mais plus on détaille, plus le risque augmente.
C’est un paradoxe important.
L’efficacité de l’IA repose souvent sur la précision des informations fournies.
Or cette précision peut entrer en contradiction avec les principes de confidentialité.
Il existe aussi un autre problème souvent sous-estimé :
on ne maîtrise pas toujours ce que deviennent les données transmises.
Même lorsqu’une plateforme affirme ne pas conserver les informations, peu de professionnels savent réellement :
- où les données sont stockées,
- combien de temps elles le sont,
- qui peut potentiellement y accéder,
- ou comment elles peuvent être réutilisées.
Et dans le travail social, cette incertitude pose déjà une question éthique majeure.
L’anonymisation reste donc une précaution utile.
Elle fait partie des réflexes professionnels indispensables.
Mais elle ne constitue pas une garantie absolue.
Elle réduit le risque.
Elle ne l’élimine pas.
C’est pourquoi l’utilisation de l’IA dans le travail social ne peut pas reposer uniquement sur le réflexe :
« j’ai retiré les noms, donc c’est sécurisé ».
La réflexion doit aller plus loin.
Elle doit interroger :
- la nature des informations transmises,
- le contexte d’utilisation,
- le type d’outil utilisé,
- et surtout la place réelle de ces outils dans l’accompagnement social.
Car protéger les personnes accompagnées ne consiste pas seulement à masquer leur identité.
Cela consiste aussi à préserver leur histoire, leur intimité et leur confiance.
L’illusion d’une analyse neutre
L’IA donne souvent des réponses structurées, cohérentes et parfois particulièrement convaincantes.
Cette qualité de formulation peut rapidement créer une impression de fiabilité, voire d’objectivité.
Pourtant, il est essentiel de rappeler une chose fondamentale : une intelligence artificielle ne raisonne pas comme un professionnel.
Elle ne comprend pas réellement les situations qu’elle traite.
Elle produit des réponses à partir de probabilités, de modèles statistiques et de données sur lesquelles elle a été entraînée.
Cela implique plusieurs limites importantes.
L’IA peut reproduire :
- Des biais culturels
- Des représentations sociales implicites
- Des approximations
- Des simplifications excessives
- Ou encore des informations inexactes
Et surtout, elle peut présenter ces erreurs avec une apparence de certitude très crédible.
C’est précisément ce qui rend son utilisation sensible dans le travail social.
Le danger n’est pas uniquement qu’elle se trompe.
Le danger est qu’elle produise une réponse suffisamment bien formulée pour être acceptée sans vérification.
C’est pourquoi la responsabilité professionnelle reste entièrement du côté de l’utilisateur.
Une réponse générée par une IA ne doit jamais être considérée comme une vérité automatique ou une analyse validée.
Elle doit être relue, questionnée, confrontée au cadre professionnel et vérifiée.
Cela implique notamment :
- De demander les sources lorsque l’outil en fournit
- De vérifier les références citées
- De croiser les informations avec des ressources fiables
- D’analyser la cohérence des propositions faites
- Et de garder un regard critique sur les formulations produites
L’IA peut assister une réflexion.
Elle ne remplace ni l’expertise professionnelle, ni le discernement humain.
Dans le travail social, cette vigilance est indispensable, car les décisions prises ont des conséquences concrètes sur les personnes accompagnées.
Les biais dans les décisions sociales
Dans le travail social, chaque décision a un impact concret sur la vie des personnes accompagnées.
Orientation
Accompagnement
Évaluation
Positionnement professionnel
Aucune recommandation produite par une intelligence artificielle ne peut donc être utilisée sans analyse critique.
L’IA peut proposer une synthèse, suggérer une formulation ou mettre en avant certains éléments d’une situation. Mais elle ne comprend ni la complexité humaine, ni le contexte institutionnel, ni les enjeux relationnels propres au travail social.
Si tu t’appuies sur une analyse produite par une IA, même partiellement, tu introduis potentiellement un biais invisible.
Et ce biais n’est pas toujours détectable immédiatement.
Certaines réponses peuvent sembler cohérentes, professionnelles et rassurantes alors qu’elles contiennent des approximations, des oublis ou des interprétations erronées.
C’est précisément pour cette raison que la responsabilité du professionnel reste centrale.
L’IA ne doit jamais être considérée comme une source fiable à laquelle on fait confiance aveuglément.
Chaque information produite doit être relue, vérifiée, confrontée au terrain et replacée dans le contexte réel de la situation.
Le professionnel conserve en permanence la responsabilité de l’analyse, du discernement et de la décision finale.
L’outil peut assister.
Il ne remplace ni le jugement professionnel, ni l’expérience, ni l’éthique du travailleur social.
C’est là que la vigilance professionnelle devient essentielle.
La dilution de la responsabilité
L’IA peut proposer des pistes, structurer une réflexion ou aider à faire émerger certains éléments d’analyse.
Mais elle ne décide pas.
Et surtout, elle n’assume aucune conséquence liée aux décisions prises.
Dans le travail social, la responsabilité professionnelle reste entièrement humaine.
Toujours.
C’est au professionnel de garder la maîtrise du raisonnement, de l’évaluation de la situation et des choix d’accompagnement.
Les informations produites par une IA doivent donc être considérées comme des suggestions ou des supports de réflexion, jamais comme des réponses définitives.
Car une situation sociale ne peut pas être réduite à des données ou à des modèles statistiques.
Elle implique une compréhension fine du contexte, de l’histoire de la personne, de ses vulnérabilités, mais aussi de tout ce qui ne se formule pas toujours clairement dans un dossier ou un échange écrit.
Le risque apparaît lorsque l’outil commence à orienter les décisions sans que cela soit réellement questionné.
À force de s’appuyer sur des réponses rapides, structurées et convaincantes, le professionnel peut progressivement moins interroger ses propres analyses.
Et c’est précisément là que l’esprit critique peut s’affaiblir.
Or, dans le travail social, la capacité à douter, à nuancer et à confronter plusieurs lectures d’une situation est essentielle.
L’IA peut enrichir une réflexion.
Mais elle ne doit jamais remplacer le discernement professionnel.
On ne délègue pas seulement une tâche lorsqu’on s’en remet trop fortement à un outil.
On délègue une partie du raisonnement.
Et c’est à ce moment-là que la responsabilité peut commencer à se diluer.
Le risque institutionnel
À l’échelle des institutions, un autre phénomène peut apparaître.
Si l’IA permet de produire plus vite :
Alors la tentation peut être de produire plus.
Plus de rapports
Plus d’évaluations
Plus de suivi administratif
Mais produire plus ne signifie pas accompagner mieux.
Le véritable intérêt de l’IA dans le travail social devrait pourtant être ailleurs.
Si ces outils permettent de gagner du temps sur les tâches administratives, ce temps doit servir à renforcer l’accompagnement humain et social.
Plus de présence auprès des personnes.
Plus d’écoute.
Plus de disponibilité pour les situations complexes.
Plus de temps pour construire une relation de confiance.
Sinon, cela ne fait aucun sens.
Car l’objectif ne peut pas être de compenser des manques de moyens en augmentant encore la charge administrative ou les exigences de productivité.
L’IA ne devrait pas éloigner les professionnels du terrain.
Elle devrait au contraire leur permettre d’y revenir davantage.
Le risque, sinon, est de renforcer la logique administrative au détriment de la relation.
Et dans le travail social, c’est précisément cette relation qui fait la différence.
Former et encadrer les usages
L’IA ne va pas disparaître.
Elle va continuer à se développer et à s’intégrer progressivement dans les pratiques professionnelles.
Aujourd’hui, après plusieurs échanges avec des collègues du secteur social, un constat revient souvent : l’IA suscite davantage de peur que d’intérêt.
Cette inquiétude est compréhensible.
Elle vient principalement d’un manque de connaissance sur le fonctionnement des outils et sur leur utilisation éthique dans le travail social.
Beaucoup de professionnels ne savent pas réellement :
- Ce que l’IA peut faire
- Ce qu’elle ne peut pas faire
- Quels sont les risques
- Et surtout quelles limites doivent être posées
La vraie question devient donc :
Comment utiliser l’IA de manière professionnelle, responsable et sécurisée ?
Cela passe nécessairement par :
- Un cadre clair
- Des règles d’usage précises
- Une formation des équipes
- Une meilleure compréhension des outils IA
- Une réflexion éthique collective
Car sans accompagnement ni formation, chacun développe ses pratiques dans son coin, avec ses propres repères.
Et c’est précisément dans ce manque de cadre que les dérives peuvent apparaître.
Il devient donc indispensable de se former, non seulement à l’utilisation des outils d’intelligence artificielle, mais aussi à leur compréhension, afin de pouvoir les utiliser avec recul, discernement et responsabilité professionnelle.
Le cadre légal : le RGPD et les réglementations européennes
L’utilisation de l’intelligence artificielle dans le travail social ne relève pas uniquement d’une question éthique.
Elle s’inscrit également dans un cadre légal de plus en plus strict concernant la protection des données personnelles et sensibles.
En Europe, le RGPD (Règlement Général sur la Protection des Données) impose des règles précises sur :
- La collecte des données
- Le stockage des informations
- Le traitement automatisé
- Le consentement des personnes
- La confidentialité des données sensibles
Ces règles concernent directement les pratiques professionnelles liées à l’IA.
Dans le secteur social, les informations manipulées touchent souvent à :
- La santé
- La situation familiale
- Les difficultés financières
- Le parcours migratoire
- Les violences
- Les addictions
- La santé mentale
Autrement dit, des données particulièrement sensibles.
Même en Suisse, bien que le RGPD ne s’applique pas directement comme une loi nationale, il influence fortement les pratiques, notamment lorsque les données concernent des résidents européens ou lorsque des outils numériques internationaux sont utilisés.
La nouvelle Loi fédérale sur la protection des données (nLPD) va également dans cette direction, avec des exigences renforcées concernant la transparence, la sécurité et la responsabilité dans le traitement des informations personnelles.
Avec l’arrivée progressive des réglementations européennes sur l’intelligence artificielle, comme l’AI Act, les institutions sociales devront probablement renforcer encore davantage leurs pratiques de gouvernance numérique et leurs règles d’utilisation des outils IA.
L’objectif n’est pas d’interdire l’IA.
L’objectif est de garantir une utilisation responsable, sécurisée et respectueuse des droits fondamentaux des personnes accompagnées.
Ce qu’il faut retenir
L’intelligence artificielle peut être un outil utile.
Mais dans le travail social, elle ne peut jamais être utilisée sans réflexion.
Chaque usage engage des informations profondément personnelles :
- Des données administratives
- Des éléments de santé
- Des parcours familiaux
- Des difficultés financières
- Des violences vécues
- Des fragilités psychologiques
- Des situations de protection de l’enfance
- Des récits intimes confiés dans un cadre de confiance
Dans le travail social, ces informations ne sont pas de simples données techniques.
Elles représentent des morceaux de vie.
Et lorsqu’elles sont intégrées dans un outil d’intelligence artificielle, même de manière partielle ou anonymisée, plusieurs questions apparaissent immédiatement :
Qui peut accéder à ces informations ?
Où sont-elles stockées ?
Pendant combien de temps ?
Peuvent-elles être réutilisées pour entraîner des modèles ?
Le professionnel garde-t-il réellement le contrôle sur ce qu’il transmet ?
La confidentialité devient alors un enjeu central.
Car une fuite, une mauvaise utilisation ou une simple erreur de manipulation peut avoir des conséquences importantes pour les personnes accompagnées.
Dans certains cas, cela peut fragiliser une relation de confiance construite depuis des mois.
Dans d’autres, cela peut exposer des personnes déjà vulnérables.
La responsabilité professionnelle est donc directement engagée.
Utiliser l’IA dans le travail social ne consiste pas seulement à gagner du temps ou à produire des écrits plus rapidement.
Cela implique de réfléchir à la manière dont les informations personnelles circulent, sont protégées et potentiellement exploitées.
La qualité de l’accompagnement est également concernée.
Car plus un professionnel délègue l’analyse ou la formulation à un outil, plus il existe un risque de prendre de la distance avec la singularité réelle des situations humaines.
Une personne ne peut pas être réduite à un ensemble de données.
Un parcours de vie ne peut pas être résumé uniquement par des catégories ou des mots-clés.
L’enjeu n’est donc pas simplement d’utiliser ou non l’IA.
L’enjeu est de savoir comment tu l’utilises, dans quel cadre, avec quelles limites et avec quel niveau de vigilance concernant les informations personnelles confiées par les personnes accompagnées.
Conclusion
L’IA ouvre aujourd’hui des possibilités considérables pour le travail social.
Elle peut alléger certaines tâches administratives, faciliter l’organisation des informations, soutenir la rédaction ou encore permettre aux professionnels de dégager davantage de temps pour l’accompagnement humain.
Bien utilisée, elle peut devenir un véritable outil d’appui au service des équipes et des personnes accompagnées.
Mais cette puissance implique aussi une responsabilité importante.
Car dans le travail social, les enjeux ne sont jamais uniquement techniques.
Ils touchent directement à l’éthique, à la confidentialité, à la protection des données et à la qualité de la relation humaine.
C’est précisément pour cette raison que l’usage de l’IA ne peut pas reposer uniquement sur des initiatives individuelles.
Pour être réellement pertinente et sécurisée, son intégration doit être pensée en amont à un niveau institutionnel.
Cela suppose :
- un cadre clair,
- des règles d’utilisation définies,
- des outils validés,
- une réflexion juridique solide,
- et une véritable réflexion éthique collective.
Sans cela, chaque professionnel risque de développer ses propres pratiques, avec des niveaux de sécurité et de vigilance très variables.
L’enjeu n’est donc pas de refuser l’IA.
Au contraire.
L’enjeu est de construire des usages professionnels, responsables et encadrés, capables de tirer parti de ses avantages sans mettre en danger les personnes accompagnées ni les valeurs du travail social.
Car un outil aussi puissant ne reste jamais neutre lorsqu’il est utilisé sans réflexion collective ni cadre adapté.
Cadre scientifique
Les réflexions autour de l’intelligence artificielle dans les métiers de l’accompagnement humain se développent fortement depuis plusieurs années.
De nombreux chercheurs soulignent à la fois le potentiel de ces outils et les risques éthiques qu’ils impliquent dans les secteurs sociaux, éducatifs et médico-sociaux.
La chercheuse Virginia Eubanks, dans son ouvrage Automating Inequality (2018), montre notamment comment certains systèmes automatisés utilisés dans les politiques sociales peuvent renforcer les inégalités et produire des formes de discrimination invisibles. Ses travaux sont aujourd’hui largement mobilisés dans les débats sur l’usage des technologies dans les services publics et le travail social.
Dans la même logique, Cathy O’Neil, mathématicienne et auteure de Weapons of Math Destruction (2016), explique comment les algorithmes peuvent reproduire des biais sociaux lorsqu’ils sont utilisés sans contrôle humain suffisant. Elle insiste sur le fait que les outils algorithmiques ne sont jamais totalement neutres.
Plus récemment, plusieurs études européennes ont alerté sur les enjeux liés à la protection des données dans les métiers de l’accompagnement. Le rapport de l’UNESCO publié en 2021 sur l’éthique de l’intelligence artificielle rappelle notamment que les secteurs sociaux et éducatifs nécessitent une vigilance renforcée concernant la confidentialité, la transparence des systèmes et le respect des droits fondamentaux.
En France, la CNIL publie régulièrement des recommandations sur l’usage de l’IA et des données sensibles. Elle souligne que les professionnels manipulant des informations personnelles doivent appliquer des principes stricts de minimisation des données, de sécurité et de contrôle humain des décisions automatisées.
Des chercheurs en travail social comme Sarah Banks ou encore Michael Preston-Shoot insistent également sur la nécessité de préserver la dimension relationnelle du métier face à la montée des outils numériques. Leurs travaux rappellent que l’accompagnement social repose avant tout sur la confiance, l’écoute et le jugement professionnel humain.
Enfin, plusieurs recherches récentes en sciences sociales montrent que l’IA peut devenir un outil pertinent lorsqu’elle est utilisée comme soutien technique et non comme substitut à la décision professionnelle. Les études convergent sur un point essentiel : l’encadrement éthique, la formation des professionnels et la gouvernance institutionnelle sont indispensables pour limiter les dérives et garantir un usage responsable de ces technologies.
Pour aller plus loin
Une sélection courte, utile et lisible. Clique pour déplier.
⟡ Sur Hypno-Alchimiste IA et travail social : un outil sous-estimé ? ⌄
L’article précédent, consacré aux usages concrets de l’intelligence artificielle dans le travail social : rédaction, organisation des informations, soutien administratif et gain de temps.
Lire l’article ↗⟡ Sur Hypno-Alchimiste Posture professionnelle en travail social : trouver sa juste place ⌄
Un article de référence pour approfondir la posture professionnelle, le discernement, la responsabilité et la juste place du travailleur social dans l’accompagnement.
Lire l’article ↗↗ Repère externe Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle ⌄
Un cadre international pour penser les enjeux éthiques liés à l’intelligence artificielle, notamment la transparence, la responsabilité, la protection des données et le respect des droits fondamentaux.
Consulter la ressource ↗Questions fréquentes
Une FAQ dédiée aux risques éthiques de l’intelligence artificielle dans le travail social, pensée pour clarifier les enjeux de confidentialité, de responsabilité, de données sensibles, de biais et d’encadrement institutionnel.
Éthique Pourquoi l’usage de l’IA dans le travail social pose-t-il autant de questions éthiques ?
Parce que le travail social manipule des informations profondément humaines : des parcours de vie, des fragilités, des situations familiales, administratives, psychologiques ou financières. Ce ne sont pas de simples données techniques. Ce sont des morceaux de vie confiés dans un cadre de confiance.
Dès qu’un professionnel utilise une IA avec ce type d’informations, il engage des questions de confidentialité, de responsabilité, de protection des données et de discernement professionnel. L’outil peut être utile, mais son usage n’est jamais neutre.
À mon sens, le problème n’est pas l’IA en elle-même. Le vrai risque, c’est son utilisation sans cadre clair, sans formation et sans réflexion éthique collective.
Données Peut-on entrer des informations sur une personne accompagnée dans une IA ?
De manière générale, je considère qu’il faut être extrêmement prudent, surtout avec les outils d’IA en ligne non validés par une institution. Une situation sociale contient souvent des données sensibles : santé, famille, parcours migratoire, violences, addictions, protection de l’enfance, difficultés financières ou santé mentale.
Si ces informations sont saisies dans un outil externe, on ne maîtrise pas toujours leur stockage, leur conservation, leur traitement ou leur réutilisation éventuelle. C’est précisément ce qui rend l’usage délicat.
En cas de doute, ma position est simple : mieux vaut ne pas transmettre l’information. La prudence protège la personne accompagnée, le professionnel et l’institution.
Confidentialité L’anonymisation suffit-elle à sécuriser l’usage de l’IA ?
Non, pas toujours. L’anonymisation est une précaution indispensable, mais elle ne constitue pas une garantie absolue. Dans le travail social, une personne peut parfois être reconnue sans que son nom apparaisse, simplement grâce à la combinaison de plusieurs éléments.
Un parcours particulier, une situation administrative rare, une composition familiale spécifique, un événement marquant ou un contexte territorial peuvent suffire à rendre une situation identifiable, surtout dans un milieu rural ou dans un dispositif spécialisé.
Retirer les noms ne suffit pas toujours. Il faut aussi réfléchir à la nature des détails transmis et au risque de reconnaissance indirecte.
Analyse Pourquoi ne faut-il pas considérer l’IA comme une analyse neutre ?
Parce qu’une IA ne comprend pas une situation comme un professionnel. Elle produit des réponses à partir de modèles statistiques, de probabilités et de données d’entraînement. Elle peut formuler une réponse claire, cohérente et convaincante, mais cela ne signifie pas que cette réponse soit juste.
Elle peut reproduire des biais culturels, des représentations sociales implicites, des approximations ou des erreurs. Le danger, c’est précisément que ces erreurs puissent être formulées avec beaucoup d’assurance.
Une réponse bien écrite n’est pas forcément une réponse fiable. Dans le travail social, cette nuance est fondamentale.
Responsabilité Qui est responsable si une décision est influencée par une IA ?
La responsabilité reste du côté humain. L’IA ne signe pas un rapport, ne rencontre pas la personne, ne connaît pas le contexte réel et n’assume aucune conséquence. C’est le professionnel, et parfois l’institution, qui restent responsables de l’analyse, de la décision et de l’usage fait de l’outil.
C’est pour cela que l’IA doit être considérée comme un support de réflexion, jamais comme une autorité décisionnelle. Elle peut proposer, mais elle ne doit pas décider.
On peut déléguer une aide à la formulation. On ne devrait jamais déléguer le discernement professionnel.
Biais Quels biais l’IA peut-elle introduire dans le travail social ?
L’IA peut introduire des biais culturels, sociaux, administratifs ou normatifs. Elle peut par exemple simplifier une situation complexe, privilégier certains angles d’analyse, reproduire des représentations dominantes ou formuler des recommandations qui semblent pertinentes, mais qui ne tiennent pas compte du vécu réel de la personne.
Dans le travail social, ce risque est important, car les décisions et les orientations ont des effets concrets sur la vie des personnes accompagnées. Un biais invisible peut influencer une lecture de situation sans que le professionnel s’en rende compte immédiatement.
Institution Pourquoi l’encadrement institutionnel est-il indispensable ?
Parce que sans cadre institutionnel, chaque professionnel risque de développer ses propres usages, avec ses propres limites et son propre niveau de vigilance. Cela crée des pratiques très variables, parfois prudentes, parfois beaucoup plus risquées.
Une institution devrait définir quels outils peuvent être utilisés, pour quels usages, avec quelles données, dans quelles limites et selon quelles règles de vérification. Elle devrait aussi former les équipes aux risques, aux possibilités et aux obligations légales.
L’IA ne devrait pas reposer uniquement sur des initiatives individuelles. Son intégration doit être pensée collectivement.
Cadre légal Le RGPD et la nLPD concernent-ils l’usage de l’IA dans le travail social ?
Oui, dès qu’il est question de données personnelles ou sensibles. Le RGPD encadre fortement le traitement des données en Europe, et même en Suisse, il peut influencer les pratiques, notamment lorsque des outils internationaux sont utilisés ou que des données concernent des résidents européens.
La nouvelle Loi fédérale sur la protection des données, la nLPD, renforce aussi les exigences de transparence, de sécurité et de responsabilité. Dans le travail social, ces dimensions sont centrales, car les informations manipulées sont souvent particulièrement sensibles.
Le cadre légal ne doit pas être vu comme une contrainte extérieure, mais comme une protection nécessaire pour les personnes accompagnées.
Pratique Comment utiliser l’IA de manière plus responsable dans une pratique sociale ?
Pour moi, une utilisation responsable commence par quelques principes simples : ne pas transmettre de données identifiantes, limiter les informations au strict nécessaire, vérifier systématiquement les réponses, garder la maîtrise du raisonnement et ne jamais utiliser l’IA comme substitut à une analyse professionnelle.
Il faut aussi distinguer les usages à faible risque, comme reformuler un texte général, des usages sensibles, comme analyser une situation réelle. Plus l’information touche à une personne accompagnée, plus le niveau de vigilance doit augmenter.
Le bon réflexe consiste à se demander : est-ce que ce que je transmets à l’outil respecte réellement la confidentialité, la dignité et la confiance de la personne concernée ?
Relation L’IA risque-t-elle d’éloigner les professionnels du terrain ?
Oui, si elle est utilisée pour produire toujours plus d’administratif. Si l’IA sert uniquement à accélérer les rapports, les évaluations et les suivis sans redonner du temps à la relation humaine, alors elle risque de renforcer une logique déjà problématique.
Le véritable intérêt devrait être inverse : gagner du temps sur certaines tâches pour revenir davantage au terrain, à l’écoute, à la présence et à l’accompagnement. Dans le travail social, la qualité de la relation reste centrale.
Une IA utile dans le travail social devrait rapprocher les professionnels des personnes accompagnées, pas les éloigner davantage derrière des écrans.
Formation Faut-il former les travailleurs sociaux à l’intelligence artificielle ?
Oui, clairement. L’IA va continuer à se développer, et les professionnels y seront de plus en plus confrontés. Ne pas former les équipes, c’est laisser chacun apprendre seul, avec des repères parfois fragiles et des risques mal compris.
La formation ne devrait pas seulement expliquer comment utiliser un outil. Elle devrait aussi aborder ce que l’IA ne peut pas faire, les risques de biais, la confidentialité, les données sensibles, la vérification des sources, la responsabilité professionnelle et les limites éthiques.
Former à l’IA, ce n’est pas pousser les professionnels à l’utiliser partout. C’est leur donner les moyens de l’utiliser avec discernement ou de refuser certains usages de manière argumentée.
Continuer la réflexion, entre pairs
Si vous travaillez dans le champ psycho-social au sens large (psychologues, travailleurs sociaux, éducateurs, soignants, cadres, intervenants), je vous propose un espace simple pour partager vos retours, confronter des hypothèses, et enrichir une lecture du terrain au fil des situations réelles.
Indexation & référencement – Fiche éditoriale de l’article (IA, éthique, données sensibles, responsabilité)
Cette section précise la nature, l’intention et le cadre de lecture de cet article consacré aux enjeux éthiques de l’intelligence artificielle dans le travail social. Elle permet de contextualiser les risques liés aux données, à la responsabilité professionnelle, aux biais et à l’encadrement institutionnel, tout en facilitant l’indexation sémantique et en limitant toute interprétation simpliste ou normative.
Nature de l’article
Analyse critique et réflexion éthique professionnelle. Texte pédagogique visant à explorer les limites, les risques et les enjeux de responsabilité liés à l’usage de l’intelligence artificielle dans les pratiques d’accompagnement social.
Objectif éditorial
Mettre en lumière les risques souvent sous-estimés de l’IA dans le travail social : confidentialité des données, anonymisation partielle, biais algorithmiques, illusion d’objectivité, dilution de la responsabilité et dérives institutionnelles. L’objectif est d’amener une réflexion professionnelle structurée, et non de proposer une interdiction ou une solution simpliste.
Cadre théorique mobilisé
Éthique professionnelle en travail social : responsabilité, confidentialité, respect de la personne.
Protection des données : RGPD, nLPD, principes de minimisation et de sécurité.
Biais algorithmiques : reproduction de normes sociales et limites des modèles statistiques.
Relation d’aide : importance de la présence humaine, du contexte et du discernement.
Responsabilité professionnelle : impossibilité de déléguer le jugement et la décision à un outil.
Public visé
Professionnels du travail social (éducateurs, assistants sociaux, intervenants psycho-sociaux, cadres), ainsi que étudiants, formateurs et institutions souhaitant intégrer l’IA de manière réfléchie et encadrée dans leurs pratiques.
Ce que ce texte met en avant
La sensibilité des données sociales et leur exposition potentielle via les outils numériques.
Les limites de l’anonymisation dans des contextes réels.
L’illusion d’une neutralité algorithmique.
Le rôle central du discernement professionnel face aux outils IA.
Le risque de dérive institutionnelle vers plus de production administrative.
La nécessité d’un cadre collectif, de formation et de gouvernance des usages.
À ne pas en déduire
Pas de rejet global de l’intelligence artificielle.
Pas d’interdiction universelle d’usage.
Pas de solution unique applicable à toutes les institutions.
Pas de simplification du travail social à des problématiques techniques.
Le texte propose une lecture critique et une réflexion éthique, pas une norme figée.
Mots-clés (sémantique positive)
IA travail social éthique, données sensibles accompagnement, confidentialité travail social, anonymisation limites, biais intelligence artificielle, responsabilité professionnelle IA, RGPD travail social, nLPD données personnelles, relation humaine accompagnement, gouvernance numérique institutions sociales, discernement professionnel IA.
Exclusions sémantiques (mots-clés négatifs)
solution miracle IA, automatisation totale accompagnement, remplacement humain, analyse automatique fiable, neutralité absolue IA, simplification du travail social, recette rapide, décision automatisée sans contrôle, vérité algorithmique.
Angles d’indexation sémantique
Risques éthiques de l’intelligence artificielle en travail social.
Tension entre efficacité technique et responsabilité humaine.
Données sensibles et confidentialité dans les pratiques numériques.
Limites de l’anonymisation et reconnaissance indirecte.
IA comme outil d’appui vs IA comme substitut décisionnel.
Nécessité d’un cadre institutionnel et d’une formation des professionnels.
Cadre de responsabilité
Ce texte constitue une réflexion professionnelle. Il ne représente pas une position institutionnelle officielle, n’est pas un cadre juridique exhaustif, n’est pas un protocole d’utilisation, et ne remplace pas une formation, une supervision ou une analyse institutionnelle.
Auteur (contextualisation)
Rayan Gori (Hypno-Alchimiste). Travailleur social et praticien, réflexion issue de l’expérience de terrain et d’une approche indépendante. Cet article s’inscrit dans une démarche de clarification des pratiques professionnelles face aux évolutions technologiques et aux enjeux éthiques contemporains.
Curieux·se d’en savoir plus sur moi ?
→ Je vous invite à lire mon post de présentation dans le forum dédié.
Ce sera plus simple… et sûrement plus parlant que quelques lignes ici !



