Dans cet entretien pour Nexem, Frédéric Lauféron (Directeur général de l’Udaf 74, président de la Commission PJM de Nexem et ambassadeur IA) partage le bilan d’un an de cafés IA menés en 2025 sur le département de la Haute-Savoie. Il y défend une approche pragmatique, éthique et encadrée de l’IA dans le secteur social et médico-social : partir des besoins réels, former les équipes, sécuriser les usages… et surtout garder l’humain au centre.

Entretien avec Frédéric Lauféron : « Associations, l’urgence de la prudence face à l’IA »

Alors que l’intelligence artificielle se diffuse dans le secteur social et médico-social, Frédéric Lauféron, directeur général de l’UDAF74, président de la Commission PJM de Nexem et ambassadeur IA, partage le bilan d’un an de cafés IA. Il y défend une approche pragmatique et encadrée : partir des besoins, former, sécuriser… en gardant l’humain au centre.

Dans cet entretien, Frédéric Lauféron, ambassadeur IA dans le réseau des ambassadeurs porté par le ministère en charge du numérique et la Direction générale des entreprises, partage le bilan d’une année passée à animer, à titre personnel, des cafés consacrés à l’intelligence artificielle dans son écosystème local.

Cette démarche, est une initiative individuelle, en dehors des actions de notre fédération. Elle lui a permis de tester des usages concrets, de recueillir les questions et les inquiétudes des équipes et de préciser, en tant que dirigeant, les limites qu’il souhaite poser à l’introduction de ces outils dans ses organisations.

À partir de cette expérience de terrain, nous vous proposons de réfléchir avec lui à une question centrale : pourquoi et comment les associations du secteur social et médico-social peuvent-elles investir l’intelligence artificielle avec prudence ? Alors que cette technologie se diffuse dans tous les secteurs, y compris le travail social et l’économie solidaire, elle est souvent présentée comme une solution évidente aux contraintes de temps ou de moyens. Frédéric Lauferon défend une approche pragmatique et éthique : partir des besoins réels, identifier les usages légitimes, former et encadrer les pratiques, et refuser de confondre effet de mode et réelle utilité pour les personnes accompagnées comme pour les professionnels.

Pourquoi vous êtes-vous saisi du sujet de l’intelligence artificielle ?

Parce que nous sommes face à l’une des révolutions technologiques les plus impactantes de l’ère moderne, quels que soient les secteurs d’activité. C’est, en soi, aussi fascinant que perturbant.

Dans le même temps, on observe un véritable effet de mode : beaucoup d’organisations veulent montrer qu’elles « font de l’intelligence artificielle », parfois sans savoir clairement à quoi cela servira. Une étude internationale menée par Informatica et Wakefield Research (CDO Insights 2025, 9 octobre 2025) montre que 97 % des entreprises reconnaissent ne pas réussir à démontrer la valeur de leurs projets d’intelligence artificielle générative, alors même qu’elles y consacrent déjà des budgets importants. Et 87 % d’entre elles prévoient de continuer à investir massivement.

Dans le monde associatif, nous portons une mission sociale. Nous ne pouvons pas suivre ce mouvement par mimétisme, en adoptant une technologie simplement parce qu’elle est à la mode. De plus en plus de structures s’équipent de logiciels dits « intelligents » pour résumer des réunions, gérer des plannings, produire des supports de communication, optimiser des achats ou trier des dossiers d’usagers, souvent sans bien comprendre précisément comment ces outils fonctionnent ni mesurer les risques associés.

Notre responsabilité de dirigeants associatifs est différente : nous devons partir des besoins réels des personnes accompagnées et des équipes, puis définir un cadre éthique précis avant d’introduire ces outils. C’est pour cela que je me suis saisi du sujet : pour sortir du discours général, regarder ce que l’intelligence artificielle change vraiment dans nos pratiques, évaluer ce qu’elle peut apporter, identifier les risques et poser des repères clairs pour qu’elle reste un moyen au service du projet associatif, et non l’inverse.

Qu’avez-vous observé au fil de vos cafés IA en région Auvergne- Rhône-Alpes ?

Au fil de ces rencontres, j’ai constaté beaucoup de curiosité. Les participants souhaitent comprendre ce qu’est concrètement l’intelligence artificielle, ce qu’elle peut apporter à leurs pratiques et où se situent les limites. J’ai aussi vu émerger des usages individuels, plus discrets : des professionnels utilisent déjà des assistants conversationnels ou des générateurs de texte pour préparer une réunion, rédiger un compte rendu ou retravailler un courrier… sans que cela soit vraiment nommé, sans formation dédiée et sans cadre fixé par l’employeur. Ces pratiques individuelles, parfois cachées, posent des questions en matière de qualité des contenus produits, de protection des données et de respect de la confidentialité.

Par ailleurs, on observe également une réalité déjà visible dans d’autres secteurs : les gains de productivité annoncés restent difficiles à objectiver, et beaucoup de projets pilotes n’aboutissent pas ou restent au stade d’expérimentations ponctuelles. Cela confirme, à mes yeux, qu’il serait imprudent de généraliser l’usage de ces outils sans avoir d’abord défini un cadre clair.

Pour moi, l’enjeu central est désormais la montée en compétence collective. Les associations ne doivent pas subir l’arrivée de l’IA, mais chercher à la comprendre. Former les salariés et les bénévoles est une condition pour un usage éclairé et responsable. C’est aussi une manière de reprendre la main sur une technologie qui est souvent perçue comme opaque.

Mon appartenance au réseau des ambassadeurs IA, porté par le ministère en charge du numérique et la Direction Générale des Entreprises m’a vite fait comprendre que le secteur associatif reste un angle mort des politiques publiques en matière de déploiement de l’IA. Autrement dit, il va falloir que nous nous emparions, nous-mêmes, de ce sujet.

Cette approche rejoint les analyses du fonds de dotation Abilitis, qui plaide pour une sensibilisation large des professionnels et du grand public afin de développer une culture numérique éthique. Sans ce travail d’acculturation, le risque est double : d’un côté, un rejet de la technologie par peur ou méfiance ; de l’autre, un usage naïf et non encadré, fondé sur une confiance excessive.

L’intelligence artificielle n’est pas une ennemie. Elle peut devenir un appui utile pour alléger certaines tâches administratives ou sécuriser des processus, à condition de ne pas lui prêter un pouvoir qu’elle n’a pas. Dans un environnement social et médico-social déjà marqué par la complexité administrative, la surcharge de travail et les tensions de recrutement, elle doit être pensée comme un outil de soutien au service du lien humain, jamais comme un substitut à la relation avec les personnes accompagnées.

Quels cas d’usage vous semblent pertinents dans une association du secteur social ou médico-social ?

Oui, il existe des usages qui font sens, à condition que la décision et la responsabilité restent clairement du côté des professionnels. Dans un établissement ou service social médico-social, l’intelligence artificielle peut d’abord apporter un appui sur les tâches répétitives : aide à la rédaction de notes, de comptes rendus, de courriers, préparation de supports d’information pour les personnes accompagnées ou leurs proches. Elle peut aussi contribuer à l’organisation du travail, par exemple en proposant des trames de planning, en préparant des ordres du jour de réunion ou en facilitant des comptes rendus, en structurant des initiatives en mode projet, que les équipes ajustent ensuite.

Un autre champ d’usage est la veille et le repérage d’informations utiles : évolution des dispositifs, appels à projets, ressources documentaires en lien avec le secteur d’activité. L’outil d’intelligence artificielle peut aider à filtrer et organiser l’information, mais c’est bien aux professionnels d’en faire l’analyse et de décider de ce qui est pertinent pour leur pratique. La préparation de rendez-vous stratégique, par exemple avec un financeur, ou l’aide à la rédaction d’une demande de financement sont également autant d’usages pertinents désormais accessibles aux directions.

Plus largement, dans le secteur social et médico-social, on identifie plusieurs promesses réelles : automatiser une partie des tâches administratives, apporter une aide à la décision, mieux répartir les ressources, voire repérer plus tôt certaines situations à risque. Le fonds de dotation Abilitis, dans un livre blanc publié en février 2025, présente l’intelligence artificielle comme un levier possible pour favoriser le maintien à domicile des personnes fragiles, à condition que la personne et les professionnels restent au centre du dispositif. L’enjeu est d’éviter que la technologie ne crée davantage d’isolement pour des publics déjà vulnérables.

Cette mise en garde rejoint celle de plusieurs acteurs du champ social. Un travailleur social, Didier Dubasque dans un article publié en mars 2024 « L’intelligence artificielle dans le secteur social : un outil à manier avec précaution », rappelle que ces outils peuvent améliorer la qualité du service rendu, par exemple en facilitant la rédaction de rapports ou la planification d’actions, mais uniquement si les professionnels gardent la main sur les décisions finales.

Des initiatives existent déjà pour illustrer ce rôle d’appui. L’application solidaire Entourage met en relation des bénévoles et des personnes vivant à la rue en s’appuyant sur des algorithmes d’appariement. La plateforme Mon Parcours Handicap utilise l’intelligence artificielle pour proposer des formations et des emplois adaptés aux profils des personnes en situation de handicap.

Ces expériences montrent qu’il est possible d’utiliser l’intelligence artificielle comme un outil de soutien au travail des équipes, et non comme un substitut à la relation humaine. L’enjeu, pour les associations du secteur social et médico-social, est de s’appuyer sur ces outils pour libérer du temps là où la présence humaine est indispensable : la rencontre, l’écoute, l’explication des droits, l’accompagnement dans la durée.

Quels risques vous paraissent sous-estimés par les directions de notre secteur ?

J’en vois au moins deux, qui reviennent souvent dans les échanges et restent pourtant peu travaillés : la fiabilité des réponses produites par les intelligences artificielles génératives d’un côté, et la question de la responsabilité professionnelle de l’autre.

Sur la fiabilité, il faut être lucide : ces outils se trompent souvent, en particulier lorsqu’on les interroge sur l’actualité ou sur des sujets réglementaires. Une étude coordonnée par l’Union européenne de radio-télévision (UER) en octobre 2025 montre que 45 % des réponses de ChatGPT, Copilot ou Gemini contiennent « au moins une erreur importante ; 20 % comportent même des « informations inventées ». Pour des associations qui diffusent de l’information sociale ou juridique à des publics fragiles, cela doit nous alerter : on ne peut pas reprendre ces contenus sans vérification.

Le deuxième point est celui de la responsabilitéUne étude publiée en 2025 dans la revue Nature en septembre 2025 par Nils Köbis et Iyad Rahwan (MIT) met en évidence un phénomène préoccupant : lorsque des personnes délèguent une tâche à une machine, elles ont davantage tendance à s’éloigner des règles, parce qu’elles se sentent moins directement responsables. La responsabilité morale se dilue, d’autant que l’outil ne dispose d’aucun véritable filtre pour refuser des instructions contraires à l’éthique. Transposé à notre secteur, cela peut concerner le respect des procédures internes, la manière de traiter des données sensibles ou la gestion financière pour des personnes vulnérables.

Autrement dit, déléguer à une IA n’est pas neutre moralement. Cela modifie la perception du bien et du mal, et peut entraîner un relâchement collectif des garde-fous. Déléguer une partie du travail à un assistant ne doit jamais nous faire oublier nos obligations professionnelles. Ces systèmes appliquent les consignes sans disposer du discernement nécessaire pour apprécier si une demande est conforme aux règles de l’organisation ou à la déontologie du secteur social et médico-social. Sans garde-fous clairs, ils peuvent contribuer à banaliser des pratiques qui, dans un cadre professionnel, posent un problème.

Pour les services qui gèrent, par exemple, les comptes de majeurs protégés ou des décisions ayant un impact important sur la vie des personnes telles que la santé, la vigilance doit être renforcée. La direction reste responsable des choix effectués, même si un outil numérique a participé à la production d’un document ou à une analyse.

Enfin, la confiance est déjà un sujet sensible dans la relation avec les personnes accompagnées et les partenaires. Le fait de savoir que ces assistants peuvent se tromper fréquemment et induire en erreur leurs utilisateurs doit nous conduire à poser et respecter un principe simple : l’intelligence artificielle aide à préparer, structurer, synthétiser, mais ce sont les professionnels qui valident, corrigent et assument les contenus diffusés au nom de l’association.
Et du point de vue des personnes accompagnées ?

Pour elles, la vigilance doit être maximale. Ce qui m’inquiète, ce ne sont pas seulement les usages professionnels, mais aussi l’utilisation personnelle des IA génératives par des personnes vulnérables, souvent seules face à l’outil.

Des dérives ont déjà été documentées dans la presse. Un article du média Les Numériques, publié le 27 juin 2025, rapporte par exemple des situations où des malades ont interrompu brutalement leur traitement après avoir développé un usage intensif d’une intelligence artificielle conversationnelle, au point de lui accorder plus de crédit qu’à l’équipe soignante. De son côté, le journal Libération, dans une enquête parue le 29 août 2025, relate le cas d’un adolescent américain de 16 ans qui échangeait plusieurs heures par jour avec un ChatGPT et qui, selon sa famille et l’enquête rapportée, serait passé à l’acte suicidaire après des échanges où l’outil a accompagné ses idées suicidaires.

Ces situations ne sont pas transposables telles quelles à tous les contextes, mais elles doivent nous alerter. Pour des publics comme les mineurs ou les majeurs protégés par exemple, notre responsabilité de professionnels est d’informer sur les limites de ces outils, de repérer les usages problématiques et de prévoir des relais humains clairement identifiés. On doit se préparer à ce que l’accompagnement assurés par les équipes soit prochainement perturbé par les conseils donnés directement par l’IA à la personne accompagnée. Le fait qu’une personne soit mieux informée sur ses droits est bien entendu positif mais à la condition que cela soit juste et pas envahi « d’hallucinations » de l’IA.

Quels repères pratiques pour un dirigeant associatif ?

Pour un dirigeant d’établissement ou service social et médico-social, le cadre de référence reste celui posé par la Commission nationale de l’informatique et des libertés (CNIL) : transparence, proportionnalité et maintien d’un contrôle humain effectif. Ces principes doivent être articulés avec le règlement européen sur l’intelligence artificielle, l’IA Act, en cours de déploiement.

Concrètement, plusieurs pistes s’imposent. D’abord, identifier les usages légitimes, c’est-à-dire les tâches pour lesquelles l’intelligence artificielle apporte réellement une plus-value. Ensuite, définir un cadre éthique clair : protection de la vie privée, transparence sur le fonctionnement des algorithmes, prise en compte de l’impact environnemental et validation humaine obligatoire de toutes les décisions. Il est également essentiel de former les équipes, afin qu’elles comprennent les grands principes de fonctionnement des modèles d’IA et qu’elles soient en mesure de vérifier de manière critique les résultats. Ensuite, une veille doit être assurée sur les évolutions du cadre légal, en particulier l’IA Act, ainsi que sur les bonnes pratiques développées dans d’autres secteurs. Enfin, la mutualisation des outils et des retours d’expérience entre associations et entre ESMS sont essentiels, notamment pour celles qui ne disposent pas de compétences internes dédiées aux systèmes d’information.

Ces recommandations figuraient déjà, pour l’essentiel, dans le rapport « Travail social et intelligence artificielle » du Haut Conseil du Travail Social publié en juin 2019. Elles restent tout à fait d’actualité en 2025. Encadrer pour ne pas subir, c’est moderniser sans déshumaniser et rationaliser sans perdre le sens.

Un mot pour conclure ?

Je dirais : ni rejet, ni enthousiasme aveugle. L’intelligence artificielle peut devenir une alliée, à condition de garder l’humain au centre de notre réflexion et de s’appuyer sur une gouvernance claire. Avancer avec prudence ne revient pas à refuser la technologie ; c’est rappeler qu’elle n’a de sens que si elle sert d’abord le progrès humain.

L’intelligence artificielle n’est pas une ennemie. Elle peut être un soutien efficace, j’en suis convaincu, à condition de ne pas croire qu’elle peut tout faire. Dans un contexte déjà marqué par la complexité administrative, la charge de travail et la pénurie de professionnels, elle doit être pensée comme un outil d’appui, et non comme un « oracle » omnipotent capable de tout faire.

Les associations jouent ici un rôle important : elles peuvent montrer qu’il est possible d’innover sans renoncer à l’éthique, de se moderniser sans déshumaniser, et de rationaliser sans perdre le sens.

Privacy Preference Center