Skip to content
Tous les articles

Intelligence artificielle et accessibilité: transformer l’espoir en impact durable

L’intelligence artificielle (IA) occupe aujourd’hui une place centrale dans l’imaginaire technologique—entre fascination et prudence. Pour la communauté de l’accessibilité, et plus largement pour toutes les personnes qui utilisent le numérique avec des contraintes sensorielles, motrices ou cognitives, l’IA représente à la fois une promesse et un défi. Promesse de rendre l’information plus proche, plus lisible, plus actionnable. Défi de s’assurer que cette technologie reste inclusive, fiable, et vérifiable. À travers les perspectives croisées de Maxime Varin, David Demers et Jean‑Baptiste Ferlet—professionnels de l’accessibilité et non‑voyants pour deux d’entre eux—cet article propose un cadre concret pour comprendre ce que l’IA change, ce qu’elle ne change pas, et ce que les équipes tech doivent faire dès maintenant pour que l’accessibilité gagne, plutôt que recule. 

L’IA comme passerelle: rendre l’inaccessible lisible 

Pour Maxime Varin, spécialiste A11y et non‑voyant, l’IA est “un nouveau jouet” utile dès aujourd’hui: révision de textes, sous‑titres, synthèses, rapports structurés. Surtout, elle a une vertu cardinale: produire des réponses en texte quand la source originale est inaccessible (par exemple une interface trop visuelle, mal balisée, ou un PDF complexe). En pratique, cela signifie que l’IA peut servir de passerelle: elle digère l’information et restitue un contenu exploitable par un lecteur d’écran, évitant les parcours épuisants à travers des pages mal conçues. 

Ce rôle de passerelle s’étend aux tâches réputées pénibles avec un lecteur d’écran. Comparer deux documents Word pour isoler les différences? L’IA permet de demander “montre‑moi uniquement ce qui change”, “liste les mots nouveaux”, ou “souligne les sections modifiées”. Le gain de productivité et de clarté est immense. Et l’impact dépasse le champ de la cécité: les personnes avec limitations motrices, cognitives ou auditives bénéficient d’outils qui résument, reformulent et structurent—autant de fonctions qui réduisent la charge mentale et améliorent l’accès à l’essentiel. 

La surcouche d’accessibilité: une ambition nécessaire 

David Demers, directeur des labos d’accessibilité à l’INCA et non‑voyant, décrit son expérience: l’IA capable de décrire des paysages ou des photos, d’interpréter des affiches, d’extraire l’information utile d’écrans ou de sites non conformes. En d’autres termes, une “surcouche d’accessibilité” qui restitue le sens indépendamment de la forme défaillante. 

Cette ambition s’accompagne d’une exigence: l’IA doit rester inclusive et accessible. L’histoire récente du Web est instructive. Nous avons connu une période où le contenu, essentiellement textuel, était relativement accessible; puis est venue l’ère des interfaces riches, dynamiques, visuelles, qui ont trop souvent laissé des personnes derrière. Reproduire ce glissement avec l’IA—la laisser se complexifier sans garde‑fous—serait une erreur majeure. L’accessibilité ne peut pas être un add‑on tardif: c’est un critère de qualité non négociable, inscrit dès la conception, mesuré en continu. 

La boîte noire et le principe de vérifiabilité 

Jean‑Baptiste Ferlet, spécialiste en accessibilité et développeur, rappelle une réalité technique que tout lecteur tech devrait garder en tête: les réponses de l’IA sont interprétables, parfois “fabuleuses” (hallucinations), et donc exigent une vérification humaine. L’IA fonctionne comme une boîte noire: on lui donne une entrée, elle retourne une sortie, sans transparence sur les étapes internes. Puissant? Oui. Infaillible? Non. 

Jean-Baptiste a fait une expérience parlante: Il a demandé à l’IA un “carrousel accessible.” Celle-ci a produit d’abord un résultat non conforme. Il a fallu ajuster, retester, valider. D’où l’analogie du “stagiaire à superviser”: l’IA est rapide et prolifique, mais l’expertise humaine demeure indispensable pour définir les critères, contrôler la qualité et assumer la responsabilité. 

Pour un public amoureux de techno, la leçon est claire: 

  • Les modèles génèrent des sorties plausibles, pas des garanties de conformité. 
  • Les tests automatisés sont utiles, mais les tests manuels et l’évaluation par des utilisateurs (dont des personnes non‑voyantes) restent essentiels. 
  • Le coût de la vérification est un investissement, pas une contrainte: il sécurise la valeur réelle de l’IA.
 

Accélérateur de production ou amplificateur de problème? Le point de bascule 

Utilisée sans maîtrise des fondamentaux, l’IA peut amplifier les problèmes existants: produire plus vite des contenus non conformes, diffuser des patterns inaccessibles à grande échelle, multiplier les interfaces qui “semblent” correctes mais échouent au clavier, au lecteur d’écran, au contraste, à la logique des titres et balises. 

À l’inverse, avec des équipes formées et des garde‑fous clairs, l’IA devient un accélérateur: 

  • Génération de textes alternatifs d’images, suivie d’une validation humaine ciblée. 
  • Résumés de documents volumineux, avec extraction des métadonnées essentielles (titres, sections, glossaire). 
  • Comparaison de versions pour les revues de contenu et la QA. 
  • Prototypage rapide d’éléments UI accessibles, puis durcissement par des tests réels. 
  • Documentation plus claire, orientée vers les besoins des technologies d’assistance.
 

Le point de bascule n’est pas technologique; il est organisationnel. Ce qui détermine si l’IA améliore ou dégrade l’accessibilité, c’est la culture et la discipline des équipes. 

Cadre d’action pour équipes tech: 12 gestes concrets 

Voici un plan pragmatique pour faire de l’IA un levier d’accessibilité, pas un risque: 

  1. Prompts avec critères d’accessibilité intégrés 
    • Inclure systématiquement des exigences: rôles ARIA pertinents, navigation clavier, gestion du focus, alternatives textuelles, titres hiérarchisés, contraste AA/AAA, messages d’erreur lisibles. 
    • Exiger des exemples codés et des checklists de validation en sortie. 
  2. Double validation: automatisée + humaine 
    • Combiner audits automatisés avec tests manuels par des spécialistes et des utilisateurs aveugles ou utilisant lecteurs d’écran. 
    • Définir des critères d’acceptation clairs: “aucun blocage au clavier”, “annonces cohérentes par NVDA/JAWS/VoiceOver”, “ordre de lecture logique”. 
  3. Personne-ressource A11y dans chaque escouade 
    • Désigner une personne-ressource en accessibilité par équipe produit, formée et mandatée pour valider les livrables. 
    • Associer ce rôle à des budgets de temps dédiés, pour éviter que l’accessibilité soit “optionnelle”. 
  4. Design systèmes et composants durcis 
    • Maintenir une bibliothèque de composants accessibles (focus visible, labels explicites, états cohérents). 
    • Ajouter des tests unitaires et fonctionnels spécifiques à l’accessibilité (tab order, aria-* requis). 
  5. Documentation orientée sur les technologies d’assistance 
    • Documenter les comportements attendus pour lecteurs d’écran, raccourcis clavier, annonces ARIA, et transitions (modales, carrousels, menus). 
    • Décrire les “intentions” d’accessibilité: pour quoi tel rôle est‑il choisi? Quel feedback est annoncé, à quel moment? 
  6. Traçabilité des prompts et des décisions 
    • Versionner les prompts, les sorties IA, les corrections humaines et les raisons des ajustements. 
    • Utiliser cette base comme matériau d’apprentissage pour améliorer qualité et cohérence. 
  7. Mesures d’impact 
    • Suivre des indicateurs: nombre d’écarts A11y par version, temps de correction, taux de réussite aux tests avec lecteurs d’écran, satisfaction des utilisateur (NPS ciblé accessibilité). 
    • Mettre ces métriques au même niveau que la performance et la sécurité. 
  8. Inclusion des personnes concernées 
    • Impliquer des personnes non‑voyantes et d’autres profils dans les tests utilisateurs. 
    • Rémunérer le temps de test et intégrer les retours dans le backlog priorisé. 
  9. Gouvernance des risques IA 
    • Cartographier les scénarios à risque (hallucinations, altération de texte critique, descriptions trompeuses). 
    • Mettre en place des seuils d’usage: quand faut‑il une revue humaine obligatoire? Quand l’IA ne doit‑elle pas décider seule? 
  10. “Surcouche IA” responsable 
    • Déployer des agents qui transforment du contenu non accessible en format lisible (texte, audio structuré), mais imposer des garde‑fous: corrections humaines, avertissements clairs, signalement des incertitudes. 
    • Empêcher l’IA de masquer des défauts: elle aide à contourner, mais doit pousser à corriger à la source. 
  11. Formation continue 
    • Former développeurs, designers, rédacteurs: WCAG, patterns accessibles, ergonomie cognitive, limites des modèles. 
    • Partager des “anti‑patterns” fréquents: carrousel non navigable, modale piégeant le focus, tableau sans entêtes, icônes sans labels. 
  12. Culture du soin 
    • Considérer l’accessibilité comme une qualité essentielle, au même titre que la performance et la sécurité. 
    • Célébrer les corrections A11y, rendre visible le travail, valoriser les contributions.
 

Pour aller plus loin