L’intelligence artificielle (IA) occupe aujourd’hui une place centrale dans l’imaginaire technologique—entre fascination et prudence. Pour la communauté de l’accessibilité, et plus largement pour toutes les personnes qui utilisent le numérique avec des contraintes sensorielles, motrices ou cognitives, l’IA représente à la fois une promesse et un défi. Promesse de rendre l’information plus proche, plus lisible, plus actionnable. Défi de s’assurer que cette technologie reste inclusive, fiable, et vérifiable. À travers les perspectives croisées de Maxime Varin, David Demers et Jean‑Baptiste Ferlet—professionnels de l’accessibilité et non‑voyants pour deux d’entre eux—cet article propose un cadre concret pour comprendre ce que l’IA change, ce qu’elle ne change pas, et ce que les équipes tech doivent faire dès maintenant pour que l’accessibilité gagne, plutôt que recule.
Pour Maxime Varin, spécialiste A11y et non‑voyant, l’IA est “un nouveau jouet” utile dès aujourd’hui: révision de textes, sous‑titres, synthèses, rapports structurés. Surtout, elle a une vertu cardinale: produire des réponses en texte quand la source originale est inaccessible (par exemple une interface trop visuelle, mal balisée, ou un PDF complexe). En pratique, cela signifie que l’IA peut servir de passerelle: elle digère l’information et restitue un contenu exploitable par un lecteur d’écran, évitant les parcours épuisants à travers des pages mal conçues.
Ce rôle de passerelle s’étend aux tâches réputées pénibles avec un lecteur d’écran. Comparer deux documents Word pour isoler les différences? L’IA permet de demander “montre‑moi uniquement ce qui change”, “liste les mots nouveaux”, ou “souligne les sections modifiées”. Le gain de productivité et de clarté est immense. Et l’impact dépasse le champ de la cécité: les personnes avec limitations motrices, cognitives ou auditives bénéficient d’outils qui résument, reformulent et structurent—autant de fonctions qui réduisent la charge mentale et améliorent l’accès à l’essentiel.
David Demers, directeur des labos d’accessibilité à l’INCA et non‑voyant, décrit son expérience: l’IA capable de décrire des paysages ou des photos, d’interpréter des affiches, d’extraire l’information utile d’écrans ou de sites non conformes. En d’autres termes, une “surcouche d’accessibilité” qui restitue le sens indépendamment de la forme défaillante.
Cette ambition s’accompagne d’une exigence: l’IA doit rester inclusive et accessible. L’histoire récente du Web est instructive. Nous avons connu une période où le contenu, essentiellement textuel, était relativement accessible; puis est venue l’ère des interfaces riches, dynamiques, visuelles, qui ont trop souvent laissé des personnes derrière. Reproduire ce glissement avec l’IA—la laisser se complexifier sans garde‑fous—serait une erreur majeure. L’accessibilité ne peut pas être un add‑on tardif: c’est un critère de qualité non négociable, inscrit dès la conception, mesuré en continu.
Jean‑Baptiste Ferlet, spécialiste en accessibilité et développeur, rappelle une réalité technique que tout lecteur tech devrait garder en tête: les réponses de l’IA sont interprétables, parfois “fabuleuses” (hallucinations), et donc exigent une vérification humaine. L’IA fonctionne comme une boîte noire: on lui donne une entrée, elle retourne une sortie, sans transparence sur les étapes internes. Puissant? Oui. Infaillible? Non.
Jean-Baptiste a fait une expérience parlante: Il a demandé à l’IA un “carrousel accessible.” Celle-ci a produit d’abord un résultat non conforme. Il a fallu ajuster, retester, valider. D’où l’analogie du “stagiaire à superviser”: l’IA est rapide et prolifique, mais l’expertise humaine demeure indispensable pour définir les critères, contrôler la qualité et assumer la responsabilité.
Pour un public amoureux de techno, la leçon est claire:
Utilisée sans maîtrise des fondamentaux, l’IA peut amplifier les problèmes existants: produire plus vite des contenus non conformes, diffuser des patterns inaccessibles à grande échelle, multiplier les interfaces qui “semblent” correctes mais échouent au clavier, au lecteur d’écran, au contraste, à la logique des titres et balises.
À l’inverse, avec des équipes formées et des garde‑fous clairs, l’IA devient un accélérateur:
Le point de bascule n’est pas technologique; il est organisationnel. Ce qui détermine si l’IA améliore ou dégrade l’accessibilité, c’est la culture et la discipline des équipes.
Voici un plan pragmatique pour faire de l’IA un levier d’accessibilité, pas un risque: