Avec Qualiopi, tout le monde connaît le chiffre : 32 indicateurs. Mais, dans la pratique, ils ne se valent pas tous. Certains pèsent beaucoup plus lourd que d’autres, parce qu’un écart ne se rattrape pas avec un simple ajustement : il peut déclencher une non-conformité majeure, donc bloquer une décision de certification, ou fragiliser un audit de surveillance.
L’enjeu, surtout pour un organisme structuré (multi-sites, volumes importants, sous-traitance, certifiant…), c’est d’installer un radar : quelques indicateurs-clés qui révèlent instantanément si votre système qualité tient dans la durée.
1) Ce qu’on appelle “super-indicateur”
Le guide de lecture officiel rappelle deux points utiles pour bien cadrer la notion :
- Vous devez démontrer la mise en œuvre : l’auditeur apprécie la réalité du processus, pas seulement la présence d’un document.
- Tous les indicateurs n’ont pas la même “pondération” : certains peuvent être relevés en mineur ou majeur, tandis que d’autres ne peuvent donner lieu qu’à une non-conformité majeure. Le guide liste précisément les indicateurs “pondérables” (mineur/majeur), les autres sont, de fait, les plus sensibles.
C’est ce que beaucoup de praticiens (et plusieurs certificateurs/consultants) appellent, par facilité, des “super-indicateurs” : ceux qui, s’ils tombent, font immédiatement tomber le reste.
2) Pourquoi c’est encore plus vrai à l’audit de surveillance
L’audit de surveillance n’est pas un “mini audit : il est encadré. Il doit être réalisé entre le 14e et le 22e mois suivant l’obtention, et il vise à vérifier que le référentiel en vigueur est toujours appliqué.
Surtout, le texte précise que l’organisme certificateur doit revoir a minima :
- les indicateurs ayant eu des non-conformités à l’initial (et l’efficacité du plan d’actions),
- les indicateurs ne pouvant donner lieu qu’à des non-conformités majeures,
- et, au minimum, certains indicateurs “socle” (dont 1, 17, 19, et parfois 3).
Traduction opérationnelle : si vous ne suivez pas ces indicateurs “lourds” au fil de l’eau, vous risquez de les découvrir… le jour J.
3) Le trio le plus risqué sur le terrain : 7, 10, 11
Certaines ressources mettent particulièrement en avant trois indicateurs, souvent rencontrés dans les non-conformités majeures “bloquantes” : 7, 10 et 11.
Indicateur 7 – Le certifiant n’autorise pas l’à-peu-près
Quand vous proposez une prestation conduisant à une certification professionnelle, vous devez prouver l’adéquation entre votre contenu et les exigences de la certification visée.
Ce qui fait tomber l’indicateur, typiquement : référentiel de certification mal maîtrisé, mise à jour non répercutée, évaluations internes qui ne préparent pas réellement à l’épreuve, ou “promesse commerciale” plus ambitieuse que le dispositif réel.
Indicateur 10 – L’adaptation et le suivi : là où le standardisation peut coûter cher
Vous devez montrer que la prestation et l’accompagnement sont mis en œuvre et adaptés aux publics bénéficiaires.
Le piège des structures qui grandissent : des parcours industrialisés… sans preuve d’ajustements (positionnement exploité, adaptations FOAD, aménagements, suivi individualisé, traçabilité des échanges).
Indicateur 11 – L’atteinte des objectifs : sans mesure, pas de démonstration
Vous devez évaluer l’atteinte des objectifs par les bénéficiaires.
Ici, l’auditeur cherche moins un “test final” qu’une logique complète : objectifs formulés de façon vérifiable, modalités d’évaluation cohérentes, résultats exploités (et pas seulement archivés).
4) Les autres “super-indicateurs” qui font basculer un audit
Au-delà du trio, les indicateurs “majeurs-only” (au sens du guide) sont ceux qui appellent une vigilance constante. Voici les zones où les écarts reviennent souvent :
A) Sous-traitance : un contrat flou = un audit qui s’élargit
Le guide est très clair : en sous-traitance, l’audit dépend des missions confiées. Sans contrat suffisamment précis, le certificateur vérifie l’ensemble des indicateurs applicables.
Et côté CPF, le cadre s’est renforcé : contrat écrit, mentions obligatoires, responsabilités.
B) Compétences des intervenants
Déterminer/mobiliser/évaluer les compétences (et les développer) n’est pas un dossier RH symbolique : l’auditeur attend une logique exploitable, alignée avec les prestations délivrées.
C) Réclamations et amélioration continue : l’indicateur “miroir”
C’est souvent ce qui différencie un système “préparé pour l’audit” d’un système “vivant”. Les indicateurs d’amélioration attendent des preuves de traitement, d’analyse et de décisions, pas une boîte mail “réclamations@”.
5) Mettre en place un tableau de bord “anti-mauvaise surprise”
Si vous ne deviez suivre qu’un seul rituel interne, faites simple : un point mensuel (ou bimensuel) sur quelques traces incontournables. Par exemple :
- Certifiant : dernière version des référentiels, écarts détectés, actions de mise à jour (Ind. 7/16)
- Parcours & adaptation : positionnements réalisés / exploités, adaptations tracées, abandons + causes (Ind. 10/12)
- Évaluations : cohérence objectifs → évaluations → résultats, et décisions prises (Ind. 11)
- Sous-traitance : contrats à jour, périmètres de mission, contrôles réalisés (et CPF si concerné)
- Réclamations & actions correctives : volumes, délais de traitement, récurrences, actions préventives (logique surveillance)
L’idée n’est pas de produire plus de documents. C’est de produire les bonnes preuves, au bon moment, sur un échantillon représentatif, exactement ce que l’audit attend.
6) À retenir
Qualiopi repose sur un référentiel défini par les textes et audité par des organismes certificateurs accrédités : le cadre est robuste, et l’exigence est là.
La bonne stratégie n’est pas de courir après les 32 indicateurs à l’approche d’une échéance. C’est de verrouiller en continu les indicateurs qui, eux, déclenchent des non-conformités majeures et concentrent l’attention en surveillance.