Libqual+ à Angers : sous les plâtres, l’Usager ?
Christophe Evans m’a invité à présenter Libqual+ dans le cadre du stage « Méthodologie des enquêtes de public » qu’il a animé du 9 au 11 juin dernier à l’ENSSIB. Voici le support de ma présentation.
Ce document (téléchargeable au format OpenOffice sur mon espace Slideshare) est sous licence CC (Paternité, Utilisation non-commercial, Partage à l’identique).
Je profite de ce billet pour remercier Christophe Evans de m’avoir offert l’opportunité de présenter le travail réalisé autour de Libqual à Angers ainsi que les stagiaires pour la qualité des échanges qui ont animé la séance.
Catégories :Libqual+
angers, Christophe Evans, Libqual+
Bonjour, je ne doute pas de l’intérêt et de la technicité de Libqual mais est-ce que ce genre d’enquête va vous permettre de sortir du problème que l’avis général des usagers est souvent la somme d’avis particuliers inconciliables ou très difficilement compréhensibles (analysable) ?
Deux slides me laissent perplexe:
Les heures d’ouverture sont jugées à 82-84% satisfaisantes ou très satisfaisantes mais vous n’obtenez que 5.87-6.83 en adéquation perçue contre 8 en niveau désiré.
Autrement dit ils sont majoritairement satisfaits mais pas vraiment en fait … ???
@Chaps : je ne crois pas que Libqual permette de résoudre le problème que tu évoques, ce serait trop lui demander.
ça reste une enquête de sondage donc échantillonnage, représentativité des données à intégrer à l’analyse, et toutes les limites inhérentes à cette méthode.
C’est plutôt ce que Libqual interroge (les écarts de qualité de service) qui constitue une de ses principales particularités. Et encore, c’est relativement nouveau pour les bibliothèques mais utilisé depuis de nombreuses années dans les sociétés de service privées.
Les deux diapos que tu évoques avaient pour objectif de mettre en parallèle une enquête de publics effectuée en 2005 et l’enquête Libqual 2008 et ainsi montrer les données produites par une enquête intégrant les modalités standards (Très satisfait, plutôt satisfait, peu satisfait, pas du tout satisfait, sans opinion) et par la « méthode » Libqual.
Ce n’est donc pas la même année, la même période de l’année, le même public, la même question, etc.
Mes commentaires sur ces diapos ont porté sur deux points :
– dans l’enquête standard, l’un des moyens (sinon le seul) pour mesurer l’intérêt du répondant pour la question présentée est le pourcentage de Non réponse. Sur les données Libqual, l’intérêt de l’usager pour l’item est mesuré par la zone de tolérance (écart entre niveau Désiré et niveau minimum, l’échelle de satisfaction de l’usager en quelque sorte). Cette donnée me semble plus facilement exploitable que le % de sans opinion.
– j’ai souvent vu des taux de satisfaction très bons dans les enquêtes à modalités standards. C’est super pour l’établissement mais c’est difficile de tirer quelque chose d’intéressant d’un 85% de satisfaction à moins d’aller gratter dans les coins (modalités extrêmes, tris croisés, etc.). Les niveaux Minimum, Désiré et Observé permettent, selon moi (mais il faudrait l’avis des collègues de Paris 5 et Lyon 1), une meilleure lisibilité des résultats et une plus grande richesse dans l’analyse.
Désolé pour la longueur de la réponse.
Merci beaucoup !
Evidemment, un powerpoint sans la présentation qui va avec est toujours à interpréter avec la plus grande prudence (la preuve réside dans ma confusion sur les deux slides).
Une longue réponse met souvent fin à une grande interrogation…