pour une approche interprétative de la modélisation du
TRANSCRIPT
Pour une approche interprétative de la modélisation du comportement du
consommateur
Jean Philippe Galan
Professeur des Universités
Centre de Recherche en Management (CRM, UMR 5303 CNRS/UT1)
IAE – Université de Valenciennes et du Hainaut Cambrésis
Les Tertiales, rue des Cent-Têtes, 59313 Valenciennes Cedex 9
[email protected] / +33(0)5.61.63.56.79
“I can dream up schemes when I'm sitting in my seat
I don't see any flaws 'til I get to my feet
(...) I could make a mark if it weren't so dark
I could be replaced by any bright spark
But darkness makes me fumble
For a key, to a door that's wide open”
The Police – Darkness
© 1981, A&M Records
1
Pour une approche interprétative de la modélisation du comportement du
consommateur
Résumé:
La recherche en comportement du consommateur a été et demeure largement constituée par
des positionnements positivistes et hypothético-déductifs. Alors que se structurent depuis
vingt ans plusieurs perspectives alternatives, il parait plus que jamais nécessaire de passer en
revue les pratiques traditionnellement instituées dans le champ en matière de travail
statistique ; ce que cet article se propose de faire. La déconstruction des canons actuels de la
recherche ainsi menée nous permettra de dégager de nouvelles perspectives méthodologiques
combinées, afin d’éviter que le champ de la recherche en consommation ne se fracture
irrémédiablement selon un schisme improductif.
Mots-clés : épistémologie, méthodologie, interprétativisme, modélisation.
For an interpretive approach of the consumer behavior modelling
Abstract:
Consumer research has always been and still is massively constituted by positivist and
hypothetico-deductive inquiries. For the past 20 years a lot of alternative approaches have
been emerging and it now seems absolutely necessary to review the traditionally instituted
practices of our field when it comes to statistics. That is what this article aims to do, by
deconstructing actual research canons and pointing out new mixed methodological
approaches. These methodological innovations and thoughts could help us to avoid the threat
of a definitive schism of our research field.
Key-words: epistemology, methodology, interpretivism, modelling.
2
Pour une approche interprétative de la modélisation du comportement du
consommateur
Introduction
Le projet des Lumières, marquant les débuts de l’ère moderne, a proposé « d’éclairer »
l’homme par la science afin de le libérer du carcan religieux et des superstitions. Dans le
sillon de cet héritage philosophique, la recherche en marketing a épousé l’idéal de scientificité
lorsque deux fondations, Ford et Carnegie, ont au milieu du vingtième siècle cherché à libérer
la littérature marketing de la subjectivité des chercheurs et praticiens, afin de passer de l’art à
la science du marketing. Ainsi que le rapporte Cochoy (1999), vers 1954, ces deux fondations
ont chargé des experts indépendants d’ausculter les universités américaines dans le but de
financer une réforme de l’enseignement et de la recherche en gestion. Le tournant scientifique
du marketing s’est concrétisé par la publication d’ouvrages clairement orientés tels que ceux
de Bass & al. (1961) ou Frank, Kuehn et Massy (1962) ainsi que par le recrutement de
spécialistes des techniques quantitatives et des sciences sociales. Ces approches ont débouché
à la fin des années 1960 sur des espoirs de modélisation du comportement du consommateur
dans des modèles dits « intégrateurs » (e.g. Engel, Kollat et Blackwell, 1968 ; Howard et Seth,
1969 ; Nicosia, 1966) ayant pour ambition de porter l’étude de comportement du
consommateur au rang de science exacte tout en l’émancipant du marketing (e.g. Arndt, 1986)
et parvenir à enfermer le consommateur dans un ensemble d’équations (Cochoy, 1999).
Cependant, les dernières décennies ont été marquées par une progressive remise en cause de
l’approche moderne. Le projet moderne, proposant aux individus une amélioration de leur
condition par une approche scientifique objective, est en faillite et avec lui l’ensemble de ses
institutions. Le consommateur « désenchanté » découvre et critique son rôle jusqu’alors passif
3
dans la consommation. L’ère moderne se clôt sur un bilan décevant ; la science n’a pas tenu
ses promesses d’harmonie et de confort, et d’importantes menaces comme la destruction de
l’environnement, les inégalités sociales et le chômage n’ont pas disparu.
Certains chercheurs se perçoivent également comme les prisonniers du carcan rationaliste
moderne. Thompson (1993) explique ainsi que l’approche postmoderne se caractérise par une
incrédulité vis-à-vis des méta-narrations unifiantes, qui refoulent les discours alternatifs en les
soumettant par des déclarations autoritaires dont la prétendue objectivité doit être remise en
cause pour considérer sa nature culturellement contingente. Ainsi, portée par le courant
postmoderne, une large partie de la littérature marketing tend à remettre en cause l’analyse
positiviste en « niant aux discours dont la généalogie est trouble (…) toute possibilité d’être
vraie » (Cova et Cova, 2009). Sherry (1991) décrit ce mouvement comme un « tournant
interprétatif », désignant par là une « alternative postmoderne » au positivisme dominant,
l’émergence d’une posture plus subjective dans laquelle le chercheur est l’instrument de la
recherche, confronté à des réalités multiples et dont le but est moins de lier des causes à des
conséquences que de développer des connaissances enracinées.
Alors que ce tournant doit être synonyme de renouveau et de revitalisation des recherches et
de la discipline, il peut être synonyme de choix exclusif et de sclérose méthodologique. En
effet, comme le souligne Deshpandé (1983), la distinction de différentes écoles de pensée
amène souvent à les considérer comme indépendantes et mutuellement exclusives. Le
positionnement épistémologique entraîne souvent, par filiation, des choix méthodologiques
déterminés qui débouchent sur une rivalité entre les approches qualitative et quantitative,
lesquelles stigmatisent les oppositions entre positivisme et interprétativisme. Certains
chercheurs demeurent ainsi prisonniers de méthodes qui ne sont peut-être pas toujours les
4
mieux adaptées aux phénomènes étudiés. Pourtant, nombreux sont les auteurs qui soutiennent
une posture plus relative, prônant l’existence d’un continuum philosophique qui va du
positivisme à l’interprétativisme (e.g. Bergadaà et Nyeck, 1992 ; Deshpandé, 1983, Lee, 1991,
Reichardt et Cook, 1980). De part et d’autres, apparaissent des points de vue moins tranchés –
e.g. le positivisme aménagé (Huberman et Miles, 1991) ou le constructivisme modéré (Van
den Belt, 2003) – qui se situent sur ce continuum. Malgré ces possibilités, des configurations
politiques et communautaires participent au clivage entre approches quantitative et qualitative
(Sherry, 1991 ; Bergadaà et Nyeck, 1992) et le fait d’utiliser une méthode plutôt qu’une autre
est un moyen de signifier son appartenance à un courant ou une communauté scientifique.
Il semble donc nécessaire d’entamer une réflexion sur la place de l’approche quantitative dans
la recherche en comportement du consommateur. L’approche quantitative a été pendant de
longues années l’apanage d’une logique hypothético-déductive liée à la posture positiviste
moderne. Ainsi elle a porté le projet moderne et incarné les idées d’objectivité, de causalité et
de généralisation. Bien que dominante, cette approche n’échappe pas aux contingences
historiques, sociales et culturelles. Cette communication se propose ainsi de présenter les
contingences de l’activité de modélisation en comportement du consommateur, faisant ainsi
suite à un premier travail sur les contingences dans la construction des outils de mesure
(Galan, 2011). Après avoir présenté les aspects qui affectent l’objectivité dans la création de
modèles de comportement du consommateur, une première réflexion est proposée quant à
l’utilisation des modèles quantitatifs dans une perspective interprétative.
1. Les contingences de la modélisation du comportement du consommateur
La modélisation du comportement du consommateur consiste, après avoir élaboré le modèle
de mesure, à émettre des hypothèses sur les relations entre les différentes variables. La plupart
5
du temps ces hypothèses ont pour objectif d’établir la présence de relations de causalité entre
les variables. Quoique cette étape de modélisation structurelle convient très bien au paradigme
positiviste et à la démarche hypothético déductive, il y a suffisamment de subjectivité dans la
démarche pour se libérer de ce carcan afin de construire et interpréter les modèles.
1.1. Objectif à p<,05 ?
S’il est un point sur lequel les statisticiens eux-mêmes sont très critiques, c’est bien sur la
notion de signification de test de l’hypothèse nulle. Le principal élément sur lequel il semble
nécessaire de s’arrêter est sur le fameux « p<0,05 » qui ponctue toute analyse quantitative du
comportement du consommateur qui se respecte et qui est utilisé comme critère « objectif »
pour distinguer ce qui est faux de ce qui est acceptable parmi les hypothèses émises par le
chercheur. Il est une pratique, quasi-automatique, qui fait partie du rituel de la présentation
des résultats d’une analyse statistique, et qui consiste à préciser que les résultats obtenus sont
« significatifs à p <0,05 ». Ce que cela signifie vraiment ne semble plus faire partie des
préoccupations des chercheurs. Chacun se souvient de l’erreur de type I, mais se souvient-il à
quoi elle correspond ? L’erreur de type I est la probabilité de rejeter l’hypothèse nulle alors
qu’elle est « vraie ». Par consensus, ou par habitude, le seuil de 5% (erreur de type 1) est
devenu le standard, une frontière artificielle (Loftus, 1996) entre deux mondes (Yoccoz,
1991) : celui de la différence (significative) et celui de l’égalité (différence non significative).
Pourtant, rien n’oblige le chercheur à opter pour un seuil de 5%. Ronald A. Fisher, considéré
comme un des fondateurs des statistiques a lui-même précisé que le chercheur n’avait pas à
avoir un seuil fixe pour, années après années, rejeter les hypothèses (Fisher 1925 [1990]). Ce
qu’il est important d’avoir en tête c’est que le seuil de signification est à la base un seuil de
risque lié à un coût : le coût de l’erreur de type 1, c'est-à-dire d’avoir rejeté l’hypothèse nulle
alors qu’elle était vraie, et donc d’avoir corroboré l’hypothèse d’une relation significative
6
(alors qu’il n’y en avait aucune). Dans les faits cette fonction de coût n’est jamais calculée, et
les chercheurs prennent le seuil arbitraire de 5% qui n’a pas toujours de sens, car les décisions
liées au rejet de l’hypothèse nulle n’ont pas toutes les mêmes conséquences que ce soit au
niveau théorique ou pratique. Pour Cohen (1994), ce critère de 5% est de l’ordre du sacré et
du rituel et persiste malgré 40 ans de critiques. Pour l’auteur, nous – enseignants, chercheurs,
consultants – sommes responsables de la ritualisation du test de signification de l’hypothèse
nulle jusqu’à un point où il n’a plus de sens (p. 997).
1.2. La causalité remise en cause
Dans le débat qui « oppose » positivisme et interprétativisme dans la recherche sur le
comportement du consommateur, la causalité semble un point central. En effet, pour Bogdan
et Taylor (1975 ; cités par Deshpandé, 1983 : 103), les positivistes cherchent les faits ou
causes des phénomènes sociaux, en faisant peu de cas des états subjectifs des individus. Pour
Hudson et Ozanne (1988), les positivistes ont un objectif d’explication et de prévision, et de
ce fait font des liens de causalité une priorité (p. 512). Un grand nombre d’auteurs (e.g. Lutz,
1989 ; Thompson, Locander et Pollio, 1989 ; Wallendorf et Belk, 1989) s’appuie sur cet
argument comme recours au paradigme interprétativisme, y compris en France, à l’instar de
Bourgeon, Bouchet et Pulh (2003) qui proposent d’avoir recours au domaine des
« philosophies relativistes d’obédience humaniste » en refusant la tendance positiviste qui met
« l’accent sur l’empirisme, la quantification, et la prédiction ». Pour Hunt (1991), reprenant
l’expression de Philips, cette focalisation supposée des positivistes sur la causalité est une
exagération, découlant d’un « antipositivsme rampant » (p. 36). Il y a ici une confusion entre
positionnement épistémologique et choix méthodologique et le lecteur parcourant la littérature
marketing, reconnaîtra que la causalité est souvent au centre des méthodes quantitatives.
7
Il est une convention, largement acceptée dans la communauté scientifique, y compris dans
les plus grandes revues, qui consiste à tolérer au chercheur d’inférer une relation de causalité
sur la base d’une corrélation. C’est particulièrement le cas dans les analyses de régression ou
les modèles d’équations structurelles sur lesquels bon nombre d’auteurs s’appuie. Ces
méthodes sont dénommées « explicatives » ou « modèles de causalité » (e.g. Evrard, Pras,
Roux, 1993), pourtant, rien dans ces méthodes ne permet de conclure que lorsque deux
construits A et B sont corrélés, A soit l’antécédent de B ou inversement. Dès 1981, Fornell et
Larcker soulignaient que la causalité ne pouvait pas être inférée des valeurs des paramètres
estimés (1981 : 386). Afin d’illustrer ce fait, la figure 3 affiche les résultats d’une analyse de
la relation entre deux construits A et B par la méthode des équations structurelles.
Figure 1 – Deux modèles de causalité AB ; AB
Si l’hypothèse testée est : « H1 : A influence B de manière linéaire et positive », le chercheur
aurait donc trouvé un support dans le modèle représenté par la figure 1(a). Pourtant, il est bien
clair que l’hypothèse inverse (« H1 : B influence A de manière linéaire et positive ») aurait
trouvé le même support, à partir des mêmes données, mais en modélisant de manière
différente. On voit bien dans les indicateurs fournis par le logiciel d’analyse, qu’aucun des
modèles n’est supérieur à l’autre. D’un point de vue statistique, les deux modèles sont
strictement équivalents. Le chercheur ne peut donc en aucun cas trouver un support statistique
b1 b2 b3
B 0,22
(p<,05)
a1 a2 a3
A
b1 b2 b3
B 0,22
(p<,05)
a1 a2 a3
A
² : 16,78 ; GFI : 0,974 ; AGFI : 0,933 ;
NFI : 0,986 ; CFI : 0,992 ; SRMR : 0,0383
² : 16,78 ; GFI : 0,974 ; AGFI : 0,933 ;
NFI : 0,986 ; CFI : 0,992 ; SRMR : 0,0383
e1 e2 e1 e2
(a) (b)
8
au fait que la relation AB est une meilleure description du phénomène observé que la
relation BA. Pourtant, la littérature est remplie de ce genre de cas, et des exemples
pourraient être cités par centaines. La plupart du temps, le lecteur accepte les conclusions sur
la base d’une causalité qui satisfait le bon sens et donc encore une fois, sur la base d’une
narration culturellement déterminée (Thompson, 1993). Toutefois, lorsque l’on examine
certains pans de la littérature, on peut observer que ce « bon sens » n’est pas toujours suffisant
pour départager deux modèles concurrents. Pour Tissier-Desbordes (1998), un des problèmes
majeurs que rencontrent les méthodes interprétatives est justement « la difficulté de
l’interprétation, qui fait appel au savoir du chercheur (…) et les possibilités d’interprétation
du texte étant liées à la subjectivité de l’auteur, un même texte peut être interprété
différemment par deux personnes (p.47). Pour l’auteur, le recours aux méthodes quantitatives
permettrait d’éviter cette subjectivité. Pourtant, au regard de certains débats sur des relations
de causalité comme le lien entre qualité de service et satisfaction (e.g. Parasuraman, Zeithaml
et Berry, 1988 ; Bolton et Drew, 1991), il ne semble pas y avoir une grande différence entre
les deux logiques. Que la méthode soit quantitative ou qualitative, la communauté, les
professionnels qui utilisent les résultats, les étudiants, les lecteurs, tous doivent faire confiance
au chercheur, en sa capacité de maîtriser les outils et à interpréter les résultats qu’il obtient.
1.3. (re)spécifications
Une autre critique faite au positivisme concerne l’approche hypothético-déductive qui lui est
associée. L’objectif de généralisation des théories, amène le chercheur à confronter des lois
générales aux observations. Ce faisant, on lui reproche un manque d’originalité lié au fait que
ne sont testées que des hypothèses scientifiquement établies, c'est-à-dire de justifier des
propositions plutôt que d’en découvrir (Deshpandé, 1983 : 106). Bergadaà et Nyeck (1992)
font remarquer que s’il est reproché aux chercheurs utilisant une logique déductive de ne faire
9
que tester des connaissances sans en découvrir de nouvelles, l’induction est tout autant remise
en cause par les chercheurs qui s’interrogent sur le fait de savoir si les données ne sont pas
elles-mêmes un produit théorique. C’est le cas des critiques faites à la théorie enracinée
(grounded theory ; Glaser et Strauss, 1967) qui, à l’inverse de la démarche hypothético-
déductive part du terrain, pour construire la théorie.
La modélisation du comportement du consommateur par les modèles de « causalité » (Evrard,
1985), est généralement considérée comme l’application même du principe hypothético-
déductif. Le chercheur construit un cadre théorique à partir duquel il fait des hypothèses sur
les relations entre divers concepts. Ces hypothèses sont testées statistiquement, fournissant
ainsi un support empirique à la théorie émise par le chercheur. Ici encore il y a une large
confusion du positionnement épistémologique avec le choix méthodologique. Certes
l’approche quantitative parait particulièrement adaptée à une logique déductive, pourtant, elle
ne s’oppose pas à une logique plus inductive. Dans les faits, il est possible que les hypothèses
soient finalement rédigées après l’analyse des résultats. Quelles raisons – autres que la
curiosité – peuvent amener le chercheur à analyser des liens dont il n’a pas fait l’hypothèse
avant l’analyse des données ? Il y en a principalement trois : les indices de modifications
proposés par le logiciel de traitement statistique, la multicolinéarité, l’apparition d’effets
modérateurs et/ou médiateurs.
Premièrement, les logiciels habituellement utilisés dans le cadre des modèles d’équations
structurelles proposent des améliorations de l’ajustement général du modèle
(²).Concrètement, le logiciel propose de supprimer ou d’ajouter des liens entre les différents
paramètres du modèle, que ce soit entre les variables latentes, les attributs, les termes d’erreur
ou toute combinaison de ces éléments par paire. Certaines de ces modifications peuvent
10
apparaître pertinentes à certains chercheurs et il est bien évident que 1/ cette pertinence perçue
dépend clairement de la culture du chercheur et 2/ chaque chercheur ne prête pas la même
attention à ces indices (en outre, le logiciel ne les fournissant pas par défaut, c’est au
chercheur de les exécuter ce qui suppose qu’il connaît l’existence de ces fonctionnalités). De
fait, un lien qui frappe le bon sens du chercheur et qui permet d’améliorer la qualité statistique
globale du modèle, va être introduit dans le faisceau des hypothèses, ou, dans une posture plus
souple, le chercheur les présentera dans une section de « résultats complémentaires ».
Deuxièmement, il peut arriver que différentes variables explicatives du modèle soient
fortement corrélées entre elles. Ce phénomène est appelé multicolinéarité. Il cause des erreurs
d’estimation, mais le véritable problème est, qu’en l’absence de test spécifique, la
multicolinéarité passe souvent inaperçue (Grewal, Cote et Baumgartner, 2004). Il existe donc
un premier point critique lié au fait que tout chercheur ne teste pas la multicolinéarité et
produit potentiellement des résultats erronés d’un point de vue statistique. Le deuxième point
tient à la solution envisagée après détection de la multicolinéarité. Il y en a plusieurs : (1) le
chercheur ne veut pas revoir son modèle et va choisir une autre méthode d’analyse plus
robuste face à ce type de problème à l’instar de l’approche par les moindres carrés partiels
(PLS ; e.g. Jagpal, 1982) ; (2) il supprime une des variables corrélées, diminuant ainsi la
multicolinéarité mais par là même la qualité de son modèle ; (3) il « fusionne » les variables
corrélées dans un même concept latent s’il y a trouve une justification théorique ; (4) il tente
de comprendre la relation entre les variables corrélées et teste divers modèles pour arriver à
une solution satisfaisante théoriquement et statistiquement. Ainsi, il construit des relations de
médiations entre les variables. Ces choix sont à la discrétion du chercheur et dépend encore
une fois de sa connaissance des alternatives et de ce qu’il perçoit comme étant pertinent.
11
Troisièmement, des effets médiateurs et/ou modérateurs peuvent apparaître au moment de
l’analyse. Les travaux de Baron et Kenny (1986) ont permis de prendre conscience de
l’importance de ces deux types de variables et ont servi de base à un grand nombre de
recherches. Les auteurs précisent que si le modérateur spécifie quand certains effets vont
apparaître, les médiateurs expliquent comment et pourquoi ces effets apparaissent. Ces
variables apportent donc un éclairage sur les relations du modèle et ne pas les prendre en
compte peut conduire à ignorer une relation forte entre deux variables. Dès lors, on peut
accepter ici la flexibilité de la démarche quant au positionnement épistémologique. Le
positiviste retournera à la littérature pour décider quelles variables seront élues pour émettre
les hypothèses de modération ; la démarche opposée consistant à procéder par tâtonnement à
partir des variables disponibles pour trouver un éventuel modérateur. Dans les deux cas il
s’agit d’une tâche sans fin. En effet, il est toujours possible de se mettre à un niveau de recul
plus élevé pour se poser la question de l’existence d’un nouveau médiateur ou modérateur.
C’est ce que l’on appelle les médiations modérées et les modérations médiatisées (e.g. Wu et
Zumbo, 2008). Les médiations modérées représentent le cas de l’apparition d’une médiation
conditionnée par les valeurs d’une autre variable et les modérations médiatisées représentent
le cas où l’effet du produit de la variable indépendante et du modérateur (X*Mo)1 sur la
variable expliquée peut être médiatisé par une quatrième variable (Me) de telle façon que
X*MoMeY. C’est une construction sans fin, à un niveau +1, on parlera de modération
médiatisée modérée ou de médiation modérée médiatisée et ainsi de suite.
Dans les trois cas (indices de modifications, multicolinéarité, médiateurs/modérateurs), le
chercheur est tout à fait libre de construire son modèle sur une base inductive, en se fondant
sur son intuition.
1 Dans le cas d’un modérateur quantitatif, l’effet modérateur est révélé par l’effet significatif du
produit de la variable explicative (X) et du modérateur (Mo) sur la variable expliquée (Y) tel que
X*MoY.
12
2. Pour une analyse qualitative des données quantitatives
La section précédente suggère que l’objectivité qui a été revendiquée par l’approche
quantitative n’apparaît être qu’une illusion (Berger et Berry, 1988). Les différentes procédures
qui paraissent garantir cette objectivité sont dès lors de l’ordre du rituel (Cohen, 1994) et
peuvent être considérés à ce titre comme les « outils d’une religion des statistiques »
(Salsburg, 1985). Parmi d’autres rituels communautaires, la maîtrise de l’outil statistique
permet la socialisation des nouveaux chercheurs – les doctorants – qui peuvent être amenés à
choisir un positionnement épistémologique sur cette même base sociale (Trocchia et
Berkowitz, 1999). Ces stratégies de socialisation perdurent tout au long de la carrière du
chercheur qui, pour publier et promouvoir ses travaux, peut modifier ses choix conceptuels et
méthodologiques en fonction de ce qu’il pense être acceptable par la communauté (Bergadàa
et Nyeck, 1992 ; Peter et Olson, 1983). De fait, l’ « affrontement » des communautés de
chercheurs sur la base du statut scientifique de leur approche, prend les allures d’un drame
social (Sherry, 1991). Le courant de la Consumer Culture Theory (CCT, Arnould et
Thompson, 2005), qui amorce peut-être un changement de paradigme (Arnould, 2006) est
fondé sur un positionnement épistémologique qui affirme être ouvert aux méthodologies
quantitatives (Arnould et Thompson, 2005 : 870). Pourtant, les auteurs eux-mêmes ne peuvent
que constater que la plus notable des fausses idées concernant la CCT est que ce courant de
recherche est défini par l’utilisation des méthodes qualitatives (Arnould et Thompson, 2007 :
4). Toutefois, cette apparente ouverture ne semble qu’un vœu pieux et aucun papier issu de ce
courant ne se focalise sur la possible utilisation des méthodes quantitatives dans une
perspective interprétative. Pour certains auteurs, le courant interprétatif est fondé sur des
méthodes qualitatives (Tadajewski, 2006), en position de défiance vis-à-vis du paradigme
« dominant », et a tendance à exclure plus qu’il n’inclut (Foxall, 2000). Pourtant, abandonner
les analyses quantitatives sur la base d’une position puritaine (Foxall, 2000) liée à une
13
confusion entre méthode et posture épistémologique semble infructueux. Au contraire,
l’analyse quantitative, peut, à l’instar de bien d’autres méthodologies interprétatives amener
un éclairage particulier sur un phénomène de consommation.
Quelles sont alors les solutions pour sortir de cette situation qui paraît problématique tant au
niveau épistémologique, méthodologique que social ? Nous avons vu dans la première
section que le plan épistémologique n’était pas un problème en soi et qu’il n’y a pas de lien
nécessaire de filiation entre niveaux épistémologique et méthodologique. En revanche, s’il n’y
a pas de lien nécessaire, il faut admettre que les techniques de modélisations les plus utilisées
(e.g. les équations structurelles fondées sur l’analyse des structures de covariance) sont
fondamentalement ancrées dans le positivisme. Ceci se retrouve au niveau logiciel (e.g.
LISREL) avec des outils qui sont structurés pour la démarche hypothético-déductive.
Certaines méthodes paraissent toutefois ouvrir la voie à des démarches plus inductives.
2.1 Modélisation structurelle exploratoire (ESEM) et réseaux bayésiens
Lors de la construction d’échelles de mesure, la structure factorielle est mesurée à l’aide d’une
analyse factorielle exploratoire puis confirmée par une analyse confirmatoire. L’ESEM
(Exploratory Structural Equation Modelling) est une méthode hybride utilisant des aspects de
l’analyse exploratoire et de l’analyse factorielle confirmatoire. En permettant un ajustement
des axes de manière à maximiser les corrélations avec les items, on permet à l’outil de
proposer une structure. Ainsi que le rappellent Asparouhov et Muthén (2009) la modélisation
est habituellement utilisée pour tester une théorie qui est construite sur la base de
considérations non liées aux données. Au contraire l’ESEM permet une alternative en
permettant un ajustement de la théorie. De manière encore plus évidence les réseaux
bayésiens se prêtent mieux à une perspective interprétative. En effet, sous la forme de
14
« graphes orientés acycliques » ils permettent d’évaluer les relations entre les différentes
variables impliquées par la modélisation sur la base de probabilités conditionnelles. Le
chercheur a ainsi, pour caricaturer, une représentation graphique de différents modèles
alternatifs et peut choisir celui qui lui correspond le mieux ou, dans une approche plus
constructiviste (Holt, 1991) interpréter tous les modèles alternatifs. Comme le rappellent
Naïm & al. (2008) la connaissance contenue dans le réseau est transformée en fonction de la
vraisemblance de l’observation des exemples étudiés selon la connaissance initiale (p. 189).
En d’autres termes, l’utilisation des réseaux bayésiens est directement liée à la volonté de
mettre à jour la connaissance de manière incrémentale afin de faire évoluer les modèles.
Ces méthodes, qui laissent plus de place à l’interprétation des modèles et des mesures, sont
elles cependant capables de résoudre le « drame social » qui se joue entre tenants des
approches quantitative et qualitative ? C’est sûrement un premier pas mais ce qui a été dit plus
haut suggère que cela n’est pas seulement une question de technique statistique. Ce qui se
joue c’est aussi la remise en cause d’une hiérarchie sous-jacente entre qualitatif et quantitatif
dans laquelle le premier a besoin du second pour accéder au rang de vérité scientifique. Ainsi,
il semble que pour aller au-delà de ce clivage, et de cette impasse dans laquelle chacun des
protagonistes cherche à construire la valeur scientifique de son discours il faille trouver des
solutions plus intégrées à l’image de ce que proposent les méthodes mixtes.
2.2 Les méthodes mixtes
Beaucoup de chercheurs ont intégré la thèse de l’incommensurabilité qui sous-entend que les
paradigmes et les méthodologies ne peuvent et ne doivent pas être mélangés (Davies et
Fitchett, 2005). Certains auteurs (e.g. Hammond, 2005 ; Hohenthal, 2006 ; Johnson et
Onwuegbuzie, 2004) proposent alors une approche plus « pragmatique » pour améliorer la
15
recherche. Dans cette perspective, le pragmatisme repose sur le fait de parvenir à utiliser et
apprécier le qualitatif et le quantitatif dans une même recherche, d’où le terme de méthode
mixte. Cette méthodologie se définit pour Johnson et Onwuegbuzie (2004) comme « la classe
de recherche où le chercheur mixe ou combine les techniques de recherches, méthodes,
approches, concepts ou langage dans une unique étude » ; le point fondamental dans cette
approche est la question de recherche, « les méthodes de recherche doivent suivre les
questions de recherche d’une manière qui offre la meilleure chance d’obtenir des réponses
utiles » (Johnson et Onwuegbuzie, 2004). Par une meilleure compréhension des forces et des
faiblesses de chacune des deux méthodologies, un chercheur « pragmatique » pourra parvenir
à mieux répondre à sa question de recherche en combinant les stratégies à sa disposition, au
lieu de faire un choix mono-méthode contraignant ses données et sa réflexion. Ainsi
l’approche mixte peut amener à faire du quantitatif dans une perspective plus interprétative
qui peut en outre être envisagé d’une manière exploratoire.
Conclusion
Le modèle est loin d’être un outil objectif, à l’instar de la photographie (e.g. Dion et Ladwein,
2005), il ne restitue pas la réalité, il est sélectif et incomplet car le chercheur est amené à faire
un certain nombre de choix : choix du nombre de concepts à mettre en relation, choix du
nombre d’items (et de leur type de relation avec la variable latente), relations entre les
concepts, etc. De même, certains de ces choix ou décisions sont influencés par la culture du
chercheur : détection et solutions proposées face à une éventuelle multicolinéarité face à des
modifications proposées par le logiciel, face à une relation anormalement faible qui présage
peut-être l’existence de médiations et de modérations.
16
Il importe donc de repenser la pratique des statistiques en dehors du traditionnel « modèle
canonique (…) hypothético-déductif empiriquement validé sur un échantillon représentatif »
(Martinet, 1990). Dans ce système de pratiques – fortement ritualisé – il existe une claire
hiérarchie entre les approches quantitatives et qualitatives. Ces dernières jouent un rôle
second, dit « exploratoire », et servent à établir une première approche approximative du
cadre d’étude. L’analyse statistique vient ensuite « confirmer » ces ébauches, entérinant par-là
l’idée du langage mathématique comme langage final de vérité, comme langage véritable de
la recherche. Les critiques adressées à ce modèle de la recherche depuis notamment le
« tournant interprétatif » énoncé par Sherry (1991) ont donné naissance à de multiples
perspectives nouvelles fédérées sous l’étendard de la CCT (Arnould et Thompson, 2005).
Mais plutôt que d’ouvrir la voie à une déconstruction des méthodes et pratiques de recherche
traditionnelles, la CCT est peut-être en train de créer pour tous les chercheurs déviants du
modèle canonique un ghetto théorique, une niche enclavée sur le marché des théories,
renforçant par-là l’impression d’incommensurabilité (Kuhn, 1962) et d’incompatibilité.
Hors, ce schisme (Sherry, 1991 ; Arnould, 2006) n’a rien d’inéluctable. Il nous semble qu’il
soit possible de l’éviter afin de faire des recherches en marketing et en consommation un
véritable champ de recherche pluridisciplinaire qui au-delà de ses multiples angles de vue, se
donne la possibilité d’intégrer, de réfléchir et de problématiser chaque perspective qui la
compose (MacInnis et Folkes, 2010). La condition nécessaire à ce rapprochement semble être
l’abolition de la hiérarchie et routine du qualitatif exploratoire / quantitatif confirmatoire. De
même qu’il n’est pas toujours absolument nécessaire de mener une étude quantitative
confirmatoire pour venir analyser et confirmer un matériel issu de recherches qualitatives, on
peut également penser à développer la pratique statistique comme un outil de recherche
exploratoire plutôt que comme une procédure finale venant sanctionner la pertinence d’un
17
modèle élaboré a priori. Les différentes approches qualitatives et quantitatives seraient ainsi à
considérer et à évaluer par rapport à leur concordance et adaptation à des questions de
recherche. Les méthodes mixtes, quoique pragmatiques, permettent une première réflexion sur
les rapports entre qualitatif et quantitatif et nous permettent d’entrevoir la possibilité d’utiliser
les modèles statistiques comme matériau de recherche au même titre qu’une photographie ou
une série d’interviews sans toutefois tomber dans un relativisme radical, et peuvent ainsi nous
aider à penser à la ré-articulation de nos designs de recherche.
Bibliographie
Arnould E. J. (2006), Service-dominant logic and consumer culture theory: natural allies in an
emerging paradigm, Marketing Theory, 6, 3, 317-334.
Arnould E. J., et Thompson C. J. (2005), Consumer culture theory (CCT): twenty years of
research, Journal of Consumer Research, 31, 4, 868-882.
Arndt J. (1986), Paradigms in consumer research: a review of perspectives and approaches,
European Journal of Marketing, 20, 8, 23-40.
Asparouhov T. et Muthén B. (2009) Exploratory structural equation modelling, Structural
Equation Modelling, 16, 3, 397-438.
Baron R. M., et Kenny D. A. (1986), The moderator-mediator variable distinction in social
psychological research: conceptual, strategic, and statistical considerations, Journal of
Personality and Social Psychology, 51, 6, 1173-1182.
Bass F. M., Buzzell R. D., Greene M. R., Lazer W., Pessimier E. A., Shawver D., Schuchman
A., et Wilson G. W. (1961), Mathematicals models and methods in marketing, Homewood,
IL, R. D. Irwin.
Bergadaà M., Nyeck S. (1992), Recherche en marketing : un état des controverses, Recherche
et Applications en Marketing, 7, 3, 23-44.
18
Berger J. O., Berry D. A. (1988), Statistical analysis and the illusion of objectivity, American
Scientist, 76, 2, 159-165.
Bolton W. et Drew J.H. (1991), A multistage model of customers’ assessment of service
quality and value, Journal of Consumer Research, 17, 4, 375-384.
Bourgeon-Renault D., Bouchet P., et Pulh M. (2003), L’expérience de consommation de
spectacles vivants : de nouvelles perspectives de recherche, in E. Rémy, I. Garabuau-
Moussaoui, D. Desjeux, M. Filser (coord.), Sociétés, Consommations et Consommateurs,
Paris, L'Harmattan, 127-139.
Cochoy F. (1999) Une histoire du marketing, Paris, La découverte.
Cohen J. (1994), The earth is round (p<.05), American Psychologist, 49, 12, 997-1003.
Cova B., et Cova F. (2009), Nietzsche reloaded : éléments pour une ré-interrogation de la
notion de vérité dans la théorie culturelle de la consommation, in M. Filser (coord.), Journées
de Recherche en Marketing de Bourgogne, 14, http://bit.ly/9b7bGw .
Davies A. et Fitchett J. A. (2005), Beyond incommensurability? Empirical expansion on
diversity in research, European Journal of Marketing, 39, 3/4, 272-293.
Deshpandé R. (1983), "Paradigms Lost": on theory and method in research in marketing,
Journal of Marketing, 47, 4, 101-110.
Dion D., et Ladwein R. (2005), La photographie comme matériel de recherché, in in M. Filser
(coord.), Journées de Recherche en Marketing de Bourgogne, 10, CD-ROM.
Engel J. F., Kollat D. T., et Blackwell R. D. (1968), Consumer behavior, New York, NY,
Holt, Rinehart and Winston.
Evrard Y. (1985), Validité des mesures et causalité en marketing, Revue Française du
Marketing, 101, 17-32.
Evrard Y., Pras B., et Roux E. (1993), Market : études et recherches en marketing, Paris,
Nathan.
19
Firat A. F., et Venkatesh A. (1995), Liberatory postmodernism and the reenchantment of
consumption, Journal of Consumer Research, 22, 3, 239-267.
Fisher R. A. (1990), Statistical methods, experimental design, and scientific inference. A re-
issue of Statistical methods for research workers (1925), The design of experiments (1935),
and Statistical methods and scientific inference (1956), Oxford, Oxford University Press.
Fornell C., et Larcker D. F. (1981), Structural equation models with unobservable variables
and measurement error: algebra ans statistics, Journal of Marketing Research, 18, 3, 382-88.
Foxall G. R. (2000), The contextual stance in consumer research, European Journal of
Marketing, 34, 7, 768-779.
Frank R. E., Kuehn A. A., et Massy W. F. (1962), Quantitative techniques in marketing
analysis, Homewood, IL, R. D. Irwin.
Galan J.-Ph. (2011), Une déconstruction des outils de mesure en marketing, in A. Decrop
(coord.), Congrès International de l’Association Française du Marketing, 27, Association
Française du Marketing, Bruxelles, CD-Rom.
Glaser B.G., et Strauss A. (1967), The discovery of grounded theory: strategies for qualitative
research, Hawthorne, NY, A. de Gruyter.
Grewal R., Cote J. A., et Baumgartner H. (2004), Multicolinerarity and measurement error in
structural equation models: implications for theory testing, Marketing Science, 23, 4, 519-529.
Hammond C. (2005), The wider benefits of adult learning: an illustration of the advantages of
multi-method research, International Journal of Social Research Methodology, 8, 3, 239-255.
Hohenthal J. (2006), Integrating qualitative and quantitative methods in research on
international entrepreneurship, Journal of International Entrepreneurship, 6, 4, 175-190.
Holt D. B. (1991), Rashomon visits consumer behaviour: an interpretive critique of
naturalistic inquiry, in R.H. Holman et M. R. Solomon (coord.), Advances in Consumer
Research, 18, Provo, UT, Association for Consumer Resarch, 57-62.
20
Howard J. A. et Sheth J. N. (1969), The theory of buyer behaviour, New York, NY, John
Wiley and Sons.
Huberman M., et Miles M.B. (1991), Analyse des données qualitatives, Bruxelles, De Boeck.
Hunt Sh. D. (1991), Positivism and paradigm dominance in consumer research: toward
critical pluralism and rapprochement, Journal of Consumer Research, 18, 1, 32-44.
Jagpal H. S. (1982), Multicolineraity in structural equation models with unobservable
variables, Journal of Marketing Research, 19, 4, 431-439.
Johnson R. B. et Onwuegbuzie A. J. (2004), Mixed methods research: a research paradigm
whose time has come, Educational Researcher, 33, 7, 14-26.
Kuhn Th. S. (1962 [1983]), La structure des revolutions scientifiques, Paris, Flammarion.
Loftus G. R. (1996), Psychology will be a much better science when we change the way we
analyze data, Current Directions in Psychological Science, 5, 6, 161-171.
Lutz R. (1989), Positivism, naturalism, and pluralism in consumer research : Paradigm in
paradise, in Th. K . Srull (coord.), Advances in Consumer Research, 16, Provo, UT,
Association for Consumer Research, 1-7.
MacInnis, D.J. et Folkes V.S. (2010), The Disciplinary Status of Consumer Behavior: A
Sociology of Science Perspective on Key Controversies, Journal of Consumer Research, 36,
6, 899–914.
Martinet A.C. (1990), Epistémologie et sciences de gestion, Paris, Economica.
Naïm P., Wuillemin P.-H., Leray Ph., Pourret O., et Becker A. (2008), Réseaux bayésiens,
Paris, Eyrolles, troisième édition.
Nicosia F. M. (1966), Consumer decision processes: marketing and advertising implications,
Englewood Cliffs, Prentice-Hall.
Parasuman A., Zeithaml V. A., Berry L.L (1988), SERVQUAL : a multiple-item scale for
measuring consumer perceptions of service quality, Journal of Retailing, 64, 1, 12-40.
21
Peter J. P., et Olson J. C. (1983), Is science marketing?, Journal of Marketing, 47, 4, 111-125.
Reichardt Ch. S., Cook T. D. (1980), Paradigms lost: some thoughts on choosing methods in
evaluation research, Evaluation and Program Planning, 3, 4, 229-236.
Rosellini A. J., et Brown T. A. (2011), The NEO five-factor inventory : latent structure and
relationships with dimensions of anxiety and depressive disorders in a large clinical sample,
Assessment, 18, 1, 27-38.
Salsburg D. S. (1985), The religion of statistics as practiced in medical journals, American
Statistician, 39, 3, 220-223.
Sherry J. F. (1991), Postmodern alternatives: the interpretive turn in consumer research, in T.
S. Robertson et H. H. Kassarjian (coord.), Handbook of Consumer Behavior, Englewood
Cliffs, Prenctice Hall, 548-591.
Tadajewski M. (2006), Remembering motivation research: toward an alternative genealogy of
interpretive consumer research, Marketing Theory, 6, 4, 429-466.
Thompson C. J. (1993), Modern truth and postmodern incredulity: a hermeneutic
deconstruction of the metanarrative of “scientific truth” in marketing research, International
Journal of Research in Marketing, 10, 3, 325-338.
Thompson C. J., Locander W. B., et Pollio H. R. (1989), Putting consumer experience back
into consumer research: the philosophy and method of existential-phenomenology, Journal of
Consumer Research, 16, 2, 133-146.
Tissier-Desbordes E. (1998), Les études qualitatives dans un monde postmoderne, Revue
Française du Marketing, 168/169, 3/4, 39-49.
Trocchia Ph. J., et Berkowitz D. (1999), Getting doctored: a proposed model of marketing
doctoral student socialization, European Journal of Marketing, 33, 7/8, 746-760.
Van den Belt H. (2003), How to engage with experimental practices? Moderate versus radical
constructivism, Journal for General Philosophy of Science, 34, 2, 201-219.
22
Wallendorf M. Belk R. W. (1989), Assessing Trustworthiness in Naturalistic Consumer
Research, in E. C. Hirschman (coord.), Interpretive Consumer Research, Provo, UT,
Association for Consumer Research, 69-84.
Wu A. D. et Zumbo B. D. (2008), Understanding and using mediators and moderators, Social
Indicators Research, 87, 3, 367-392.
Yoccoz N. G. (1991), Use, overuse, and misuse of significance tests in evolutionary biology
and ecology, Bulletin of the Ecological Society of America, 72, 2, 106-111.