La loi généralisée de l'appariement : une simulation de Monte-Carlo - Archive ouverte HAL Accéder directement au contenu
Article Dans Une Revue Acta Comportamentalia Année : 2014

La loi généralisée de l'appariement : une simulation de Monte-Carlo

Résumé

The generalized matching law (GML) is a descriptive mathematical model that conceptualizes an organism's response ratios as a function of associated reinforcer ratios (Baum 1974). The matching equation has been used in several experimental and natural studies and results frequently showed explained variances (r2) over 80% and sensitivity of 0.80 (Davison & McCarthy 2010). This high level of r2 might suggest that constraints within operant conditioning procedures may inflate GML parameters. For instance, in most operant procedures, such as a concurrent variable-interval schedule of reinforcement, the amount of reinforcers obtained is always lower or equal to the amount of responses, which can be seen as an emergent property of feedback functions. The purpose of the current study is to apply the GML to pseudorandomly sampled data in which this constraint has been computed. A Monte Carlo simulation shows that the generalized matching law explained on average 47 % of the variance, with sensitivity around a value of 0.60 and bias of log c = 0.00. Results found in the current study could be used as an alternative null hypothesis for future studies in natural settings. For instance, explained variances of 0.62, 0.80, and 0.97 could be qualify, respectively, as small, medium and large differences compared to 0.47. The current study is finally compared to McDowell's (2004) simulations. McDowell computed behavioral processes, such as the selection by consequences (Skinner, 1981), within the organism whereas the current study investigates environmental and observational constraints on the regressions estimates. Current results suggest further investigations of underlying environmental constraints when studying the GML. Futures studies are necessary to assess what to expect from the GML when such constraints occur in the operant conditioning procedure.
La loi généralisée de l'appariement (LGA) est un modèle descriptif conceptualisant le ratio des réponses en fonction du ratio des renforçateurs (Baum, 1974). Les résultats des études montrent généralement une sensibilité autour de 0,80 et des variances expliquées (r2) supérieures à 0,80 (Davison & McCarthy, 1988). Les r2 très élevés de la LGA suggèrent la présence de contraintes inhérentes à la plupart des situations opérantes. Dans un programme de renforcement concurrent à intervalle variable, par exemple, la quantité de renforçateurs ne peut surpasser la quantité de comportements émis. L'objectif de la présente étude est de simuler les résultats de la LGA lorsque cette contrainte est implantée à des échantillons pseudoaléatoires. Au total, seize conditions sont répliquées 1 500 fois, représentant 24 000 essais. Les résultats montrent que la LGA obtient en moyenne un r2 de 47 %, une sensibilité de 0,60 et un biais nul. Les résultats suggèrent que des r2 de 0,62, 0,80 et 0,97 sont qualifiables, respectivement, de petite, moyenne et forte différence comparativement à 0,47. La perspective de la présente étude est comparée aux simulations de McDowell (2004) et des pistes de recherche futures sont présentées.
Fichier principal
Vignette du fichier
Caron_2014_acta.pdf (416.59 Ko) Télécharger le fichier
Origine : Fichiers éditeurs autorisés sur une archive ouverte
Loading...

Dates et versions

hal-00999650 , version 1 (03-06-2014)

Identifiants

  • HAL Id : hal-00999650 , version 1

Citer

Pier-Olivier Caron. La loi généralisée de l'appariement : une simulation de Monte-Carlo. Acta Comportamentalia, 2014, 22 (2), 169-179, http://www.revistas.unam.mx/index.php/acom/article/view/47735/42990. ⟨hal-00999650⟩
197 Consultations
257 Téléchargements

Partager

Gmail Facebook X LinkedIn More