Statistiques. Concepts et applications (2e édition)

Statistiques. Concepts et applications (2e édition)

  • Auteur: Haccoun, Robert R. et Denis Cousineau
  • Éditeur: Presses de l'Université de Montréal
  • ISBN: 9782760621138
  • eISBN Pdf: 9782760625846
  • eISBN Epub: 9782760630710
  • Lieu de publication:  Montréal , Canada
  • Année de publication: 2010
  • Pages: 462
Ce manuel est d’abord destiné aux étudiants qui suivront peut-être un seul cours de statistiques dans leur formation, mais il pourra également servir d’entrée en matière à ceux qui suivront des cours plus avancés. Cette deuxième édition maintient l’approche et l’esprit de l’édition originale : elle se sert des concepts pour expliquer les formules plutôt que de se servir des formules pour expliquer les concepts. De plus, la présentation graphique et les textes ont été entièrement révisés et plusieurs sections ont été refondues, notamment celles décrivant les aspects plus complexes portant sur l’inférence statistique. On y trouve aussi de nouveaux contenus, dont un chapitre additionnel sur l’analyse non paramétrique. Comme dans la première édition, chaque chapitre est ponctué de «quiz rapides» qui permettent aux étudiants de vérifier leur niveau de maîtrise des concepts et se termine par des questions à choix multiples. On y trouve évidemment les réponses aux uns et aux autres. Le site Internet qui lui est associé contient pour chaque chapitre du livre des banques de données, des exercices et des commandes d’analyse pour le logiciel SPSS ; on y trouve également des discussions sur l’interprétation des résultats produits par le logiciel. Robert R. Haccoun et Denis Cousineau sont professeurs au Département de psychologie de l’Université de Montréal.
  • Couverture
  • Titre
  • Copyright
  • TABLE DES MATIÈRES
  • Avant-propos
  • Comment utiliser cet ouvrage
  • Chapitre 1: La description des données
    • La description et l’inférence en statistique
    • L’organisation d’une banque de données pour l’analyse statistique
    • Les variables
      • Les variables indépendantes et les variables dépendantes
    • Les échelles de mesure
      • Les variables (échelles) nominales
      • Les variables (échelles) ordinales
      • Les variables (échelles) à intervalles
      • Les variables (échelles) de rapport
      • Les relations entre les diverses échelles de mesure
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 2: La distribution des données
    • La distribution simple des données
    • La distribution groupée des données
      • Comment créer une distribution groupée des données
      • La taille des catégories et leur nombre
      • La distribution groupée des données: sommaire des étapes
    • La distribution relative des données
      • La distribution cumulative: proportions et pourcentages
    • Les représentations graphiques de la distribution des données
      • Le graphique des histogrammes
      • Le polygone des effectifs
    • Les formes de distribution
      • La distribution unimodale
      • La distribution bimodale (ou multimodale)
      • La distribution symétrique
      • La distribution asymétrique
      • Le degré d’aplatissement: leptocurtique et platycurtique
      • La distribution des fréquences: un exemple complet
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 3: Les statistiques descriptives
    • Les statistiques de la tendance centrale
      • Le mode
      • La médiane
      • Critique de la médiane comme statistique de la tendance centrale
      • La moyenne arithmétique
    • Les mesures de dispersion
      • L’étendue
      • L’étendue interquartile
    • La variance autour de la moyenne
      • Le concept de l’erreur autour de la moyenne revisité
      • Critique de la somme des erreurs au carré comme statistique de la dispersion
      • Le calcul de la variance autour de la moyenne
      • L’écart-type
    • Autres statistiques descriptives
      • Le degré d’aplatissement
      • Le coefficient de variabilité
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 4: La position relative des observations
    • Le rang absolu
      • Comment calculer le rang
      • Critique du rang comme mesure de la position
    • Le rang percentile
      • Comment calculer le rang percentile
      • Illustration du rang percentile
      • L’utilisation des percentiles pour interpréter des mesures
      • Critique du rang percentile comme mesure de positionnement
    • La valeur étalon Z
      • Comment calculer la valeur étalon Z
      • Deux particularités des valeurs étalons Z
      • Comment ramener une valeur étalon à sa valeur initiale brute
    • Autres valeurs étalons
      • Comment calculer la valeur étalon T
      • Créer sa propre valeur étalon
      • Un dernier mot sur les valeurs étalons
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 5: La distribution normale
    • Quelques conseils de prudence en guise de préambule
    • Définition de la distribution normale
    • La densité sous la courbe
    • La conversion des valeurs étalons Z en rangs percentiles
      • Comment trouver la densité des observations se situant entre deux valeurs
    • La conversion des rangs percentiles en valeurs étalons Z
      • Le tableau de la proportion sous la courbe normale standardisée
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 6: La corrélation
    • La corrélation de Pearson
    • La logique qui sous-tend le calcul de la corrélation
      • Comment calculer la corrélation de Pearson entre deux variables?
      • La corrélation positive parfaite (r[sub(xy)] = +1,00)
      • La corrélation négative parfaite (r[sub(xy)] = –1,00)
      • La corrélation nulle (r[sub(xy)] = 0,00)
      • Les corrélations qui ne sont pas parfaites (r[sub(xy)] entre –1,00 et +1,00)
      • Le coefficient de détermination
      • Le coefficient de non-détermination
      • Le coefficient de détermination, de non-détermination et la réduction de l’incertitude relative
      • Représentation schématique de la corrélation et du coefficient de détermination
    • Remarques supplémentaires
      • Corrélation et causalité
      • Corrélation de Pearson et variance des variables
      • Corrélation et observations loin de la moyenne
      • Corrélation de Pearson et relation linéaire
      • Une façon pratique de présenter une corrélation: le tableau des attentes
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 7: La régression linéaire simple
    • Le graphique de dispersion et la droite de régression
      • Quelques conventions
      • Les statistiques de la régression linéaire
      • Déterminer la position de la droite de régression
      • L’explication du coefficient de régression b
      • L’explication de l’ordonnée à l’origine et sa relation avec b
      • L’erreur de prédiction en régression linéaire
    • Exemple de prédiction de la note à un examen final
      • La différence entre le coefficient b et le coefficient β
      • L’ordonnée à l’origine pour la régression standardisée
      • La régression simple et la régression multiple
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 8: Les concepts de l’inférence statistique
    • L’échantillon et la population: les deux concepts fondamentaux de l’inférence
      • La population
      • L’échantillon
    • La population, l’échantillon et l’inférence
    • L’échantillon représentatif et l’échantillon aléatoire
      • L’échantillon aléatoire: les deux principes fondamentaux
    • Statistiques et paramètres
      • La relation entre les statistiques et les paramètres
      • Le calcul des paramètres de la population
      • Le concept de degré de liberté
    • La théorie, l’hypothèse et la vérification de l’hypothèse nulle
      • Exemples d’hypothèses et d’hypothèses nulles
      • La fluctuation dans les échantillons aléatoires
      • Les erreurs d’inférence
      • Une ou plusieurs populations?
      • Les hommes viennent de Mars, les femmes viennent de Vénus
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 9: La mécanique de l’inférence statistique
    • Quand les échantillons aléatoires ne sont pas identiques: l’erreur d’échantillonnage
    • Quantifier l’erreur d’échantillonnage
      • L’expérience d’échantillonnage et l’erreur type de la moyenne
      • L’estimation de l’erreur type de la moyenne des échantillons
      • L’estimation de l’erreur type de la moyenne en pratique
      • L’utilisation de l’erreur type de la moyenne
      • Le théorème de la limite centrale
      • Les implications du théorème de la limite centrale pour l’inférence
    • La signification statistique
      • Le risque d’erreur d’inference et le seuil de signification α (alpha)
    • L’intervalle de confiance
      • Le calcul de l’intervalle de confiance
      • La valeur Z et la taille de l’intervalle de confiance
      • Le principe du test de signification statistique sur un seul échantillon: H versus H[sub(0)]
      • Le test de signification statistique pour la différence entre deux échantillons
      • Ce que la signification statistique dit et ce qu’elle ne dit pas
    • L’erreur de type I et l’erreur de type II
      • Les éléments qui affectent le risque d’une erreur de type I et de type II
      • Choisir entre les risques d’une erreur de type I ou de type II
    • Sommaire du chapitre
    • Comment trouver l’erreur type de la moyenne
    • Exercices de compréhension
  • Chapitre 10: Une ou deux populations? Le test t
    • Pourquoi un «petit» échantillon?
      • L’erreur type de la moyenne et les petits échantillons
      • L’intervalle de confiance pour les petits échantillons
      • Le tableau des valeurs critiques de t
    • Le test t pour un échantillon
    • Le test t pour deux échantillons indépendants
      • La logique de base pour le test t pour échantillons indépendants
      • Le calcul de la statistique t[sub(observé)] pour les échantillons indépendants
      • Les degrés de liberté du test t pour les échantillons indépendants
      • Un exemple de calcul pour le test t pour les échantillons indépendants
      • Le signe de la statistique t[sub(observé)]
      • Hypothèse unicaudale ou hypothèse bicaudale?
      • La valeur critique de t pour les hypothèses unicaudale et bicaudale
      • L’utilisation du tableau des valeurs critiques pour les tests unicaudaux et bicaudaux
      • Le seuil α
      • Un exemple de test t sur deux groupes indépendants
    • Le test t pour des données pairées
      • Les degrés de liberté dans le test t pour échantillons pairés
      • Une illustration du test t pour échantillons pairés
    • Sommaire des étapes pour réaliser un test t
    • Rédiger une interprétation des données
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 11: L’analyse de variance à un facteur
    • L’utilisation de l’ANOVA
      • Ce que l’ANOVA dit
      • Ce que l’ANOVA ne dit pas
    • Pourquoi l’ANOVA et pas le test t?
      • Les tests t multiples: une stratégie peu pratique
      • Les tests t multiples: une strategie qui cumule les risques d’une erreur de type I (α)
    • La variable indépendante et la variable dépendante pour l’ANOVA
    • Le principe fondateur de l’analyse de variance: les différences intergroupes et intragroupes
      • Les composantes de la statistique F
      • La moyenne globale (M.)
      • La différence entre les groupes: la somme des carrés intergroupe (SC[sub(inter)]
      • La différence intragroupe: la somme des carrés moyens intragroupe
      • Le calcul de la statistique F
      • La distribution théorique de la statistique F
      • La valeur critique F et le tableau des valeurs critiques de la statistique F
      • L’utilisation du tableau des valeurs critiques de F pour faire une inférence
    • Sommaire du test de l’hypothèse pour K groupes
      • Poser les hypothèses
      • Choisir le seuil de signification α
      • Spécifier la règle décisionnelle pour choisir entre H et H[sub(0)]
      • Faire les calculs et conclure
      • Le tableau des sources de variance
    • Les influences sur la probabilité de rejeter H[sub(0)]
      • Le choix du seuil α: l’erreur de type I versus l’erreur de type II
      • Comment réduire le risque d’erreur de type I et de type II?
    • Les tests de comparaisons multiples ou tests a posteriori
      • Le test de comparaisons multiples de Scheffé
    • La taille de l’effet et la statistique êta au carre (η[sup(2)])
      • Une illustration de la taille de l’effet
      • Formule simplifiée pour le calcul d’êta au carré
      • L’interprétation de la taille de l’effet
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 12: L’analyse de variance factorielle
    • L’ANOVA à un facteur et l’ANOVA factorielle: similarités et différences
    • Importance de l’étude des interactions
    • L’organisation d’une ANOVA factorielle
    • Le fonctionnement de l’ANOVA factorielle
      • L’interprétation des effets principaux
      • Un exemple d’ANOVA factorielle à deux facteurs
    • Les hypothèses de l’ANOVA factorielle
    • La décomposition de la somme totale des carrés
      • Le tableau des sources de variance pour l’ANOVA factorielle
      • La signification statistique des statistiques F pour l’ANOVA factorielle
      • Les degrés de liberté pour l’ANOVA factorielle
      • Les degrés de liberté intergroupes pour les effets principaux
      • Les degrés de liberté intergroupes pour l’interaction
      • Les graphiques d’interprétation pour les ANOVA factorielles
      • L’interprétation préliminaire des résultats statistiquement significatifs
      • L’interprétation définitive des résultats de l’ANOVA factorielle
      • Les effets simples
    • Sommaire du chapitre
    • Exercices de compréhension
  • Chapitre 13: Les statistiques non paramétriques
    • L’analyse des variables nominales: le test chi deux
      • L’interprétation de la statistique chi deux
    • L’analyse des variables nominales pour deux variables indépendantes
    • La corrélation entre les variables ordinales: le coefficient de corrélation de Spearman
      • Un exemple de la corrélation par rang de Spearman
    • Un test sur deux échantillons indépendants: le Wilcoxon-Mann-Whitney
      • Un exemple du Wilcoxon-Mann-Whitney
      • Un exemple plus complexe du Wilcoxon-Mann-Whitney
    • Un test sur k échantillons indépendants
      • Un exemple du test non paramétrique Kruskal-Wallis
    • Le test de Wilcoxon sur données appareillées
      • Un exemple du test Wilcoxon pour des données appareillées
    • Sommaire du chapitre
    • Exercices de compréhension
  • Annexe
  • Réponses aux quiz rapides
  • Bibliographie

SUBSCRIBE TO OUR NEWSLETTER

By subscribing, you accept our Privacy Policy