Aller au cinéma est une activité divertissante mais aussi fort risquée : c’est une activité coûteuse en argent mais aussi en temps, difficile à organiser dès lors qu’il y a plus d’un participant et qui comporte de multiples petits dangers qui peuvent gâcher une séance : se retrouver derrière un géant ou à coté d’une pipelette, renverser son pop-corn, se tromper de salle, perdre ses clés, etc.
Mais la principale source de risque provient du fait que l’on va généralement au cinéma pour voir un film que l’on n’a jamais vu auparavant : par conséquent on n’a jamais de certitude sur la qualité du film et l’on n’est jamais sûr de bien dépenser son temps et son argent ! Heureusement il existe différents moyens de se renseigner sur un film, le plus commode étant à mon gout de visiter le site allocine.fr.
Ce site est une mine d’information : il contient tout un tas de renseignements sur chaque film, permet de voir les bandes-annonces et des extraits de films… Mais surtout il centralise les critiques presses et web et les avis des spectateurs. Ainsi, il est possible de voir d’un simple coup d’oeil comment un film a été accueilli par la critique et par le public.
Néanmoins, l’un des problèmes est que les avis vont souvent d’un extrême à l’autre et qu’il est alors difficile de savoir qui écouter. L’objectif de cet article est d’essayer de comprendre pourquoi les critiques sont si différentes les unes des autres. Est-ce par ce qu’il existe différents publics ayant une appréciation différente d’un même film ? Dans ce cas, les notes attribuées par les différentes critiques à un film sont-elles purement subjectives ? N’y a t-il pas de mesure objective de la qualité d’un film ?
Les données
Julien Kirsch a récemment publié un script permettant de récupérer des données sur le site d’Allociné et a bien voulu partager les données qu’il a collectées. Celles-ci contiennent tout un tas d’informations sur environ 6000 films : on connait ainsi pour chaque film le ou les genres, les tags associés, le réalisateur, la note moyenne du public et les notes attribuées par différentes critiques presses et web (nous parlerons de “revues” par la suite).
Pour que ces données soient statistiquement exploitables, je l’ai ai réorganisées sous la forme de deux tableaux. Le premier tableau contient diverses informations sur les films – chaque ligne représentant un film différent. Le second tableau contient les notes attribuées par chaque revue : chaque ligne représente une revue et chaque colonne un film.
Il ne faut pas perdre de vue que les notes attribuées par les revues ne sont pas toujours bien reportées sur le site Allociné : en effet, le système de notation qu’elles utilisent (si elles en utilisent un) ne correspond pas forcément à celui utilisé par Allociné ; les conversions sont souvent imprécises.
Critiques cinéma et opinions politiques
La base de données contient 68 revues différentes, ce qui est un peu trop pour étudier chacune d’elle séparément. Dans un premier temps, on essaie de donc de les regrouper entre elles afin de former des groupes homogènes, plus facile à étudier. Pour cela on utilise une méthode statistique appelée “clustering hiérarchique”.
Le clustering hiérarchique est un algorithme qui regroupe de manière itérative les individus en fonction de leur proximité : à la première étape on considère que chaque observation (ici une revue) forme un groupe différent ; on calcule alors les distances entre toutes les paires de groupes et on associe les deux groupes les plus proches ; on recalcule les distances et de nouveau on associe les deux groupes les plus proches ; ainsi de suite jusqu’à ce qu’il ne reste plus qu’un groupe qui contient l’ensemble des individus.
La principale difficulté de cette méthode est de définir ce qu’est la distance entre les critiques de deux revues. Si cette question méthodologique vous intéresse, vous pourrez jeter un coup d’oeil à la section “calcul des distance” à la fin de l’article.
Le résultat d’un clustering hiérarchique peut être représenté à l’aide d’un dendogramme :
Un dendogramme est un arbre dont les feuilles représentent les observations et les branches les groupes. La distance entre deux groupes est représentée par la hauteur du point auquel se rejoignent les branches qui les représentent. Par exemple, ici, la distance entre le Figaro et le Figaroscope est d’environ 35. La distance entre MCinéma.com et le groupe Figaro/Figaroscope est quant à elle supérieure à 52. Enfin, même si visuellement ils sont très proches l’un de l’autre, Brazil et Positif sont très éloignés l’un de l’autre (distance supérieure à 60).
Sur ce dendogramme, certains regroupements semblent assez naturels. Par exemple, il n’est pas surprenant que le Figaro et leFigaroscope soient très proches l’un de l’autre puisque le second est un supplément distribué avec le premier : les auteurs des critiques sont probablement les mêmes dans les deux journaux. En revanche, d’autres groupes semblent moins naturels et pourtant…
Par exemple, qu’est-ce qui fait que Le Journal du Dimanche, Paris Match, Première et Elle sont dans le même groupe ? A première vue, rien du tout : il s’agit respectivement d’un journal d’information, d’un magasine people, une revue spécialisée et une revue féminine. En réalité, il existe un unique point commun : ces quatre revues appartiennent toutes au groupe Lagardère ! Cine Live et Studio magasine faisaient également partie du même groupe et étaient si proches qu’ils ont fini par fusionner. Le Monde et Telerama appartiennent eux aussi tous deux au même groupe financier. Il est très surprenant de constater que la proximité financière semble induire une proximité dans les opinions cinématographiques !
Si l’on regarde le dendogramme à une échelle plus large, on peut distinguer deux grands groupes de revues : le premier comprend les journaux de gauche et centre-gauche (Libération, L’Humanité, Le Monde et des revues spécialisées plutôt intellectuelles (les Cahiers Du Cinéma et Chronic’art). Le second regroupe quant à lui la presse de droite et centre-droit (Figaro, l’Express, le Point, le Parisien, le JDD) et des revues spécialisées mais plutôt grand public (Studio, Cine Live, Première). Le spectateur moyen se trouve dans ce groupe-là. Enfin Brazil et Positif font bande à part. Ce n’est pas totalement étonnant pour Brazil, puisque cette revue revendique une position d’outsider dans la critique cinématographique (“Le cinéma sans concession($)”)
Il y aurait donc deux grands types de critiques cinématographiques entourés de quelques outsiders : les critiques de gauche/intellectuelles d’une part et les critiques de droite/grand public d’autre part. L’interprétation du résultat de la procédure de clustering est un peu délicate. Doit-on conclure que les critiques cinéma sont influencées par les opinions politiques de leurs auteurs ? Ou bien les revues de gauche ont-elles tendances à émettre des critiques “intellectuelles” ? Dans ce qui suit, on considérera cette deuxième interprétation et on distinguera donc critique «intello» et critique «grand public».
Critique intello VS grand public
Le graphique suivant représente les corrélations entre les critiques des spectateurs et celles des différentes revues. On voit que ces corrélations sont relativement faibles pour les revues “intellectuelles” tandis qu’elles sont relativement élevées pour les revues “grand public”.
Néanmoins, aucune de ces corrélations n’est négative ni proche de zéro, même pour les revues “intellos”. Cela signifie que bien que les notes attribuées par les revues intellos soient sensiblement éloignées de celles attribuées par les spectateurs, les unes ont tendance à être en accord avec les autres : si un film est bien accueilli par les critiques «intellos», il y a de bonnes chances pour qu’il soit également bien accueilli par les critiques «grand public» ainsi que par les spectateurs.
Autrement dit, il existerait un relatif consensus entre les différentes revues et le public sur la qualité d’un film. Afin de visualiser ce relatif consensus, on a comparé dans les trois graphiques ci-dessous les notes attribuées aux différents films par le public, les revues grand public et les revues intellos. Sur chaque graphique les points sont répartis autour d’une droite de pente positive.
Mais s’il existe plus ou moins un consensus sur la qualité des films, qu’est-ce qui distingue alors les critiques «intellos» et les critiques «grand public» ? Sur les graphiques précédents, on peut observer que les notes des revues «intellos» sont sensiblement plus dispersées que les notes des revues «grand public» qui sont elles-même plus dispersées que les notes du public.
Ecart-type des notes | |
Spectateurs | 0.53 |
Revues « grand public » | 0.63 |
Revues « intello » | 0.80 |
Ces différences de dispersion suggère que ce qui différencierait les critiques «intello» et «grand public», ce serait leur sévérité. Les revues «intellos» seraient plus sévères ou plus enthousiastes dans leur jugement ; elles émettraient des opinions tranchées, quitte à aller à l’encontre de l’opinion moyenne, et elles assumeraient ainsi pleinement leur rôle de critique artistique. Au contraire, les revues «grand public» émettraient des opinions plus consensuelles visant à informer la majorité des spectateurs et elles se rapprocheraient donc davantage de l’opinion moyenne.
Conclusion
Cette courte étude suggère qu’il existerait deux genres de critiques : une critique intellectuelle qui aurait un véritable rôle de critique artistique et une critique grand public qui aurait plutôt un rôle informatif. Malgré leurs différences ces deux types de critiques ont tendance à être d’accord sur la qualité d’un film. Ceci suggère que la qualité d’un film serait une caractéristique objective qui transcenderait la diversité des goûts personnels (oui oui, rien que ça !).
A partir des notes des spectateurs et des critiques «grand public» et «intellos», j’ai construit un indice de qualité. Dans le tableau ci-dessous, j’ai reporté les dix meilleurs et les dix pires films de la base de données.
Les Meilleurs Films | Les Pires Films | |
1 | Million Dollar Baby | Donjons & dragons, la puissance suprême |
2 | Le Château dans le ciel | L’Île aux trésors |
3 | Gran Torino | Célibataires |
4 | Là-haut | Sans état d’âme |
5 | Le Voyage de Chihiro | La Possibilité d’une île |
6 | Saraband | La Guerre des miss |
7 | Rivers and Tides | Le Concile de pierre |
8 | WALL·E | Coco |
9 | Mystic River | Basic instinct 2 |
10 | Wallace et Gromit : le Mystère du lapin-garou | L’Emmerdeur |
Deux questions au moins restent en suspens : d’une part, on peut mesurer la qualité d’un film, mais peut-on l’expliquer ? D’autre part, même si en moyenne les différentes critiques sont en accord avec l’avis des spectateurs, peut-on expliquer les écarts observés ?
Pour les curieux : calcul des distances
Lorsque toutes les variables sont quantitatives (c’est notre cas ici : chaque variable représente les notes données à un film), on utilise généralement la distance euclidienne. Mais la difficulté ici est que l’on a beaucoup de valeurs manquantes : aucun film n’a été noté par toutes les revues et aucune revue n’a noté tous les films. Pour comprendre en quoi c’est un problème considérons l’exemple représenté dans le tableau suivant :
Film 1 | Film 2 | Film 3 | |
revue 1 | 4 | 1 | – |
revue 2 | 2,5 | 2,5 | 2,5 |
revue 3 | – | – | 0.5 |
La revue 1 n’a pas noté le film 3. Du coup on ne peut utiliser que les deux premiers films pour mesurer la distance entre les revues 1 et 2. La distance euclidienne est alors de :
\sqrt{1,5^2+1,5^2} = 2,12
La revue 3 n’a quant à elle pas noté les films 1 et 2. La distance avec la revue 2 est alors de :
\sqrt{2^2}=2
La revue 3 serait donc plus proche de la revue 2 que ne l’est la revue 1. Mais ce résultat tient seulement au fait qu’on a utilisé moins de films dans le calcul de la distance. Enfin, il est impossible de calculer une distance entre la revue 1 et la revue 3 car elles n’ont noté aucun film commun.
Malgré la présence de valeurs manquantes, il est possible d’utiliser la distance euclidienne à condition d’avoir pour toute paire de revues au moins un film en commun et à condition de pondérer les distances calculées pour tenir compte du fait qu’elles ne sont pas mesurées selon le même nombre de critères. Afin d’éviter d’introduire des biais étranges on supprime les films qui sont notés par un trop petit nombre de revues et on supprime les revues qui ont noté un trop petit nombre de films
Faites-le vous-même
Les données peuvent être chargées dans R à l’aide des commandes suivantes :
load(url("https://francoisguillem.fr/data/grades.rda")) load(url("https://francoisguillem.fr/data/films.rda"))
Ces commandes chargent deux data.frame. «grades» contient les notes attribuées par chaque revue à différents films. La dernière ligne contient la note moyenne des spectateurs. Le data.frame «films» contient différentes informations sur les différents films.
Avant d’effectuer le clustering, les données ont nécessité les traitements suivants :
# On ne conserve que les "journeaux" ayant commenté au moins un film sur 5 i <- apply(grades[, -1], 1, function(x) mean(is.na(x))) < 0.8 revues <- grades[i, ] revues <- revues[-c(22),] # On supprime cette ligne car problème de données # manquantes dans le calcul des distances. # On ne garde que les films qui ont été commenté par plus de la moitié des journeaux j <- apply(revues[,-1], 2, function(x) sum(!is.na(x))) >= 15 revues <- revues[,c(TRUE, j)]
Le clustering hiérarchique et l’affichage du dendogramme se fait à l’aide des commandes suivantes :
# Clustering hiérarchique d <- dist(revues[,-1]) h <- hclust(d, "complete") #Dendogramme plot(h, labels = revues[,1])
Enfin on peut récupérer les clusters à l’aide la fonction «cutree».
cluster <- as.factor(cutree(h, 3)) levels(cluster) <- c("grandPublic","outsider", "intello")