You are on page 1of 270

EDITORIAL

555 auteurs, 37 numéros, Hermès a 15 ans


En 15 ans, Hermès a été témoin, et acteur, des formidables mutations qui affectent la
communication. Ce fut d'abord la dérégulation de l'audiovisuel, l'apparition de secteurs
privés forts, puis le câble et le satellite ont facilité la fragmentation de l'offre et le début de
la communication à la demande. Avec le changement technique, les chaînes thématiques,
notamment d'information, se sont développées, puis les bouquets satellites ont agrandi
encore le spectre. Internet a contribué ensuite à infléchir le comportement des usagers,
surtout chez les jeunes. L'élargissement et la diversification de tout ce qui concerne
l'information, les services, les loisirs, l'éducation, ont transformé le champ de la
communication. Celle-ci a pénétré tous les aspects de la vie quotidienne, modifiant les
comportements et les habitudes, jusque dans la politique. Au delà des techniques, la
communication est devenue le symbole naturel de la modernité.
Au plan international la mondialisation technique a rencontré la globalisation
économique, avec la fin du conflit Est/Ouest. Le «village global» devint une réalité technique
au moment où l'économie de la communication prenait son essor, avec la fantastique
concentration mondiale des industries culturelles et de la communication. Les autoroutes de
l'information, puis le thème étrange de la société de l'information sont devenus le symbole du
progrès. Il n'était question que de cosmopolitisme et de culture mondiale. La puissance
financière garantissait la diversité culturelle, présentée comme la suite naturelle, et logique du
village global. Tout n'était que relation et interaction, avec seulement des pays en avance et
d'autres en retard. Nous n'avons pas été nombreux, à l'époque, à vouloir dissiper l'illusion du
village global.
De toute façon ni cette «nouvelle frontière», ni les utopies démocratiques d'Internet,
n'ont suffi à créer un monde meilleur: on a découvert l'incommunication culturelle, une
visibilité encore plus grande des inégalités, la montée des intolérances, des terrorismes et des
guerres. Le rêve un peu naïf de la mondialisation économique et technique comme
condition de la paix s'est heurté aux dures lois de l'Histoire et des injustices. Voir l'Autre
n'a pas suffi à le rendre plus compréhensible. D'autant que cet Autre, est souvent le Sud,
partenaire bien inégal de cette «révolution mondiale de l'information et de la
communication». Passé le moment de fascination pour ces outils et la demande justifiée,
d'en profiter, le Sud se demande de plus en plus où est dans tout cela le modèle universel
de l'information et de la communication, tant vanté par le Nord ? D'autant que le même

HERMÈS 37, 2003 9


Les quinze ans d'Hermès, 1988-2003

Nord détient la maîtrise technique, économique, mais aussi culturelle et cognitive. Si, il
existe 6, 5 milliards d'habitants de la planète, 4, 5 milliards de postes de radio, 3, 5 milliards
de postes de télévisions, plus d'un milliard de téléphones portables et moins d'un milliard
d'ordinateurs, chacun devine les inégalités. D'ailleurs avec la naissance des mouvements
altermondialistes, à partir de janvier 2000, c'est cette référence naïve à la mondialisation
comme condition d'un monde meilleur qui est mise en cause. Non seulement le monde
multipolaire duXXIesiècle est plus dangereux que le monde fini duXXesiècle, mais en outre
le fait qu'il soit ouvert et visible accentue la naissance d'une vision critique. L'information et
la communication ont rencontré de plein fouet, les forces et les contradictions de la
technique, de l'économie et de la politique.
Durant ces 15 années la communication a ainsi émergé au plan mondial comme un des
enjeux politiques et culturels majeurs duXXIesiècle, avec l'opposition de deux philosophies,
l'une technique et économique, l'autre humaniste et démocratique. En un mot on est passé
des performances techniques, des miracles économiques, et des mirages symbolisés par la
bulle spéculative d'Internet (1999-2001) à un retour de l'Histoire et de la politique, où
l'enjeu de la cohabitation culturelle au niveau mondial constitue la symétrique de cette
explosion de la communication.
Toute réflexion sur la communication est donc liée, à une problématique politique, et
plus généralement à une philosophie de l'histoire. Ceci requiert alors beaucoup de
connaissances et de théories pour essayer de s'affranchir des discours techniques,
économiques, politiques qui ont totalement envahi le domaine de la communication.
C'est le rôle d'Hermès, depuis 15 ans de contribuer, avec d'autres, à construire ces
connaissances à la fois d'un point de vue théorique, empirique, historique, et comparatif.
Tâche d'autant plus importante que dans l'emballement qui caractérise la communication
depuis une génération, la demande de connaissances est bien faible dans les disciplines
d'histoire, économie, sociologie, science politique, anthropologie, philosophie... Même si
l'Université, plus que le CNRS, a construit des filières d'enseignement. Il y a d'ailleurs un réel
décalage entre la demande forte, de la part des étudiants, et d'autre part le peu de curiosité
qui existe chez une bonne partie du monde académique, des journalistes, hommes politiques,
hauts fonctionnaires pour tout ce qui concerne les questions théoriques de communication,
culture et société. Comme si les jeunes, de plain-pied avec la communication, en percevaient
déjà la complexité anthropologique et politique, alors que les plus anciens n'y voient encore
que des recettes, de la manipulation, et des logiques formelles.
Pourtant les enjeux sont considérables et, de l'échelle individuelle à la collectivité, de l'Etat
Nation, à la mondialisation, on ne sait guère comment les individus et les sociétés vont finalement
accepter ou refuser de vivre dans cet univers encombré d'informations, de rumeurs, de signes,
d'images, d'interactions, de services techniques, mais où l'intercompréhension, le respect de la
diversité culturelle et tout simplement l'intérêt pour l'autre n'auront pas forcément changé.

10 HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

En réalité, ce sont les rapports entre information, culture et communication, qui


deviennent à la fois de plus en plus visibles, et de plus en plus compliqués.
Nous, chercheurs, universitaires, si nous n'avons pas toujours de réponses, au moins,
nous savons que bien poser les questions est important. Et qu'en tous les cas, plus il y a de
technique, de service, d'économie, plus il faut un effort intellectuel, et théorique, pour
construire les cadres des connaissances susceptibles de penser cette «révolution de la
communication». Faut-il attendre la aussi les crises pour découvrir l'utilité et l'importance
des sciences humaines et sociales? Face aux promesses techniques, aux mirages
économiques et aux utopies sociales et politiques, il faut prendre de la distance. Admettre
que les hommes et les sociétés ne sont pas en ligne avec les réseaux. Sortir de la technique
et de l'économie pour réintroduire l'histoire et les sociétés, les hommes et les projets.
Hermès, revue scientifique, participe à cet effort. Et nous l'avons fait, avec une certaine
joie et liberté d'esprit. Il y eut beaucoup de travail dans ces 37 numéros. Merci pour tout
cela aux 535 auteurs et aux membres du Comité et du Secrétariat de rédaction. L'immensité
de ce domaine, intellectuel et scientifique, et l'obligation de l'aborder de manière
interdisciplinaire nous rend à la fois modestes, mais libres. Il y a tout à faire et penser.
Certains numéros de la revue ont profondément marqué ce domaine, en permettant
d'élargir les perspectives. Si la génération des années 1960 fut celle des précurseurs pour les
recherches sur la communication, la nôtre, depuis les années 1980 est sans doute aussi
pionnière car nous sommes les témoins de l'explosion de l'information et de la
communication devenue à la fois enjeu d'un gigantesque changement scientifique
technique, économique et politique. Si depuis 15 ans la technique et l'économie dominent
nous savons bien que l'essentiel se jouera sur le mode culturel, social et politique.
Vivre dans un monde plus visible, ne le rend pas forcément plus compréhensible, ni plus
tolérable. «La fin des distances physiques révèle l'étendue des distances culturelles». Et penser
les conditions à partir desquelles information et communication peuvent faciliter une certaine
compréhension, où en tout cas le respect et le dialogue des cultures au niveau mondial, est sans
doute un des défis à la fois théoriques et politiques les plus importants du siècle a venir.
Produire des connaissances, évaluer les expériences, introduire du comparatisme,
construire l'histoire de ce champ, s'ouvrir à de nombreuses problématiques tel est l'objectif
de la revue depuis 15 ans.
En fait tout ceci est possible, non seulement parce que ce champ de connaissances est
neuf et interdisciplinaire, mais aussi parce que Hermès a toujours été un lieu de rencontre. Un
carrefour de destins individuels et scientifiques pour des personnalités qui par des chemins
différents éprouvent toutes l'impérieuse nécessité d'une réflexion théorique sur la
communication. Pas une école théorique, mais un milieu, un lieu de rencontre, avec
l'acceptation d'un travail difficile interdisciplinaire, dont la richesse se voit dans la variété des
thèmes abordés. Comme toujours, les revues qui réussissent dans l'histoire sont la rencontre

HERMÈS 37, 2003 11


Les quinze ans d'Hermès, 1988-2003

d'une grande question scientifique, littéraire ou politique et la création d'un milieu amical où
la liberté de penser et la tolérance mutuelle permettent de travailler ensemble.
En un mot une certaine ambition nous rassemble: accorder à l'information, la
communication et la culture la place qui est la leur au cœur de nos sociétés, et de la
mondialisation. Reconnaître que derrière toute théorie de la communication il y a une
théorie de la société, est sans doute l'originalité d'Hermès.
Il y a finalement, depuis 15 ans, un moment Hermès, fait de liberté, curiosité, rapports
amicaux, confiance mutuelle... Il ne subsistera peut-être pas quand les positions théoriques
et politiques, sur les grands enjeux de l'essor de l'information et de la communication seront
plus structurés. Pour l'instant c'est le Var West de la connaissance.
On peut dire d'ailleurs qu'Hermès, illustre la capacité des universitaires et chercheurs
à construire un nouveau domaine de connaissance. Ce qui explique le succès du site en trois
langues, français, espagnol, anglais, ainsi que celui de la revue, classée première en 2001
après une enquête du ministère de la Recherche auprès de la même de communauté.
Le travail accompli illustre le fait qu'il existe déjà une réelle communauté scientifique,
au CNRS, à l'Université, et à l'étranger même si la plupart du temps celle-ci manque encore
de légitimité et de visibilité. Une partie du monde académique, reste encore indifférent à
l'égard de l'importance de ces questions. Pourtant la mondialisation de la communication,
où tout est mélangé, intérêts et valeurs, utopies et marchandises, générosités et inégalités ne
simplifie pas le problème. Les événements vont plus vite que l'analyse.
Les chantiers théoriques et empiriques sont innombrables pour comprendre pourquoi
en dépit de l'omniprésence de l'information et, de la communication, les hommes ne se
comprennent et ne se tolèrent pas plus qu'hier. Sans doute parce que le défi de la
communication, depuis toujours, renvoie plus à la gestion des différences, qu'a l'économie
des ressemblances. Et qu'il n'y a pas de communication sans respect de la diversité et de
l'altérité. Ce qui explique l'ampleur des problèmes à l'heure des sociétés ouverte, et la raison
pour laquelle les concepts d'information et de communication sont inséparables de la
société démocratique. Cinq grands domaines de recherches sont notamment au cœur des
futurs numéros d'Hermès.
L'épistémologie des sciences de l'information et de la communication.
Les enjeux de la cohabitation culturelle au plan mondial.
Des sciences cognitives à la communication. Les rapports entre identité-culture-
communication.
Les concepts et pratiques de la « société de l'information et de la communication ».
Les mutations de la communication politique.

Dominique Wolton
Directeur de la revue Hermès

12 HERMÈS 37, 2003


HERMES
Cognition, Communication, Politique

1988 - 2003

DIRECTEUR DE LΑ PUBLICATION
Dominique WOLTON

CONSEIL SCIENTIFIQUE
Paul AMSELEK - Marc AUGÉ - J a y G. BLUMLER - Mario BORILLO - Roland CAYROL -Jean-Paul CODOL - J e a n -
Pierre DESCLÉS -Jean-Pierre DUPUY - Marc FERRO - Eugène FLEISCHMAN - Max FONTET - Jürgen HABERMAS
- Elihu KATZ - Jacques LAUTMAN - Jean LECA - Jean-François LYOTARD - Louis MARIN - Edgar MORIN -
Elisabeth NOELLE NEUMANN - Annick PERCHERON - Jean-François RICHARD - Alain TOURAINE - Andrew
WOODFIELD

COMITÉ DE RÉDACTION
Marc ABÉLÈS - Gilles ACHACHE - Daniel ANDLER - André AKOUN - Marc ANGENOT - Erika APFELBAUM -
Sylvain AUROUX - Tamatoa BAMBRIDGE - Jean-Michel BESNIER - Gilles BOËTSCH - Daniel BOUGNOUX -
Dominique BOULLIER - Pierre BOURETZ - Alain BOYER - Dorine BREGMAN - Manuel Maria CARRILHO - Claude
CHABROL - Dominique CHAGNOLLAUD - Pierre CHAMBAT - Régine CHANIAC - Jean-Marie CHARON - Anne-
Marie CHARTIER - Agnès CHAUVEAU - Suzanne de CHEVEIGNÉ - Jean-Pierre CHRETIEN-GONI - Marie-
Françoise COUREL - Éric DACHEUX - Jean DAVALLON - Daniel DAYAN - Jean-Pierre DESCLES - Dominique
DESJEUX - Jean DEVÈZE - Marco DIANI - Alexandre DORNA - Jean-Pierre DOUMENGE - Marianne DOURY -
Jean-Pierre DUPUY - Jacques DURAND - Pascal DURAND - Jean ELLEINSTEIN - Pascal ENGEL - Jean-Pierre
ESQUENAZI -Joëlle FARCHY - Jean-Marc FERRY - Bernard FLORIS - Gilles GAUTHIER - Pascal GRISET - Smail
HADJALI - Jean-Robert HENRY - Mark HUNYADI - Geneviève JACQUINOT-DELAUNAY - Yves JEANNERET -
Lucien JAUME - Josiane JOUËT - Jean-Paul LAFRANCE - François LAPLANTINE - Anne-Marie LAULAN -
Christian LAZZERI - Marie-Françoise LÉVY - Edmond-Marc LIPIANSKY - Marc LITS - Guy LOCHARD - Éric
MAIGRET - Dominique MEHL - Arnaud MERCIER - Michel MEYER - Patrice MEYER BISCH - Marie José
MONDZAIN - Laurence MONNOYER-SMITH - Jean MOUCHON - Jean-Paul NGOUPANDÉ - Bruno OLLIVIER -
Susan OSSMAN - Thierry PAQUOT - Jean-Gustave PADIOLEAU - Pascal PERRINEAU - Jacques PERRIAULT -
Bernard PERSONNAZ - Denis PESCHANSKI - Serge PROULX - Serge REGOURD - Dominique REYNIÉ - Yves
SAINT-GEOURS - Philip R. SCHLESINGER - Dominique SCHNAPPER - Jacques SÉMELIN - Andrea SEMPRINI -
Marie-Noële SICARD - Monique SICARD - Roger SILVERSTONE - Isabelle SOURBÈS-VERGER - Pierre-André
TAGUIEFF - Jean-François TÉTU - Françoise THIBAULT - Éliséo VÉRON - Isabelle VEYRAT-MASSON - Georges
VIGNAUX - Lorenzo VILCHES - Michel WIEVORKA - Uli WINDISCH - Yves WINKIN - Christoph WULF

SECRÉTARIAT DE RÉDACTION
Thierry Sylvain BAUDART - Frédérique BENGUIGUI-CLAVEAU - Nicole BRUNET-MAUCOURT - Françoise
DELAVEAU - Marie-Christine PAOLETTI - Catherine PRIOUL

HERMÈS 37, 2003 13


LES TITRES DES 3 7 NUMÉROS D'HERMÈS Hermès 8-9 1990, 415 pages
Frontières en mouvement
Pour plus d'informations sur les publications,
Coordonné par Daniel Dayan, Jean-Marc Ferry,
consulter le site:
Jacques Sémelin, Isabelle Veyrat-Masson, Yves Winkin
http:www.wolton.cnrs.fr
et Dominique Wolton

Hermès 1 1988, 225 pages


Hermès 10 1992, 360 pages
Théorie politique et communication
Espaces publics, traditions et communautés
Coordonné par Christian Lazzeri
Coordonné par Jean-Marc Ferry
et Jean-Pierre Chrétien-Goni

Hermès 11-12 1993, 464 pages


Hermès 2 1988, 250 pages À la recherche du public
Masses et politique Réception, télévision, médias
Coordonné par Dominique Reynié Coordonné par Daniel Dayan

Hermès 13-14 1994, 444 pages


Hermès 3 1988, 188 pages
Espaces publics en images
Psychologie ordinaire et sciences cognitives
Coordonné par Daniel Dayanet Isabelle Veyrat-Masson
Coordonné par Pascal Engel
Hermès 15 1993, 464 pages
Hermès 4 1989, 255 pages Augmentation et rhétorique. I
Le nouvel espace public Coordonné par Alain Boyer et Georges Vignaux
Coordonné par Dorine Bregman, Daniel Dayan,
Jean-Marc Ferry et Dominique Wolton Hermès 16 1995, 325 pages
Augmentation et rhétorique. II
Hermès 5-6 1990, 404 pages Coordonné par Alain Boyer et Georges Vignaux

Individus et politique
Hermès 17-18 1995, 440 pages
Coordonné par Erika Apfelbaum, Jean-Michel Besnier
Communication et politique
et Alexandre Dorna
Coordonné par Gilles Gauthier, André Gosselin
et Jean Mouchon
Hermès 7 1990, 310 pages
Bertrand Russel. De la logique à la politique Hermès 19 1996, 312 pages
Coordonné par François Clements, pour la partie Voies et impasses de la démocratisation
philosophique et logique et par Anne-Françoise Schmid Coordonné par Patrice Meyer-Bisch
pour la partie politique et Edward M. Swidersky

HERMÈS 37, 2003 15


Les quinze ans d'Hermès, 1988-2003

Hermès 20 1997, 296 pages Hermès 29 2001, 288 pages


Toutes les pratiques culurelles se valent-elles ? Dérison - Contestation
Création artistique, développement culturel Coordonné par Arnaud Mercier
et politique publique
Coordonné par Jean-Pierre Sylvestre Hermès 30 2001, 262 pages
Stéréotypes dasn les relations Nord-Sud
Hermès 21 1997, 288 pages Coordonné par Gilles Boëtsch
Sciences et médias et Christiane Vilain-Gandossi
Coordonné par Suzanne de Cheveigné
Hermès 31 2001, 308 pages
Hermès 22 1998, 228 pages L'opinion publique
Perspectives anglo-saxonnes
Mimesis
Coordonné par Loïc Blondiaux et Dominique Reynié
Imiter, représenter, circuler
avec la collaboration de Natalie La Balme
Coordonné par Susan Ossman
Hermès 32-33 2002, 636 pages
Hermès 23-24 1999, 396 pages La France et les Outre-mers
La cohabitation culturelle en Europe L'enjeu multiculturel
Regards croisés des Quinze, de l'Est et du Sud Coordonné par Tamatoa Bambridge,
Coordonné par Eric Dacheux, Annie Daubenton, Jean-Pierre Doumenge, Bruno Ollivier, Jacky Simonin
Jean-Robert Henry, Patrice Meyer-Bisch et Dominique Wolton
et Dominique Wolton
Hermès 34 2002, 288 pages
Hermès 25 1999, 312 pages L'espace, enjeux politiques
Le dispositif Coordonné par Isabelle Sourbès-Verger
Entre usage et concept
Coordonné par Geneviève Jacquinot-Delaunay Hermès 35 2003, 344 pages
et Laurence Monnoyer Les journalistes ont-ils encore du pouvoir ?
Coordonné par Jean-Marie Charon et Arnaud Mercier
Hermès 26-27 2000, 388 pages
www. démocratie locale. fr Hermès 36 2003, 256 pages
Coordonné par Eric Maigret Economie solidaire et démocratie
et Laurence Monnoyer-Smith Coordonné par Eric Dacheux et Jean-Louis Laville

Hermès 28 2000, 320 pages Hermès 37 2003, 310 pages


Amérique latine L'audience
Cultures et communication Presse, Radio, Télévision, Internet
Coordonné par Guy Lochard et Philipp R. Schlesinger Coordonné par Régine Chaniac

16 HERMÈS 37, 2003


LES AUTEURS D'HERMÈS DE 1988 À 2003
Auteurs (555) du n° 1 au n° 37 (compris).
Le chiffre entre parenthèses renvoie au numéro de la revue dans lequel l'auteur a écrit.

Abélès Marc (4, 8-9) - Achache Gilles (1, 4) - Akoun André (19, 23-24, 28, 34) - Albizú
Labbé Francisco (28) - Aldridge Meryl {35) - Alexander Jeffrey C. (8-9) - Alié-Monthieux
Marijosé (32-33) - Al Wardi Sémir (32-33) - André Sylvie (32-33) - Ang Ien (11-12) -
Angleviel Frédéric (32-33) - Anscombre Jean-Claude (15, 16) - Apfelbaum Erika (5-6) -
Appé Olivier (37) - Arterton F. Christopher (26-27) - Assoun Paul-Laurent (5-6) - Aubry
Paul (5-6) - Augey Dominique (35) - Auroux Sylvain (15, 16) -

Babadji Ramdane (23-24) - Babou Igor (21) - Baert Annie (32-33) - Baisnée Olivier (35)
- Balima Serge Théophile (28) - Balme Stéphanie (34) - Bambridge Tamatoa (32-33) -
Baptista Joaquim (23-24) - Bardelot Brigite (29) - Bariki Salah-Eddine (30) - Bataille
Georges (5-6) - Beauchamp Michel (15, 16, 17-18) - Bélanger André-Jean (17-18) - Belin
Emmanuel (25) - Belloni Maria Luiza (8-9) - Benoit Sophie (37) - Bernabé Jean (32-33)
- Bernheim Henri (5-6) - Berten André (25) - Bertile Wilfrid (32-33) - Berting Jan (30)
- Bibler V.S. (18) - Binet Alfred (5-6) - Blaive Muriel (23-24) - Blanc Jérôme (36) -
Blanchard Pascal (30) - Blanchot Fabien (35) - Blondiaux Loïc (26-27, 31) - Bochmann
Klaus (30) - Boëtsch Gilles (23-24, 30) - Bogdan Radu (3) - Bonnafous Simone (29) -
Bornhausen Stéphane (22, 23-24) - Bouchet Hubert (37) - Bouchindhomme Christian
(10) - Boudon Raymond (4, 15, 16) - Bougnoux Daniel (5-6) - Bouillon Pascale (26/27) -
Boullier Dominique (26-27, 37) - Bourdon Jérôme (11-12) - Boure Robert (26-27) -
Bourricaud François (1) - Bouvier Alban (15, 16) - Boyer Alain (8-9, 15, 16, 36) -
Brackelaire Jean-Luc (25) - Brami Celentano Alexandrine (32-33) - Bras Jean-Philippe
(23-24) - Bregman Dorine (4) - Breton Philippe (17-18) - Bridier Juliette (23-24) -
Bruneteaux Patrick (29) - Bryce James (31) - Bucolo Elisabetta (36) - Burac Gabrielle
(32-33) - Burguière André (20) - Bursztyn Igal (13-14) - Bustamante Enrique (28) -

Caillet Elisabeth (20) - Canclini Néstor García (28) - Capparelli Sérgio (35) - Caramani
Daniele (13-14) - Carcassonne Marie (22) - Carrilho Manuel Maria (15, 16) - Cartier-
Bressonjean (19) - Carvallo Fernando (10) - Caune Jean (20) - Cérézuelle Daniel ( 3 6 ) -
Chabrol Claude (23-24) - Champagne Patrick (17-18, 37) - Chaniac Régine (37) - Chanial
Philippe (36) - Charlier Philippe (25) - Charon Jean-Marie (35, 37) - Charron Jean (15,

HERMÈS 37, 2003 17


Les quinze ans d'Hermès, 1988-2003

16, 17-18) - Chartier Anne-Marie (20, 25) - Chaumont Jean-Michel (10) - Chauveau
Agnès (13-14) - Chervin Jacqueline (21, 34) - Chevé Dominique (30) - Cheveigné
Suzanne (de) (21) - Chevreux Marie-Dominique (37) - Chopin Olivier (34) - Chosson
Jean-François (20) - Chrétien-Goni Jean-Pierre (2) - Ciavarini Azzi Giuseppe (32-33) -
Clavreul Jean (5-6) - Codello-Guijarro Pénélope (36) - Colas Dominique (7) - Combeau
Yvan (32-33) - Confiant Raphaël (32-33) - Constant Fred (32-33) - Cooley Charles
Horton (31) - Coray Renata (21) - Corner John (11-12, 21) - Cottet Jean-Pierre (37) -
Coulomb-Gully Marlène (29) - Culcer Dan (8-9) - Cultiaux Yolaine (23-24) - Curran
James (11-12)-

Dacheux Éric (21, 23-24, 36) - Dahlgren Peter (13-14) - Da Lage Olivier (35) - Darde
Jean-Noël (22) - Daubenton Annie (23-24) - David-Biais Martin (15, 16, 17-18) - Davies
Martine (3) - Davis Simone (22) - Dayan Daniel (4,11-12,13-14) - de Barros Filho Clóvis
(35) - Deconchy Jean-Pierre (19) - Dehee Yannick (34) - De Jaucourt (2) - Delbos
Georges (32-33) - Demers François (15, 16, 17-18, 35) - Derville Grégory (29) -
Descamps Christian (10) - Desrosières Alain (2) - Devèze Jean (29) - Dewey John (31) -
Diabi Yahaya (28) - Domecq Jean-Philippe (20) - Dorna Alexandre (5-6,15,16,19) - dos
Santos Suzy (35) - Doumenge Jean-Pierre (32-33) - Dubucs Jacques (15, 16) - du Chéné
Amaury (32-33) - Duprat Annie (29) - Dupreel Eugène (2) - Dupuy Jean-Pierre (1) -
Durand Georges (28) - Durand Jacques (11-12, 32-33) - du Roy Albert (35) -

El Emary Naglaa (8-9) - El Khawaga Dina (34) - Elsenhans Hartmut (23-24) - Eme
Bernard (36) - Emilsson Elin (28) - Engel Pascal (3)-Enriquez Eugène (18) - Escudero
Chauvel Lucrecia (28) - Ewerton Fernando (8-9) -

Faberon Jean-Yves (32-33) - Farganel Jean-Pierre (30) - Fave-Bonnet Marie-Françoise


(35) - Favreau Louis (36) - Fer Yannick (32-33) - Ferrari Gianpaolo (30) - Ferraton
Cyrille (36)-Ferrié Jean-Noël (22,23-24,30)-Ferro Marc (19)-Ferry Jean-Marc (4,10)
- Feuerhahn Nelly (29) - Filek Jacek (18) - Fischer Jean-Paul (22) - Fishkin James S. (31)
-Flageul Alain (25)-Flaysakier Jean-Daniel (21)-Fleiner Thomas (18)-Floris Bernard
(36) - Fornari Franco (5-6) - Foucault Michel (2) - Foucher Michel (18) - Fourdin
Monique (26-27) - Fraisse Emmanuel (37) - Fraisse Laurent (36) - Fraser Nancy (31) -
Freitas Perez Léa (35) - Frère Marie-Soleil (28) - Frison-Roche Marie-Anne (15, 16) -
Fromm Erich (5-6) - Frybes Marcin (23-24) - Fuma Sudel (32-33) - Fusulier Bernard
(25) -

Gaillard Florence (34) - Gallini Clara (2) - Gallup George (31) - Gardin Laurent (36) -
Gauthier Gilles (15, 16, 17-18) - Gavin Neil (21) - Gebert Konstanty (23-24) - Geisser

18 HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

Vincent (23-24) - Gens Jean-Claude (20) - Gentès Annie (22) - Gerstlé Jacques (4) -
Gheude Michel (13-14) - Ghiglione Rodolphe (5-6, 11-12, 15, 16) - Giannoni-Pasco
Ariane (34) - Gille Bernard (32-33) - Gingras Anne-Marie (15, 16, 17-18) - Ginsberg
Benjamin (31) - Girard Augustin (20) - Goddard Peter (21) - González A. Jorge (28) -
Gosselin André (15, 16, 17-18) - Gouba Firmin (28) - Goujon Daniel (36) - Grétillat
Francis (15, 16) - Grevisse Benoît (35) - Gribomont Cécile (29) - Grize Jean-Biaise (15,
16) - Groc Gérard (23-24) - Guébourg Jean-Louis (32-33) - Guérin Isabelle (36) -
Gusfield Joseph R. (8-9) - Guttenplan Samuel (3) -

Hall Stuart (28) - Hallin Dan (13-14) - Hamon Augustin (5-6) - Heinich Nathalie (20,
29) - Henry Jean-Robert (21, 23-24, 30) - Hert Philippe (25) - Hess Remi (26/27) - Hesse
Kurt R. (13-14) - Hoogaert Corinne (15, 16) - Hookway Christopher (7) - Ho Tin Noe
Jean-Claude (32-33) - Hunyadi Mark (10) - Hurtado-Beca Cristina (10) - Huyghe
François-Bernard (22) -

Ibrahim Amr Helmy (34) - Idelson Bernard (32-33) - Il'in Viktor (19) - Issler Bernardo
(35)-

Jacques Francis (7) -Jacquinot-Delaunay Geneviève (25) -Janine Ribeiro Renato (35) -
Jardim Pinto Celia Regina (8-9) - Jauvion Alain (22) - Jeanneret Yves (23-24, 37) -
Jézéquel Jean-Pierre (37) -Jordao Fatima (8-9) - Jouët Josiane (37) - J u d e t de La Combe
Pierre ( 1 0 ) -

Kapchan Deborah (22) - Karpik Lucien (35) - Katz Elihu (4, 11-12) - Kaufmann Jean-
Pierre (18) - Kelsen Hans (2) - Kiyindou André-Alain (28) - Klein Annabelle (25) -
Kolm Serge Christophe (18) - Kornhauser William (2) - Kotsi Filareti (21) - Krasztev
Peter (23-24) - Kurtovitch Ismet (32-33) - Kurzweil Edith (5-6) -

Laamiri Mohammed (30) - Labache Lucette (32-33) - La Balme Natalie (31) - Labarrière
Jean-Louis (1) - Laberge Yves (21) - Lagneau Eric (35) - Lahmar Mouldi (30) - Laigneau
Monique (20) - Lanni Dominique (20) - Lannoy Pierre (25) - Laulan Anne-Marie (11-
12, 35, 37) - Laurier Daniel (3) - Lavaud Jean-Pierre (11-12) - Lavigne Alain (15, 16, 17-
18) - Laville Jean-Louis (36) - Lazzeri Christian (1) - Le Bart Christian (26-27) - Lebeau
André (34) - Leblanc Gérard (17-18, 25) - Le Bohec Jacques (26-27) - Lecomte Jean-
Philippe (29) - Le Diberder Alain (37) - Lefébure Pierre (29) - Lefebvre Alain (20, 26-
27) - Lefranc Sandrine (31) - Legendre Pierre (5-6) - Le Guern Philippe (26-27) -
Leleivai Hapakuke Pierre (32-33) - Lellouche Raphaël (1) - Lemieux Vincent (17-18) -
Lempert Emmanuel (34) - Le Ny Jean-François (19) - Lercari Claude (32-33) - Leroux

HERMÈS 37, 2003 19


Les quinze ans d'Hermès, 1988-2003

Pierre (26-27, 29) - Leteinturier Christine (35) - Lettieri Carmela (29) - Leuprecht Peter
(23-24) - Lévy Marie-Françoise (13-14) - Lickova Eva (8-9) - Liebes Tamar (11-12) -
Lippmann Walter (31) - Lits Mark (25) - Livet Pascal (4) - Livet Pierre (1) - Livingston
Sonia (11-12) - Lochard Guy (25, 28) - Lockwood Michael (7) - Logsdon John (34) -
Loiseau Gérard (26-27) - Lorcerie Françoise (23-24) - Louis Patrice (32-33) -Lowel
Abbott Lawrence (31) - Lubeck Ian (5-6) - Lunt Peter (11-12) -

Macé Eric (11-12, 31, 37) - Machado da Silva Juremir (35) - Macherey Pierre (2) -
Maigret Eric (26-27, 30) - Malandrin Gilles (36) - Malavialle Anne-Marie (34) - Malogne-
Fer Gwendoline (32-33) - Mancini Paolo (13-14) - Mandelsaft Germaine (28) - Marchetti
Dominique (35) - Marimoutou Jean Claude Carpanin (32-33) - Marion Philippe (13-14) -
Marramao Giacomo (1) - Martin Marc (21) - Martín-Barbero Jésus (28) - Mathien
Michel (11-12, 35) - Mauduit Jean (37) - Mayol Pierre (20) - Mehl Dominique (13-14) -
Mercier Arnaud (13-14, 19, 20, 21, 29, 35) - Messeder Perdra Carlos A. (8-9) - Messner
Francis (23-24) - Meunier Jean-Pierre (25) - Meyer Michel (15, 16) - Meyer-Bisch Patrice
(19, 23-24) - Michalon Thierry (32-33) - Michel Jean (35) - Micoud André (20) - Miège
Bernard (17-18) - Miller David (15, 16) - Minet Pierre (21) - Moirand Sophie (21) -
Mokaddem Hamid (32-33) - Molinie Georges (15) - Monnoyer-Smith Laurence (21,25,
26-27, 31) - Morley David (11-12) - Morris Nancy (28) - Moscovici Serge (5-6) -
Véronique Mottier (13-14) - Mouchon Jean (13-14, 17-18) - Mougeotte Etienne (37) -
Moyse-Faurie Claire (32-33) - Mugny Gabriel (5-6) -

Nadeau Robert (15, 16) - Navet Georges (10) - Neale Stephen (7) - Nel Noël (25) -
Nersesiark Vladimir S. (19)-Neuffer Philippe (32-33)-Neveu Erik (17-18)-Nivat Anne
(18)-Noelle-Neumann Elisabeth (4)-Nowicki Joanna (23-24) - Nyiri Christoph ( 1 8 ) -

Oléron Pierre (15, 16) - Ollivier Bruno (32-33) - Ortiz Renato (28) - Ossipow William
(13-14) - Ossman Susan (21, 22) - Ouasti Boussif (30) -

Padioleau Jean-Gustave (35) - Page Benjamin L (31) - Paia Mirose (32-33) - Pailliart
Isabelle (26-27) - Paquot Thierry (10) - Parodi Jean-Luc (4) - Pasco Xavier (34) - Paskov
Victor (10) - Pasquier Dominique (22) - Patriat Claude (20) - Patrin-Leclère Valérie (37)
- Peeters Hugues (25) - Pélissier Nicolas (35) - Perraya Daniel (25) - Perret Jean Baptiste
(22) - Perez Juan A. (5-6) - Perrot Jean-François (20) - Peters John Durham (13-14) -
Petit Alain (15, 16) - Pettigrew Louise (15, 16) - Pierron Jean-Philippe (20) - Pillet
Gonzague (19) - Plantin Christian (15, 16) - Plas Régine (5-6) - Poche Bernard (23-24)
- Poinclou Jean-Baptiste (26-27) - Poirier Jacques (20) - Poirine Bernard (32-33) -
Poirrier Philippe (20) - Poisat Jacques (36) - Poitou Jean-Pierre (25) - Polo Jean-François

20 HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

(23-24) - Porebski Czeslaw (18) - Poujol Geneviève (20) - Prado Jr Plinio W. (1, 10) -
Proulx Serge (37) - Proust Joëlle (15, 16) -

Querrien Anne (10, 26-27) - Quillot Roland ( 2 0 ) -

Ramognino Nicole (11-12) - Regamey Amandine (29) - Regnault Jean-Marc (32-33) -


Renaut Alain (23-24) - Révauger Jean-Paul (32-33) - Reynié Dominique (2, 4, 10, 31) -
Richard Jean-François (26/27) - Richardson Kay (21) - Rieffei Rémy (4, 35) - Rigaud
Jacques (37) - Rigo Bernard (32-33) - Riutort Philippe (29) - Rivenc François (7) -
Robillard Serge (23-24) - Robinson Howard (3) - Rocard Michel (32-33) - Rochlitz
Rainer (10) - Rochoux Jean-Yves (32-33) - Rodrigues da Silva Helenice (8-9) - Roeh
Itzhak (8-9) - Rosengren Karl Erik (11-12) - Rosier Irène (15,16) - Rothenbuhler Eric W.
(13-14) - Rouilhan Philippe (de) (7) - Rouleau-Berger Laurence (36) - Rouquette Michel-
Louis (5-6) - Roustang Guy (36) - Roviello Anne-Marie (10) - Ruellan Denis (21, 35) -
Ryan Alan ( 7 ) -

Saadi Hacène (30) - Sabit Audrey (29) - Saffrais Guylaine (19) - Sainsbury Mark (7) -
Saint-Martin Monique (de) (20) - Sam Léonard (32-33) - Samain Etienne (28) - Sangla
Raoul (32-33) - Santiso Javier (19) - Sautedé Éric (37) - Savarese Éric (30) - Schlesinger
R. Philip (8-9, 28) - Schmid Anne-Françoise (7) - Schnapper Dominique (8-9,20,23-24)
- Schröder Kim (11-12, 13-14) - Schudson Michael (13-14) - Sedakova Olga (23-24) -
Serdaroglu Ozan (30) - Sève Bernard (15, 16) - Shapiro Robert Y. (31) - Sicard Marie-
Noëlle (21) - Sicard Monique (17-18, 21, 22) - Sigov Konstantin (23-24) - Silverstone
Roger (22) - Simonin Jacky (22, 26-27, 32-33) - Sinapi Michèle (22) - Souchon Michel
(11-12, 37) - Soulez Guillaume (19) - Soupé Dominique (32-33) - Sourbès-Verger Isabelle
(34) - Spitz Chantai (32-33)-Spitz Jean-Fabien, (1) - Stavileci Masar (23-24) - Steimberg
Oscar (28) - Stephenson Adam (7) - Stoetzel Jean (2) - Suzuki Kazuto (34) - Swiderski
Edward M. (19) - Sylvestre Jean-Pierre ( 2 0 ) -

Tabboni Simonetta (37) - Taguieff Pierre-André (8-9) - Tarasov Alexander (34) - Tarde
Gabriel (5-6) - Tassin Etienne (10) - Tchakhotine Serge (2) - Tessier Marc (37) - Tétu
Jean-François (17-18) - Thomas Fabienne (25) - Tirard Stéphane (35) - Tisseron Serge
(25) - Touraine Alain (4) - Traversa Oscar (28) - Tsagarousianou Roza (26-27) -

Uréña Rib Pedro (32-33)-

Valenta Muriel (28, 31) - Vallat David (36) - Van de Gejuchte Isabelle (29) -
Vandendorpe Florence (25) - Van Ginneken Jaap (5-6) - Van-Praët Michel (20) - Varela

HERMÈS 37, 2003 21


Les quinze ans d'Hermès, 1988-2003

Lia (28) - Vasquez-Bronfman Ana (10) - Vasylchenko Andriy (23-24) - Vatchnadze


Gueorgui (8-9) - Vedel Thierry (26-27) - Verger Fernand (34) - Vergès Françoise (32-33)
- Verhaegen Philippe (25) - Vermeren Patrice (10) - Vernaudon Jacques (32-33) - Vernet
Marc (13-14) -Véron Eliséo (4, 13-14, 17-18, 21) - Veyrat-Masson Isabelle (5-6, 8-9, 13-
14, 21, 32-33) - Viallon Philippe (21) - Viera John David (13-14) - Vignaux Georges (15,
16) - Villain-Gandossi Christiane (23-24, 30) - Vincent Guy (20) - Visier Claire (23-24) -
Vittin Théophile (20) - Vorms Anne (8-9) - Vuillemin Jules ( 7 ) -

Walter Jacques (29) - Watin Michel (32-33) - Watine Thierry (35) - Weisbein Julien (36)
-Weissberg Jean-Louis (25) - Widmer jean (19)-Windisch Uli (15, 16, 23-24)-Winkin
Yves (13-14, 22, 32-33)-Wittersheim Éric (32-33)-Wohlfarth Irving (10)-Wolf Mauro
(11-12) -Wolff Éliane (32-33) - Wolff Francis (15, 16) - Wolton Dominique (4, 8-9, 10,
11-12, 13-14,15,16,17-18,21,22,23-24,26-27,28,32-33,35,37)-Woodfield Andrew (3,
7) - Worms Jean-Pierre (23-24) - Wrona Adeline (22) - Wulf Christoph (22) -
Wunenburger Jean-Jacques (20) -

Zaller John (31) - Zappalá Annick (21) - Zask Joëlle (31) - Zaslavsky Danièle (28) -
Zelizer Barbie (8-9)-

22 HERMÈS 37, 2003


Dominique Wolton
Laboratoire Communication et Politique, CNRS, Paris

AVANT-PROPOS

Audience et publics : économie, culture, politique

Ce numéro ouvre une analyse d'autant plus nécessaire, que le succès des mesures
d'audience depuis vingt ans n'a guère fait l'objet de réflexions. Pourtant dans les chaînes,
les instituts, une expérience, et une compétence se sont constituées. En fait, tout a été très
vite. Il a fallu inventer des outils au fur et à mesure que se constituait cette économie de la
communication, et que l'on passait d'une culture du service public à une économie
privatisée des publics.
Ce numéro a donc pour ambition de contribuer à un retour d'analyse, sur les
différentes mesures d'audience. Ouvrir un espace de réflexion pour comparer
historiquement et théoriquement, et selon les techniques, les différents résultats, les
réussites, les échecs, les problèmes. Si la radio et la presse avaient une expérience du rapport
entre les publics et les publics marchands, c'est sans doute l'entrée de la télévision dans
l'économie de la communication qui a généralisé le succès des mesures d'audience; les
enjeux économiques sont devenus à la taille de l'importance de la télévision et de l'image.
Et depuis une petite dizaine d'années l'émergence de publics fragmentés en, radio,
télévision, Internet avec la problématique des publics en réseau oblige à affiner et à réfléchir
de nouveau aux outils pour comprendre un peu mieux les publics, la manière de les
mesurer, les compter, les mobiliser.

HERMÈS 37, 2003 27


Dominique Wolton

En un mot, de 1950 à 1980, on a vécu avec une conception plus culturelle et politique
du public, des publics et du service public. De 1980 à 2000 on a vu l'émergence d'outils liée
au fait que les publics et le public devenaient au moins autant une marchandise qu'une
valeur. Avec l'élargissement et la différenciation des systèmes d'information et de
communication, la mondialisation, la dérégulation, une réflexion critique sur la
communication, son rapport avec la culture et la politique, le service public et l'identité
nationale, doit s'ouvrir. Ainsi qu'une analyse des rapports entre publics et audience,
économie et culture, société et politique.
Cinq éléments sont à rappeler pour ouvrir cette réflexion.

L'outil et le concept

D'abord, il y a le même décalage théorique entre mesure d'audience et public


qu'entre le sondage et l'opinion publique. L'ingéniosité et l'efficacité de ces outils
psychosociologiques, inventés dans les années 1930 aux USA, et généralisés dans les
démocraties à partir des années 1960/1970 a fait croire pendant trente ans que toute
réflexion sur l'opinion publique passait, et se résumait aux sondages. Les sondages ont
«mangé», assimilé, identifié toute analyse de l'opinion publique. Le quantitatif
représentatif absorba le qualitatif au point de disqualifier toute autre réflexion. Tout
autre discours était «littéraire», «subjectif», les sondages «objectivant» l'opinion
publique, rationalisaient la réflexion à son endroit, et devenaient finalement
l'équivalent d'une théorie de l'opinion publique. Il a fallu les premiers échecs des
sondages lors des élections législatives et surtout présidentielles, aux États Unis, en
Europe et en France dans les années 2000 pour qu'un début d'inquiétude émerge, qui
ne suscite pas encore de retour de réflexion théorique sur l'opinion publique. Ce même
phénomène doit être rappelé pour l'audience. Gérer la simplification du comportement
du public et des publics au travers des mesures d'audience depuis 20 ans a eu l'avantage
de donner une figure, une représentation au public qui étaient longtemps resté un
concept politique et culturel, relativement indépendant de la connaissance empirique
des publics. Pourtant la presse et la radio avaient déjà établi un rapport entre une
logique sociale et économique, mais sans donner naissance à une réflexion sur
l'audience.
À la télévision puisque les mesures d'audience ont permis de construire son économie,
on en est arrivé, comme pour l'opinion publique, à identifier l'outil et le concept. Il y eut
isomorphie entre les deux. Mais c'est aussi les difficultés qui vont apparaître avec les

28 HERMÈS 37, 2003


Avant-propos

enjeux économiques, politiques et culturels liés à la diversification des systèmes


d'information et de communication qui obligeront à sortir du cadre culturel et à réouvrir
une réflexion plus sérieuse entre public et audience. Et pas seulement en introduisant des
variables qualitatives au demeurant tout à fait nécessaires. Il faudra autre chose. De même
que la limite des sondages, à traduire la complexité et la mouvance des opinions publiques
obligera à un retour théorique de réflexion sur les rapports entre publics et opinion
publique, de même faudra t-il réfléchir de nouveau sur les mesures d'audience pour mieux
comprendre les publics dans leurs rapports aux dimensions économiques, sociales,
culturelles et politiques.

Le statut du public

Le deuxième changement concerne le statut même de public. Avec la croissance de la


communication, on a cru que l'on passait définitivement à une conception économique du
public. Toute réflexion culturelle serait surdéterminée par l'économie, notamment avec la
mondialisation des industries culturelles. C'est à l'inverse que l'on va assister: il y aura le
retour d'une réflexion critique, politique sur le statut des publics et des rapports entre
public et audience. Déjà en 1992 dans l'introduction au numéro 11-12 d'Hermès, «Pour le
public», je disais que «l'audience ne mesure pas la demande du public, mais la réaction à
l'offre de programme» (p. 12). Ce qui est tout autre chose. Et il y a de cela 12 ans...
Ce décalage va être de plus en plus net avec la croissance des industries de programme,
et la critique qui en sera faite dans le cadre de l'altermondialisation. On posera la question
du conflit entre une conception «économique» du public, en partie de l'audience, et une
conception culturelle, politique de ce même public. Notamment au travers des notions de
services publics, grands publics, publics généralistes... Autrement dit après avoir été fasciné
pendant près d'un demi-siècle par le public de masse, puis avoir découvert les délices de la
segmentation en autant de publics qu'il y a de marchés potentiels, de techniques et de
services offerts, on reviendra à la question de base de toute problématique de la
communication: «Qu'est-ce qui réunit des milliers et des millions d'individus au-delà de ce
qui les distingue et les individualise?». L'économie devait tout simplifier parce qu'elle
ajustait une offre et une demande, en réalité elle suscite par la suite une réflexion sur, la
constitution du lien social, l'identité culturelle, le sentiment d'appartenance à une «société
individualiste de masse». Si tout le monde fait ce qu'il veut, quand il veut, comment, par
ailleurs, retrouver du collectif ? Voire de l'égalité dont on ne voulait plus beaucoup, tant on
pensait que la liberté était la solution ! On retrouve pour la communication les

HERMÈS 37, 2003 29


Dominique Wolton

contradictions de la «société individualiste de masse». Après avoir voulu l'égalité puis


surtout la liberté, les individus veulent finalement les deux. Si la critique, notamment par les
mouvements altermondialistes, ne s'est pas encore saisie des questions de culture,
d'information, de communication, cela sera bientôt le cas. Non seulement pour réfléchir à
la régulation des industries culturelles, mais aussi pour réfléchir aux limites des processus,
de segmentations. En réalité on assistera à la fois à une réflexion sur le statut des publics au
sein des Etats Nations et sur la question de la cohabitation culturelle au plan mondial.
Comme je l'écrivais en 1992, «derrière la question passionnante des liens entre les publics,
le public et le statut du grand public, se joue une théorie du lien social dans la société
individualiste de masse où la hiérarchie et l'incommunication entre les milieux sociaux sont
à la mesure des idéaux de liberté et d'égalité, par ailleurs officiellement promus. Cette
contradiction est, comme j'ai essayé de le montrer, particulièrement importante pour la
communication. Plaider, comme je le fais depuis de nombreuses années à travers plusieurs
livres en faveur du grand public, n'est ni un idéalisme, ni un archaïsme, mais une option de
fond qui n'en exclue aucune autre. À condition à chaque fois de situer le débat au niveau
théorique qui est le sien et de ne pas confondre possibilités techniques, déréglementation,
profits et théorie de la télévision et des publics. Toute théorie du public implique une théorie
de la télévision, et finalement une représentation de la société. Les arguments empiriques qui
condamnent le concept de grand public au nom de la double évolution des techniques et des
marchés ressemblent à ceux qui régulièrement dans l'histoire politique condamnent le
concept de démocratie à l'aune des détournements dont il est régulièrement l'objet»
(Hermès n° 11-12, 1992, p. 12).
Aujourd'hui, ce numéro souhaite être un révélateur de cette réflexion sur les rapports
entre audience, publics, culture, société, et politique. Jusqu'où la mondialisation des
rapports culturels, sociaux et politiques ? L'économie de la communication présentée, il y a
une vingtaine d'années, comme le symbole d'une sorte de «privatisation» de la société,
suscite finalement une réflexion critique concernant la place respective du politique, du
culturel et de l'économique dans tout ce qui concerne la compréhension de l'audience, du
comportement des publics, des besoins et de la demande, formidable effet de boomerang :
la réflexion critique, revient là ou le triomphe de l'économie devait permettre l'élimination
définitive d'une vision trop normative de ce qu'est le public...
D'ailleurs Hermès est un peu le trait d'union entre vingt ans d'une vision de plus en plus
économique du public et le retour d'une réflexion plus générale sur les rapports entre
public, société, politique et culture.
Ce retournement de problématique relancera une analyse, non seulement sur le
public, la réception, le droit, la demande, mais aussi sur les effets. Pendant les trente
premières années des médias, on s'est en effet beaucoup intéressés à la production et l'on
a craint les effets en termes de standardisation, influence, manipulation dans la

30 HERMÈS 37, 2003


Avant-propos

perspective de l'école de Francfort. Les médias devaient «aliéner» les peuples. Puis
constatant les effets plus limités des médias, on a découvert l'importance des conditions
de la réception qui permettait de mettre en avant une réflexion sur l'autonomie du
récepteur. Le récepteur n'est pas en ligne avec le message et l'émetteur. Il y a au moins
autant négociation qu'imposition. Ce qui rend compliquée la réduction de la réception à
la simple quantification par l'audience. Aujourd'hui le retour d'une réflexion critique va
bien sûr relancer une analyse des rapports entre production, réception, offre et demande.
Mais surtout l'abondance inimaginable d'images et d'informations, il y a 30 ans, va
également obliger à réouvrir une réflexion sur les effets, et sur la séquence production-
effet-réception. Hier, dans un contexte encore rare d'économie de la communication les
publics finalement négociaient et il fallait comprendre la réception. Demain, dans un
univers multimédia, où l'offre est beaucoup nombreuse, mais aussi beaucoup plus
standardisée, il faudra réouvrir une réflexion sur la question des effets qui hier, avait pu
être traitée de manière finalement plus rassurante.

L'audience n'est pas une catégorie naturelle

Réfléchir à une théorie de la communication, non seulement technique et économique,


mais peut-être d'abord culturelle et politique, oblige évidemment à comprendre comment
l'audience n'est jamais une catégorie naturelle. C'est une réalité construite, et une
représentation a posteriori. Il faut éviter au marché de l'audience les mêmes difficultés que
celles visibles aujourd'hui dans le décalage entre sondages et opinion publique. La
complexité du comportement des publics, notamment avec l'augmentation de l'offre, la
diversité des supports, l'expérience des jeunes générations, pourrait également susciter les
mêmes décalages entre publics et audience, qu'entre sondages et opinion publique.
Réfléchir sur l'audience comme réalité construite contribue à la production de ces
connaissances si nécessaire pour mieux comprendre les rapports envahissants aujourd'hui,
entre culture et communication, économie et société, politique et culture. En fait, là-aussi,
les faits ont été très vite, plus rapides que la réflexion. Si, par exemple, l'opposition entre
logique d'offre et de demande a été hier utile, elle est aujourd'hui insuffisante pour
comprendre la complexité des mécanismes de négociations, cognitifs, culturels et politiques
existant au sein des publics. La simplicité des outils de mesure d'audience, qui a eu son
heure d'efficacité reflète finalement aujourd'hui le manque de connaissance approfondie
que nous avons depuis un demi-siècle des rapports entre les offres de programmes et la
diversité des publics.

HERMÈS 37, 2003 31


Dominique Wolton

L'intérêt des nouvelles technologies

L'avantage des nouvelles techniques est de passer de l'idée de consommation à celle


d'usage, et à une économie plus complexe des rapports entre offre, demande, audience.
Pour ce secteur, l'audience n'est pas un outil très approprié. Cela accélérera une réflexion
critique sur les modèles ayant permis de construire une économie des mesures. On a
souvent confondu la gestion d'un secteur en expansion, avec sa compréhension. L'existence
d'outils simples ayant une certaine efficacité, a permis de reporter à plus tard des efforts
plus complexes, et inévitables de réflexion.
En tous cas, l'inadaptation des mesures d'audience, aux nouvelles techniques de
communication, repose la question de l'invention d'autres outils, pour comprendre un
service qui ne relève pas directement d'une problématique de la communication. Ce n'est
pas parce que l'on transmet des informations et que l'on utilise des techniques de
communication, qu'il s'agit de communication. Internet n'est pas un média. C'est autre
chose, qui ne signifie pas une hiérarchie avec les autres médias, mais permet de comprendre
que les problèmes ne sont pas de même nature. Cela prouve d'ailleurs qu'en matière de
communication, l'essentiel n'est pas dans les techniques, mais dans le dispositif. Et si
demain les services de la radio, de la télévision, et d'Internet, sont disponibles sur les mêmes
supports, cela ne voudra évidemment pas dire que tout y est de la communication !
Justement, l'augmentation et la diversification des services de toute sorte, oblige à distinguer
plus nettement ce qui est information, service, transmission, relation, interaction et
communication. Et à mieux comprendre la diversité des rapports à l'information, à la
relation et à la communication qu'entretiennent les individus et les collectivités. Là aussi,
l'économie des nouveaux services est un accélérateur de réflexion pour mieux comprendre
ce qui distingue des techniques qui diffusent toutes de l'information mais ne renvoient ni
aux mêmes attentes ni au même rapport au réel. L'économie va, paradoxalement venir au
secours d'une réflexion de fond sur la diversité des enjeux et des situations de la
communication.

La faiblesse des théories

L'efficacité, et les limites des techniques d'audience sont révélatrices d'un phénomène
plus général : la faiblesse des outils, et avec eux souvent des théories dont nous disposons
pour comprendre la réalité contemporaine. En fait, on n'a pas dépassé les statistiques. Ou

32 HERMÈS 37, 2003


Avant-propos

plutôt, leur efficacité partielle, a suffi. La simplicité des outils concernant l'audience n'est
que le symptôme de la faiblesse des outils nécessaires pour comprendre la société
individualiste de masse où les deux dimensions contradictoires, de la liberté individuelle et
de l'égalité sont constamment en présence. Tout particulièrement pour la communication
où l'on souhaite de plus en plus être libre et performant individuellement, tout en étant
simultanément engagé dans des processus collectifs ou l'égalité est préservée. On devine
comment cette problématique sera de plus en plus compliquée, au fur et à mesure qu'avec
la mondialisation, les industries devront à la fois s'ouvrir aux autres cultures du monde et
cohabiter avec elles !
En tous cas, l'émergence de l'économie et les fantastiques progrès techniques
permettent de comprendre que dans ce secteur de la communication, l'essentiel
paradoxalement n'est pas dans la technique ou dans l'économie, mais dans une réflexion
théorique. Quelle philosophie de la communication veut-on et en rapport avec quelle théorie
de la société et de la démocratie ? La technique et l'économie nous montrent les insuffisances
de la réflexion théorique, et l'obligation d'y revenir, si l'on veut éviter un terrible effet de
boomerang où tout nous sera renvoyé pèle mêle, nous les apprentis d'une communication
réduite aux outils et aux marchés.
Dans quelques années, ce numéro sera peut-être considéré comme un des moments qui
aura permis de passer à une autre économie de la mesure d'audience, c'est-à-dire, à une
autre vision de la communication et de ses enjeux. En fait, on pourrait résumer la question
à ceci : « Dis moi quels outils tu utilises pour la communication et je te dirai quelle théorie
de la communication la sous-tend. » Ce sont les usagers, les sociétés et les contradictions qui
vont progressivement obliger non seulement à affiner les outils, mais aussi à approfondir les
théories de la communication.
Autrement dit, Hermès, au travers de ce numéro est fidèle à son orientation : rappeler
l'importance des enjeux théoriques et de connaissance pour tout ce qui concerne la
communication. Accroître l'exigence intellectuelle. Comprendre comment la
communication est une référence et une activité extrêmement compliquée. A la fois pour sa
place dans les valeurs et les intérêts de l'Occident mais aussi pour les obligations de
cohabitation culturelle qui sont à l'échelle du monde un des grands enjeux duXXIesiècle.
Inventer des outils plus sophistiqués, c'est aussi reconnaître que l'objet théorique, la
communication, entre les hommes et entre ceux-ci et les machines, est aussi une question
sophistiquée. La connaissance ne remplace pas la politique mais elle peut néanmoins y aider.
Ce numéro est un appel, comme tous finalement, à un peu plus d'esprit critique,
d'innovation, d'invention. Améliorer la qualité des outils qui mesurent ou évaluent nos
activités de communication, c'est reconnaître que l'activité communication en vaut la peine.
Et que l'on peut améliorer les programmes et les services. Compter, mesurer, c'est aussi un
moyen pour relancer une réflexion sur la qualité de l'offre et plus généralement sur les

HERMÈS 37, 2003 33


Dominique Wolton

messages qui circulent. C'est également reconnaître que cette activité, la communication,
tentative sans cesse renouvelée, et souvent défaillante d'échanges et de compréhension entre
les hommes mérite un peu plus d'attention qualitative, théorique et finalement humaine que
ce à quoi on assiste la plupart du temps dans son économie. Si l'information et la
communication sont aujourd'hui largement des marchandises, c'est à la condition de ne pas
oublier qu'elles sont d'abord des valeurs.

34 HERMÈS 37, 2003


Régine Chaniac
Institut national de l'audiovisuel (Ina)

INTRODUCTION

L'audience, un puissant artefact

L'ensemble des médias traditionnels (presse, radio, TV) sont des médias de masse. Ils
s'adressent à un large auditoire, généralement composé d'individus ou de groupes
d'individus isolés les uns des autres, anonymes, répartis sur un territoire plus ou moins vaste
et sans possibilité de réponse immédiate.
Dans ce contexte de communication «à sens unique», la connaissance de l'auditoire et
des conditions de réception est par définition problématique: quelles sont les personnes
touchées, à quelles catégories socio-professionnelles appartiennent-elles, comment
reçoivent-elles les messages (réception délibérée ou fortuite, individuelle ou collective,
attentive ou distraite, etc.), comment perçoivent-elles, interprètent-elles, les messages
reçus ? Ceux qui conçoivent les lignes éditoriales, les grilles de programmes, de même que
ceux qui produisent les messages - articles, émissions de radio, programmes de télévision -
en sont réduits à imaginer leur public sans pouvoir le rencontrer, le connaître, entrer en
dialogue avec lui. D'où un certain nombre d'outils plus ou moins satisfaisants, qualitatifs ou
quantitatifs, pour appréhender ce public, depuis le courrier des lecteurs - réponse
spontanée de récepteurs non représentatifs - les réunions de groupe ou les entretiens -
réponse provoquée d'un échantillon non représentatif - jusqu'au sondage - réponse
provoquée d'un échantillon représentatif.
Parmi tous ces outils, les sondages d'audience occupent une place particulière.
Généralement, l'existence même du média est en effet tributaire de sa capacité à attirer le
plus grand nombre possible de représentants du «public-cible». Existence économique

HERMÈS 37, 2003 35


Régine Chaniac

puisque tout ou partie des recettes provient de la publicité et donc de l'aptitude du média
à rejoindre de larges auditoires, à être performant sur son segment de marché. Mais aussi
existence politique pour les médias appartenant au service public et financés par la
redevance ou sur le budget national, qui doivent prouver leur légitimité en touchant un
public non négligeable.
L'audience est l'indicateur qui permet de fixer la valeur des espaces publicitaires mis en
vente et a essentiellement été formatée dans ce dessein. Elle exprime un nombre de
contacts, c'est-à-dire d'individus touchés par tel ou tel support. En tant qu'opérateurs
essentiels de la viabilité économique des médias, les résultats d'audience sont les données
les plus régulières, les plus systématiques et les plus légitimes concernant la quantification
des auditoires atteints. Du même coup, l'audience s'impose comme un puissant système de
consultation du public, qui donne l'état le plus objectif de ses préférences, de sa satisfaction,
de ses goûts. Elle prend le pas sur toutes les autres instances de jugement de l'offre (la
critique) ou de représentation de la demande, pour justifier et évaluer les décisions de
programmes. Cette ambiguïté première, qui la distingue d'emblée des autres outils de
connaissance du public, place l'audience au cœur de l'activité des médias et explique
l'intérêt et les réactions contradictoires qu'elle suscite.

Ce dossier d'Hermès a pour objet d'éclairer le rôle de la mesure d'audience dans le


fonctionnement des médias. Quelles sont tout d'abord ses principales caractéristiques,
communes à tous les médias ou spécifiques de l'un à l'autre? Comment les outils, les
méthodes et les indicateurs utilisés évoluent-ils en fonction des situations de concurrence ?
Quel est l'impact sur l'offre de l'importance économique des résultats d'audience ? Dans
quelle mesure peut-on souscrire à la fameuse formule de la «dictature de l'audimat» et une
politique éditoriale peut-elle être fondée sur la seule expectative du résultat d'audience ?
Nous appelons mesure d'audience ou sondage d'audience le système qui fournit
régulièrement des données statistiques permettant de quantifier les auditoires touchés par
les différents médias. Par système, on entend l'agencement à la fois institutionnel,
méthodologique et technique qui assure la livraison de données, conformément aux besoins
de ceux qui le financent et l'utilisent. Ce système est généralement unique pour une même
famille de médias (les radios, les chaînes généralistes, les quotidiens, etc.), puisqu'il délivre
des informations permettant de classer les différents supports, jouant un rôle de
thermomètre pour les acteurs de la profession (supports vendeurs d'espaces, publicitaires
acheteurs et leurs représentants, agences ou centrales d'achat).
Les études d'audience, parfois entendues au sens large comme l'ensemble des études
visant à mieux connaître le public de tel ou tel média (en anglais, audience signifie public),
n'entrent pas dans le présent propos à partir du moment où elles ne débouchent pas sur le
calcul régulier de résultats d'audience. Ces études, menées notamment au sein des différents

36 HERMÈS 37, 2003


Introduction

médias à des fins de marketing, sont toutefois évoquées dans plusieurs articles. De même,
ce dossier n'aborde pas le champ des recherches sur la réception1 Notre démarche est
socio-économique et considère la mesure d'audience en tant que réponse donnée, dans une
certaine configuration politique et économique, à la question de la relation entre une offre
et son public.

Parmi les médias étudiés ici, la télévision occupe une place privilégiée. À cela plusieurs
raisons :
- La première tient au fait qu'en France, comme dans la plupart des grands pays
européens, la télévision s'est profondément transformée dans sa finalité sociale, depuis ses
origines placées sous l'égide du service public, et qu'en quelques années, avec l'avènement
du modèle commercial, l'audience y est devenue l'instrument central de régulation. La
télévision propose en quelque sorte à l'observateur des médias un accéléré très pédagogique
sur les effets concrets, en matière d'offre, de la dépendance vis-à-vis de la ressource
publicitaire et de la concurrence entre les diffuseurs qui en résulte. Depuis que les enquêtes
régulières d'audience existent (1949 pour la radio, 1957 pour la presse), aucun autre média
n'a connu une telle rupture quant à l'origine principale de ses ressources.
- La deuxième raison est liée au phénomène de focalisation de l'opinion publique sur
la télévision. Parce qu'elle apporte les images à domicile, celle-ci représente le média de
masse par excellence, le média populaire, crédité de tous les pouvoirs, chargé de tous les
méfaits. Songeons simplement aux passions déclenchées par le remplacement d'un
présentateur de journal ou par une émission comme Loft Story..., et à ce fait tout de même
surprenant que chacun connaît l'existence de l'audimat, tandis que la majorité ignore tout
des enquêtes presse et radio ! Cette fascination-répulsion pour la télévision est partagée par
les intellectuels, à la fois critiques vis-à-vis des produits de la culture de masse et sensibles à
son extraordinaire capacité de séduction et de sensibilisation. D'où la disproportion entre
les analyses consacrées à la télévision et celles menées sur la presse et surtout sur la radio
(pourtant écoutée chaque jour par autant d'individus et presque autant de temps en
moyenne).
- Enfin, la coordonnatrice de ce dossier, responsable de recherche à l'Ina, conduit
depuis une vingtaine d'années des études sur les principales évolutions en matière de
télévision, tant du point de vue de la programmation et des programmes que de celui du
comportement des téléspectateurs.

Le parti a été adopté d'associer à part égale la réflexion des chercheurs de la


communauté scientifique et des praticiens de l'audience. Ceux-ci viennent d'horizons
différents, à la fois spécialistes de la mesure et utilisateurs des résultats: responsable de
l'organisme chargé par l'ensemble de la profession de l'audit des enquêtes d'audience

HERMÈS 37, 2003 37


Régine Chaniac

(CESP), de l'institut de mesure d'audience Médiamétrie; responsables d'études dans les


médias (radio et télévision); dirigeants de la télévision et responsables d'antenne et de
programmation, etc. Le dialogue entre chercheurs et professionnels s'imposait, le sujet
choisi renvoyant à tout un secteur d'activité, à tout un écheveau de pratiques, plutôt qu'à
une question académique. Le lecteur trouvera profit à circuler d'un point de vue à l'autre et
verra que, dans la confrontation des propos, les effets de vérité ne manquent pas.

Il est remarquable que les problématiques abordées ici sont communes aujourd'hui à
la plupart des pays. Les spécificités nationales en matière de médias sont encore très
marquées sous certains aspects (comme, pour la télévision, les fortes disparités des capacités
d'investissement dans la production). Mais, dans le domaine de la mesure d'audience, la
convergence est à l'œuvre depuis une quinzaine d'années, du fait de la banalisation de
certaines techniques (audimétrie), de la concentration et de l'internationalisation des
instituts et enfin, de la généralisation des logiques concurrentielles. C'est ainsi qu'AGB
(Audits of Great Britain), déjà présent en Italie pour la mesure d'audience TV, s'est
fortement implanté dans les pays de l'Est au moment de leur ouverture au marché (Hongrie,
Pologne, etc.), que l'Américain Nielsen est très présent en Asie, ainsi que la multinationale
Taylor Nelson Sofres (Vietnam, Corée du Sud). La société américaine Arbitrou développe
actuellement la technologie du PPM {Portable people meter) pour mesurer l'audience de la
radio et de la télévision et mène des tests dans plusieurs pays (France, Royaume-Uni,
Amérique latine, etc.) en s'alliant avec les instituts nationaux. De même, pour installer ses
panels d'internautes à travers le monde, Nielsen s'appuie sur des instituts comme
Médiamétrie en France.

À chaque média sa mesure d'audience (première partie)

Selon la nature du média, selon son langage et le mode de réception mis en jeu, la
notion d'audience n'a pas le même sens et les indicateurs ne peuvent être les mêmes.
Le point commun entre la mesure d'audience des différents médias est de se fonder sur
le principe du sondage, c'est-à-dire sur le recours à la technique d'échantillonnage. Puisqu'on
ne peut appréhender concrètement la population totale touchée par un média, on construit
un échantillon le plus représentatif possible de cette population. De fait, la naissance de
l'industrie des sondages et celle de la mesure d'audience sont simultanées2. Aux Etats-Unis, on
situe généralement l'essor des sondages en 1936, lorsque Georges Gallup prévoit la réélection
de Roosevelt à partir d'un échantillon de 4 000 personnes, tandis qu'un magazine à gros tirage

38 HERMÈS 37, 2003


Introduction

(le Literary Digest) avait annoncé à tort la victoire du concurrent Alfred Landon en consultant
ses lecteurs et en recueillant deux millions de réponses. C'est la même année que les
responsables du magazine Life décident de mener une enquête d'audience pour mieux évaluer
le nombre de ses lecteurs - beaucoup plus important que le nombre d'acheteurs - et le
valoriser auprès des annonceurs. L'idée qu'un chiffre obtenu par calcul sur un petit échantillon
représentatif peut être plus juste, plus conforme à la réalité, qu'un dénombrement concret de
grande ampleur (réponses à un journal, exemplaires d'un magazine vendus) était acquise. En
France, les sondages sont introduits dès 1938 par Jean Stoetzel, fondateur de l'Ifop, mais il
faut attendre l'après-guerre pour le démarrage des sondages d'audience, d'abord pour la
radio, puis pour la presse et enfin, l'affichage et la télévision.
À partir de ce socle commun, les instruments de mesure diffèrent d'un média à l'autre.
L'article introductif d'Emmanuel Fraisse met bien l'accent sur l'ensemble des difficultés
méthodologiques affrontées et sur les «sacrifices» acceptés pour parvenir à une
«délimitation plausible des faits d'audience» propre à la nature de chaque média.
Pour la presse quotidienne, l'audience est définie comme le fait d'avoir «lu, parcouru
ou consulté» un titre la veille ou au cours des 7 derniers jours, ce qui permet de calculer la
LDP (Lecture dernière période), la LNM (Lecture d'un numéro moyen). Les principales
limites à la fiabilité et à la précision des résultats, remarque Jean-Marie Charon, tiennent à
la multiplicité des titres qui alourdit la passation du questionnaire et au recueil
d'information qui repose sur les déclarations et la mémoire des personnes interrogées.
Pour la radio, média temporel qui impose le rythme de sa réception, l'interrogation
introduit l'unité du demi-quart d'heure comme seuil significatif d'écoute pour chaque
station pendant les dernières 24 heures. Comme pour la lecture, la notion d'écoute est très
large, incluant toutes les conditions de réception (délibérée, attentive, en accompagnement
d'une autre activité, en fond sonore, etc.). Marie-Dominique Chevreux insiste sur la richesse
des indicateurs obtenus, notamment grâce à la complémentarité de deux enquêtes, mais
aussi, sur le nouveau défi posé par l'extrême diversification des supports d'écoute. La
réponse envisagée serait d'introduire une mesure passive par un audimètre portable sous
forme de montre.
Avec l'audimétrie actuellement en vigueur pour la télévision, l'audience du foyer est
suivie automatiquement à la seconde près. Chaque individu doit ensuite déclarer son
audience, définie comme «la présence dans la pièce où le téléviseur est allumé», en
appuyant sur son bouton-poussoir. Contrairement à la radio qui s'intéresse aux résultats par
tranche horaire, pertinents pour évaluer son offre, la télévision a toujours privilégié les
résultats par émission, unité significative de la grille de programmes. Pourtant, dans
l'univers atomisé du câble et du satellite, Jean Mauduit et Olivier Appé expliquent bien qu'il
a fallu renoncer aux résultats ponctuels par émission et revenir à des moyennes semestrielles
(en vigueur pour la radio ou la presse), afin de garantir la fiabilité statistique.

HERMÈS 37, 2003 39


Régine Chaniac

Les techniques et les indicateurs utilisés, la population prise en compte, reflètent aussi
l'état de la concurrence et peuvent faire l'objet de remises en cause assez conflictuelles,
lorsque l'équilibre qui prévalait entre l'ensemble des acteurs concernés est rompu. Même les
médias les plus anciens ne sont pas à l'abri de telles crises.
Ainsi, la radio traverse depuis quelques années une période de fortes turbulences quant
à la mesure de son audience. La montée en charge des radios musicales et thématiques, au
détriment des radios généralistes, est à l'origine d'une véritable guerre, chaque station se
battant pour imposer la mesure qui lui est le plus favorable. Alors que depuis l'origine,
l'audience radio ne prenait en compte que l'écoute des individus de 15 ans et plus, les radios
musicales, NRJ et Skyrock en tête, ont lutté pied à pied pour que soient intégrés les 11-14
ans, qui constituent pour elles un vivier d'écoute. Un compromis laborieux a été adopté en
2002 avec la prise en compte des 13-15 ans. L'autre bataille concerne le choix des
indicateurs pour le classement des stations. L'audience cumulée, indicateur traditionnel de
la radio exprimant le nombre d'auditeurs touchés quelle que soit la durée de leur écoute,
est revendiquée par la jeune radio NRJ qui a conquis la première place depuis fin 2002. La
généraliste RTL, pendant longtemps leader selon n'importe quel indicateur, tente
maintenant d'imposer le classement selon la part d'audience où elle continue à tenir tête à
ses rivales, retenant ses auditeurs beaucoup plus longtemps.
Dans le cas de la presse, des divergences méthodologiques entre responsables des
quotidiens et des magazines ont abouti, en 1993, à l'éclatement en deux enquêtes distinctes
du système de mesure d'audience qui perdurait depuis plusieurs décennies.
Pour la télévision, par contre, l'équilibre prévaut depuis une quinzaine d'années, suite
à la crise survenue à la fin des années 1980. La création de deux chaînes commerciales et la
privatisation de TFl ont en effet engendré, à partir de 1987, une compétition sans précédent
entre les diffuseurs devenus dépendants de la manne publicitaire. Les publicitaires qui,
depuis l'ORTF, s'étaient toujours vus refuser l'accès au système de mesure d'audience mis
en place par les diffuseurs, ont pu imposer le bouton-poussoir et le suivi par cibles. La part
d'audience, qui exprime l'état de la concurrence à chaque instant, fait son apparition et,
calculée notamment sur les cibles les plus prisées par les annonceurs, devient rapidement
l'indicateur hégémonique dans la communication des chaînes, s'imposant même douze ans
plus tard dans l'univers émietté des chaînes câble et satellite.

Dans tous les cas, on voit bien que l'audience est une réalité construite, obtenue après
toute une série de conventions concernant sa définition, sa mesure, ses dimensions. Lorsque
le contexte évolue, ces conventions peuvent être remises en cause par telle ou telle partie.
Le consensus n'est jamais parfait, les polémiques couvent, mais chacun a besoin d'une
référence unique pour situer les différents supports par rapport à la concurrence et fixer la
valeur des transactions sur le marché publicitaire.

40 HERMÈS 37, 2003


Introduction

Le progrès technique permet, avec l'adoption d'outils de plus en plus sophistiqués, un


recueil des données d'audience «en temps réel» et un traitement plus rapide des
informations. Il ne supprime pas pour autant les difficultés méthodologiques propres à tout
sondage (que mesure-t-on, quels sont les risques de biais liés aux contraintes imposées aux
panélistes?, etc.). Le risque est que la quasi-instantanéité et la précision des résultats
obtenus fassent oublier la complexité inhérente à la mesure d'un comportement humain tel
que l'exposition à un média.

Programmer en régime concurrentiel (deuxième partie)

Nous avons déjà souligné que la télévision a connu depuis son origine des mutations
profondes qui ont affecté son mode de relation avec le public et, du même coup, son offre
de programmes. Très schématiquement, on peut distinguer trois modèles qui sont apparus
successivement en Europe.
Le premier est celui de la télévision de service public en situation de monopole,
financée par la redevance, à laquelle vient s'ajouter ou non une part de publicité, et dont la
finalité sociale peut se résumer par la célèbre formule «Informer, éduquer, distraire». La
programmation d'un nombre limité de chaînes respecte un équilibre entre les genres
relevant d'une ambition culturelle et pédagogique et ceux ressortant du divertissement.
L'équilibre peut varier d'un pays à l'autre, d'une chaîne à l'autre, mais il s'agit toujours d'une
offre volontariste qui concrétise les conceptions des responsables et de certains groupes
professionnels sur ce que la télévision doit proposer à son public. La préoccupation de
mesurer l'audience existe déjà, mais d'autres critères de décision en amont et d'évaluation
en aval prédominent, allant des rapports de forces entre catégories professionnelles
(réalisateurs, journalistes, ingénieurs et techniciens, etc.) aux réactions de la critique. Les
données d'audience sont un élément parmi d'autres pour justifier une politique de
programme, des investissements et pour asseoir la légitimité d'une chaîne et finalement, de
la télévision en général.
Le deuxième modèle, aujourd'hui dominant, est celui de la télévision commerciale. Ce
n'est pas l'introduction de la publicité qui entraîne mécaniquement son émergence, ni
même l'existence d'une chaîne privée. Ainsi, le réseau ITV, créé en 1955 au Royaume-Uni,
entièrement financé par la publicité et bénéficiant du monopole auprès des annonceurs, a
offert pendant plusieurs décennies aux téléspectateurs britanniques une programmation où
dominent les préoccupations de service public, assez proche de celle de la BBC, entièrement
financée par la redevance. La rupture se produit avec l'arrivée de chaînes commerciales

HERMÈS 37, 2003 41


Régine Chaniac

supplémentaires, qui crée une situation nouvelle de concurrence sur le marché publicitaire,
l'offre globale d'écrans excédant la demande des annonceurs. En Europe, l'Italie bascule la
première avec la constitution du pôle Berlusconi au début des années 1980. En France, nous
avons déjà situé le pas décisif en 1987. L'évolution est plus progressive en Allemagne et en
Grande-Bretagne. Dans tous les cas, les offres de programmes se transforment plus
fortement que pendant les trois décennies précédentes. L'anticipation des résultats
d'audience, qui régit la tarification et la vente des espaces, devient un élément essentiel dans
les décisions de programme. Même les grandes chaînes publiques qui ne dépendent pas de
la publicité, telle BBCl, sont contraintes de se situer par rapport à la concurrence pour
éviter la marginalisation et justifier leur financement public.
Le troisième modèle, celui de la télévision payante, n'est encore qu'à l'état d'ébauche
et, souvent désigné sous le terme de complément, coexiste avec le précédent, qualifié dès lors
de généraliste. Ses prémices sont déjà anciennes dans certains pays, permises par le
développement du câble et du satellite (HBO aux Etats-Unis, à partir de 1975) ou,
originalité française, par l'attribution en 1984 d'un canal hertzien à une chaîne payante en
situation de monopole (Canal Plus). À partir du milieu des années 1990, aux Etats-Unis puis
en Europe, l'émergence de la diffusion numérique entraîne un saut qualitatif important en
multipliant le nombre de chaînes pour un coût de diffusion dérisoire. Le péage, dépense
régulière supportée par l'abonné d'un bouquet de chaînes, permet de financer des offres
assez spécialisées, qui n'intéressent souvent qu'un public segmenté, minoritaire. Une
nouvelle relation apparaît entre l'offreur et le « client » qui doit être conquis et satisfait par
une offre thématique, pointue, distinctive. La mesure d'audience n'est plus centrale dans ce
nouveau mode d'offre et de consommation qui divise les auditoires au lieu de les réunir.

Les interviews et articles proposés dans cette partie s'intéressent plus précisément aux
conséquences présentes de la domination du modèle commercial sur la télévision
généraliste. Quatre foyers sur cinq ne disposent encore en France que des chaînes
hertziennes et, même dans les foyers abonnés à une offre élargie, ces chaînes accaparent la
majeure partie du temps d'écoute. Pour cette télévision grand public, quels sont les effets
de la concurrence sur les offres de programmes et quel est l'impact des résultats d'audience
sur les choix éditoriaux ? Deux points de vue différents se dégagent.

Le premier, partagé - avec des nuances - par les programmateurs de télévision,


publique (Jean-Pierre Cottet) ou privée (Etienne Mougeotte), et par un chercheur (Eric
Macé), admet l'importance de l'audience comme instrument d'évaluation mais en conteste
aussitôt l'aspect opérationnel dans les décisions de programme.
Etienne Mougeotte exprime ce point de vue d'une façon limpide: «La mesure
d'audience nous montre très bien ce qui s'est passé, elle ne nous dit pas ce qu'il faudrait faire

42 HERMÈS 37, 2003


Introduction

pour que cela marche. » L'audience est toujours rétrospective et relative à une situation de
concurrence. La sophistication et la surabondance des chiffres ne lèvent pas le mystère de
ce qui a motivé le choix du public. Jean-Pierre Cottet ajoute qu'il n'y a pas de recettes pour
fabriquer des «pièges à audience» ou alors, «ces émissions sont comme les malheureux
clones de brebis, elles ne vivent pas longtemps». Pour tous deux, l'intuition, la conviction,
l'expérience, permettent seules de construire une grille, de concevoir un programme.
Ensuite, «l'audience est une récompense», elle vient de surcroît (Jean-Pierre Cottet).
En tout cas, selon ce dernier, la télévision publique ne doit pas se cantonner « à faire ce que
le privé ne souhaite pas faire», elle doit affronter la concurrence sur le terrain de la distraction,
«pour le plus grand bénéfice des téléspectateurs». C'est particulièrement France 2 qui doit
jouer un rôle moteur dans le domaine de la création télévisuelle: fiction, spectacle, etc.
Eric Macé pense aussi que l'audience «n'est pas le facteur central et déterminant de la
programmation ». Pour aller à la rencontre du public, pour anticiper ce qui va l'intéresser,
l'émouvoir, ce qui va être «légitime et recevable pour la plupart à un moment donné», le
responsable de programmes se fonde sur des «théories du social et du rôle de médiation de
la télévision». D'où le «conformisme instable de la télévision» qui, comme toute industrie
culturelle, est prise dans des tensions contradictoires, à la fois contrainte d'innover et de
reproduire ce qui a marché.
On résume souvent le modèle commercial au triomphe d'une télévision de la demande
sur la télévision de l'offre, qui caractérisait le service public en situation de monopole. Selon
ce premier point de vue, la situation n'est pas si tranchée. Bien sûr, Etienne Mougeotte
affirme qu'il « essaie de comprendre ce que sont les demandes du public » et de lui offrir « des
programmes qui correspondent à ces demandes». Mais c'est pour insister aussitôt sur la
difficulté à saisir cette demande, malgré tous les instruments d'observation dont il dispose.
La télévision est toujours en partie une télévision de l'offre, il faut savoir prendre des
décisions, courir des risques, faire des propositions nouvelles. L'audience est une sanction
indispensable, mais le programme est toujours premier. La force des grandes chaînes
généralistes est de créer l'événement, de susciter l'intérêt, d'ouvrir la curiosité, de sensibiliser
de larges auditoires à des questions auxquelles ils ne s'intéressaient pas préalablement.

Le second point de vue est celui de chercheurs qui insistent sur les effets pervers de la
«dictature de l'audimat». Pour Patrick Champagne, l'audimétrie s'apparente à «une sorte
de referendum permanent sur les programmes», un vote inégalitaire où les gros
consommateurs comptent plus que les petits, soumettant la télévision à la «loi de la
majorité». La logique économique appliquée à la télévision, conséquence du
désengagement de l'Etat, renvoie à une «vision politique implicite», à une «représentation
politique du public», alors que le média, comme entreprise de production de biens
culturels, aurait pu faire l'objet «d'usages sociaux beaucoup plus diversifiés». De leur côté,

HERMÈS 37, 2003 43


Régine Chaniac

Valérie Patrin-Leclère et Yves Jeanneret s'attachent à démonter la fabrication d'un produit


emblématique des excès du modèle commercial. Bien sûr, Loft Story n'est pas la première
émission à avoir été conçue pour faire de l'audience. Mais avec ce programme, l'ambiguïté
qui associe l'obtention d'un bon résultat d'audience à la satisfaction du public est levée : Loft
Story est l'aboutissement d'un travail sur «l'exposition au média» où il ne s'agit plus tant de
susciter l'adhésion du public que de créer un scandale, une «querelle», dans le but
d'obliger chacun à se faire une idée, et donc à regarder. La critique a malgré elle contribué
à ce processus «en conférant du sens à une entreprise économique et en lui donnant la
dimension d'un débat public».
Dans ce cas, c'est dans un autre sens que la télévision en régime commercial n'est pas
une télévision de la demande. La logique de maximisation de l'audience ne permet plus de
prendre en compte des attentes diversifiées, complémentaires. La concurrence frontale
entre les chaînes uniformise les offres, chacune recherchant le programme le plus
fédérateur, celui qui rassemblera le plus grand auditoire possible. La distinction
traditionnelle entre les genres, qui renvoyait aux différentes missions du service public,
s'efface au profit de programmes qui mêlent la fiction, le jeu, le divertissement et
l'information. Les grilles se régularisent pour fidéliser les auditoires d'une journée à l'autre,
d'une semaine à l'autre, seule façon de fournir aux annonceurs une audience monnayable,
c'est-à-dire prévisible, garantie3. Yves Jaigu parlait de programmation pavlovienne, «qui
prend le public au lasso »4, pour qualifier cette relation du média avec le public basée sur la
répétitivité, l'habitude et le conditionnement.

L'audience, outil de connaissance du public (troisième


partie)

Une fois établi que le fait d'audience prend en compte «l'exposition au média» et ne
nous dit rien sur les conditions de réception, une minute d'écoute attentive valant comme
une minute distraite ; une fois admis, à l'issue de la partie précédente, que l'audience ne
mesure pas tant les goûts des téléspectateurs ou leur satisfaction que, selon la formule
éloquente de Dominique Wolton, leur «réaction à l'offre»5, la question paraît provocante:
les données innombrables engrangées par le Médiamat peuvent-elles nous aider à mieux
connaître le public de la télévision et sa relation aux programmes ? Y a-t-il d'autres formes
de représentation du téléspectateur moins réductrices ?
Michel Souchon livre une démonstration virtuose de «l'utilisation intelligente et
féconde» que l'on peut faire de l'instrument, à condition d'opérer des «détours» par

44 HERMÈS 37, 2003


Introduction

rapport à sa finalité première, de jouer de la diversité des indicateurs possibles et de suivre


le parcours du téléspectateur tout au long de son écoute. Ainsi, une sociologie du public ne
peut faire fi de ce que l'audimétrie individuelle nous apprend sur la durée d'écoute, ses
évolutions selon de multiples facteurs, ses disparités selon les individus, son impact sur la
nature des programmes consommés. Cela n'exclut en rien l'ensemble des autres outils de
connaissance et Michel Souchon rappelle judicieusement que « le public de la télévision est
coextensif à la société française » et que toutes les enquêtes sur les Français sont précieuses
pour mieux comprendre les téléspectateurs.
Dans la même perspective, Sophie Benoit vante la performance des logiciels qui permettent
de «triturer» l'ensemble des données issues du panel Médiamat. Elle relativise toutefois l'apport
de l'outil face à toute la panoplie d'études utilisées au sein des chaînes pour anticiper et tester les
réactions du public à certains programmes, pour saisir les attentes de telle ou telle catégorie, pour
suivre les changements d'opinions, de modes de vie, bref, tout ce qui peut contribuer à forger
ces «théories» indispensables aux programmateurs, évoquées par Eric Macé.
Dans la mesure où il s'interroge sur la possibilité d'un mode de représentation des
téléspectateurs en tant que citoyens et non plus seulement consommateurs, Dominique
Boullier pense au contraire que la mesure d'audience n'a d'intérêt que par rapport à sa
finalité première, les échanges sur le marché publicitaire. Grâce à un système de
consultation à plusieurs étages, le CSA pourrait se prononcer sur la qualité des programmes
et des programmations, au nom d'un jugement des citoyens. Restent à élaborer les
indicateurs de cette mesure de la «qualité civique», pour éviter les écueils inhérents à la
réduction d'opinions complexes et hétérogènes en indice de satisfaction ou note de qualité.
Marc Tessier ne néglige aucune des médiations pouvant renforcer les liens entre la
télévision publique et les téléspectateurs. Le contrat passé avec le public, en échange du
paiement de la redevance, inclut l'atteinte de certains objectifs d'audience globaux pour les
trois chaînes de France Télévisions, ou affinés par genre. L'ensemble des tests qualitatifs
d'appréciation des programmes, complété par un baromètre d'opinion, constituent un mode
de consultation permanent. Enfin, un système de relation avec les téléspectateurs a été mis
en place, à travers des médiateurs et un service de traitement de l'ensemble du courrier reçu.

Nouveaux médias et Internet:


de la notion de public à celle d'usager (quatrième partie)

La question de la mesure d'audience d'Internet n'est pas seulement méthodologique :


définition d'indicateurs adéquats, constructions d'échantillons représentatifs, méthodes de

HERMÈS 37, 2003 45


Régine Chaniac

recueil des données, etc. Elle met en évidence qu'Internet n'est pas un média de masse
(broadcast), au même titre que la presse, la radio et la télévision, caractérisé par la diffusion
d'une offre organisée de messages, dans un langage propre, à destination de récepteurs
anonymes.
Internet est un média hybride qui associe différentes logiques de communication,
depuis le dialogue interpersonnel de la messagerie (proche du téléphone ou du courrier)
jusqu'au dialogue homme-machine permis par l'interactivité et mis en jeu dans la recherche
d'informations et les transactions les plus diverses.
Internet est un média hétérogène qui véhicule tous les langages et peut en cela relayer
l'ensemble des autres médias (presse, radio, TV), de même que tout moyen d'expression
(photo, musique, etc.).
Internet propose une infinité de services disparates qui, pour l'essentiel, ne rentrent pas
en concurrence, ne se situent pas dans le même champ et n'ont pas la même finalité sociale.
Internet, étant un média point à point, n'est pas structuré pour rejoindre de larges
auditoires, mais peut en échange disposer d'informations sur son public, à partir de données
enregistrées automatiquement, concernant le parcours des internautes, leur consommation
et, le cas échéant, par un recours à un questionnement complémentaire.
Jean-Pierre Jézéquel tire les conséquences économiques de ces caractéristiques du
Web. La mesure d'audience telle que nous l'avons définie, c'est-à-dire un système unique de
fourniture de données régulières permettant de hiérarchiser les différents supports d'un
même média et de fixer la valeur des espaces publicitaires n'est sans doute nécessaire que
pour les gros sites (portails, moteurs de recherche, etc.) qui tentent d'attirer le plus grand
nombre possible d'internautes pour maximiser leurs recettes publicitaires. Le principe de
gratuité, qui a été à l'origine du Net, a conduit dans un second temps, lorsque de nouveaux
entrants se sont préoccupés d'assurer la rémunération des services offerts, à un alignement
sur le modèle économique de la fausse gratuité des médias financés par la publicité. Pour
ces gros opérateurs, le panel user centric de Nielsen NetRatings et Médiamétrie fournit un
palmarès en nombre de visiteurs.
Mais ce modèle des médias financés par la publicité ne peut en aucun cas s'imposer sur
l'ensemble du Net. Quantité de sites n'ont pas vocation à rejoindre de larges audiences et
trouvent leur justification dans une démarche de communication publique (sites
institutionnels, sites d'entreprise), ou dans une transaction rémunérée (fourniture de
services, commerce électronique, etc.). Comme le souligne Josiane Jouët, la possibilité pour
tous ces sites de personnaliser la relation avec l'usager et de mémoriser son profil de
consommation ouvre la voie à un champ immense de techniques de marketing sophistiquées
impossibles avec les autres médias. La notion de cible, fondamentale pour les médias
traditionnels, qui tente de caractériser l'auditoire touché en catégories de consommateurs
auxquelles un annonceur s'intéresse, n'est plus centrale avec l'Internet, qui peut rétablir la

46 HERMÈS 37, 2003


Introduction

corrélation directe entre l'offre proposée par un site et le comportement d'achat de


l'internaute attesté par des transactions. Les instruments de mesure de fréquentation et de
connaissance des internautes de type site centric décrits par Josiane Jouët ne s'apparentent
plus à une mesure d'audience destinée à attirer les annonceurs, mais à un ensemble d'outils
construits pour élaborer l'offre la plus appropriée.
L'évaluation quantitative d'auditoires anonymes pose l'ensemble des questions propres
à l'utilisation des sondages. Avec l'Internet, c'est un champ de problèmes d'une tout autre
nature qu'aperçoit Hubert Bouchet. Le Web, grâce au couplage de l'informatique et des
télécommunications, peut stocker quantité d'informations sur chaque usager, garder trace
de chaque transaction. L'individu, suivi, observé, fiché à des fins commerciales, peut être
aussi surveillé pour tout autre raison, au sein de son entreprise ou au-delà, et cela à son insu.
Le réseau soulève avec une acuité nouvelle les questions relatives à la protection de la vie
privée et des libertés individuelles ou publiques.

Le propos d'Alain Le Diberder a une valeur conclusive. Il prend appui sur l'expérience
acquise par les différents médias pour alerter les chaînes thématiques sur le danger d'une
trop grande dépendance à l'égard des données d'audience. Les déboires récents d'un média
aussi jeune qu'Internet doivent notamment leur servir de leçon. Dans un secteur où le poids
de la publicité est faible, la satisfaction et la fidélité des abonnés sont des critères tout aussi
pertinents. En cela, Alain Le Diberder resitue la mesure d'audience dans le contexte plus
général des processus de prise de décision professionnels. La qualité de la mesure
d'audience ne suffit pas. Il faut encore interpréter les résultats en les confrontant à bien
d'autres paramètres, pour constituer un véritable «corps de connaissance».

NOTES

1. Dans ce domaine, nous renvoyons le lecteur au dossier fondateur coordonné par Daniel DAYAN, «À la
recherche du public. Réception, télévision, médias», Hermès, n° 11-12, 1993.
2. Cf. préface d'Emmanuel FRAISSE, in Mesurer l'audience des médias. Du recueil des données au média-planning,
Paris, Dunod, 2002.
3. Pour une analyse plus détaillée de l'impact de la pression publicitaire sur la structure des grilles, le format et
le contenu des programmes, se référer à l'article «Programmer en régime concurrentiel» (Régine CHANIAC)
in Dossiers de l'audiovisuel, n° 99, 2001, Ina-La Documentation française.
4. Entretien avec Yves Jaigu, alors directeur des programmes de FR3, réalisé le 11 mars 1988 (Régine CHANIAC
et Jean-Pierre JÉZÉQUEL).
5. Cf. notamment dans «Pour le public», Hermès, n° 11-12, 1993, p. 11-13.

HERMÈS 37, 2003 47


Régine Chaniac

REFERENCES DE SITES I N T E R N E T

Sites des principaux intervenants français de la mesure d'audience :


www.mediametrie.fr
www.cesp.org
www.ipsos.fr
www.aepm.fr
www.spqr.fr

48 HERMÈS 37, 2003


I. À CHAQUE MÉDIA
SA MESURE D'AUDIENCE

Emmanuel Fraisse

Jean-Marie Charon

Marie-Dominique Chevreux

Régine Chaniac

Olivier Appé

Jean Mauduit
Emmanuel Fraisse
Centre d'étude des supports de publicité (CESP)

QUE MESURE-TON QUAND


ON MESURE L'AUDIENCE ?

Interrogés sur ce qu'ils entendaient par «intelligence», Binet et Simon, les pères de la
première échelle de QI, avaient répondu que c'était précisément ce que leur test mesurait.
Dans un tout autre domaine, celui de l'étude des médias, une semblable définition
tautologique s'applique-t-elle au concept de base désigné comme «l'audience» : dans quelle
mesure faut-il considérer celle-ci comme le résultat des mesures d'audience?
Dans l'introduction de son livre La Politique des grands nombres, histoire de la raison
statistique, Alain Desrosières revient sur ce thème classique de la problématique de la
mesure dans les sciences humaines : « Il est difficile de penser en même temps que les objets
mesurés existent bien et que cela n'est qu'une convention.» (...) « Les outils statistiques
permettent de découvrir ou de créer des êtres sur lesquels prendre appui pour décrire le
monde et agir sur lui. De ces objets, on peut dire à la fois qu'ils sont réels et qu'ils ont été
construits, dès lors qu'ils sont repris dans d'autres assemblages et circulent tels quels,
coupés de leur genèse, ce qui est après tout le lot de beaucoup de produits.» (...) « Les
attitudes possibles par rapport aux constructions scientifiques (notamment statistiques)
sont multiples. Elles sont souvent différentes en théorie et en pratique. Cela suggère que, au
lieu de camper sur l'une pour dénoncer les autres, il est plus fécond d'étudier la façon dont
chacune d'elles est inscrite de façon cohérente dans une configuration générale, dans un
réseau de compte rendus. La question de la réalité est liée à la solidité de ce réseau, à sa
capacité à résister aux critiques. »

La mesure d'audience des médias constitue un genre spécifique parmi les nombreuses
applications auxquelles les sondages ont donné lieu. Autant qu'à la nature de l'objet qu'elle
prétend appréhender, elle doit son originalité à son statut et à ses implications économiques.

HERMÈS 37, 2003 51


Emmanuel Fraisse

La mesure d'audience s'est (presque exclusivement) constituée en réponse à une


préoccupation unique, d'ordre commercial : la régulation du marché publicitaire (ou, plus
précisément: du marché de l'espace publicitaire dans les médias).
Il s'agit, au demeurant, d'un fait bien connu (pour la télévision notamment, à propos
de laquelle on a dénoncé la «dictature de l'audimat») ; il n'est sans doute pas pour autant
perçu au niveau de généralité qui est le sien, en raison des nombreuses analyses et
commentaires dont les données d'audience font l'objet, indépendamment de la finalité de
leur production.
Or, cette finalité n'est pas anodine : entre les deux dimensions de la mesure, théorique
et pratique, elle donne priorité à la seconde.
Les revenus issus de l'achat d'espace publicitaire constituent, pour la quasi-totalité des
supports (titres de presse, chaînes de télévision, stations de radio, réseaux d'affichage), une
part de leurs ressources globales suffisante pour conditionner très directement leur viabilité
économique.
Les indices d'audience, qui constituent la clé de répartition de cette manne, sont en
conséquence investis d'un pouvoir sans équivalent dans tout autre domaine d'application des
sondages. Le fait est d'autant plus sensible que, sur le plan méthodologique, la mesure
d'audience s'avère tout, sauf simple. Sans prétendre, dans le cadre de cet article, rendre compte
par le détail de sa complexité, on va s'efforcer d'en évoquer les dimensions essentielles.

Dans son acception première, le concept d'audience est simple: il désigne «la fraction
d'une population de référence exposée à un média» (ou, plus précisément, à un «support»
- chaque média se déclinant en un certain nombre de supports) ; c'est, évidemment, la
définition de «l'exposition» et la manière dont on la relève, qui posent problème. Les
modalités selon lesquelles un individu est susceptible d'entrer en contact avec un média sont
multiples: elles peuvent être caractérisées selon des dimensions qui opposent des
comportements fortuits ou délibérés, furtifs ou s'inscrivant dans la durée, occasionnels ou
habituels, mobilisant ou non l'attention du sujet... Face à la complexité du phénomène, on
conçoit d'emblée qu'il a fallu consentir, sur l'autel de la méthodologie, un certain nombre
de sacrifices, poser un certain nombre de conventions. D'autant plus que la restitution de
ces comportements suppose le recours à la mémoire de l'interviewé (dans le schéma
classique du recueil d'information par interview - nous verrons ultérieurement les
implications du recueil d'information instantané propre à la technique audimétrique).
La volonté, très pragmatique, de construire des instruments de mesure s'est traduite
dans une démarche qui a consisté à établir (et à éprouver) une série de délimitations
«plausibles» des faits d'audience, en accord avec l'objectif poursuivi (c'est-à-dire, au
premier chef: la mesure de l'exposition aux messages publicitaires), en tenant compte des
contraintes opératoires du recueil d'information.

52 HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

Les difficultés avec lesquelles il faut composer


sont nombreuses

Le recueil d'information repose sur du «déclaratif»

...et ce, dans la situation artificielle de l'interview.


Certes, les faits qu'on s'efforce de restituer ne relèvent pas du registre de l'opinion,
mais du comportement ; en vertu de quoi, il semble qu'ils échappent à la critique radicale,
formulée par Pierre Bourdieu notamment, à l'encontre des sondages d'opinions : les faits
d'audience sont (en théorie) des faits «objectifs» à propos desquels l'interviewé est
(théoriquement) en mesure de s'exprimer. Ils n'en possèdent pas moins une signification
sociale forte : on ne saurait exclure que leur aveu ne puisse être entaché de certains des biais
qui ont été dénoncés à propos de la déclaration des opinions. Toutefois, le fait que les
indices d'audience des supports «socialement valorisés» soient en général sensiblement
inférieurs aux scores obtenus par les mêmes supports dans les enquêtes d'appréciation
plaide en faveur de la validité de la mesure d'audience.

Le recueil d'information suppose le recours à la mémoire de l'interviewé

C'est là, sans doute, une des difficultés majeures avec laquelle la mesure d'audience
doit composer.
La mémoire de l'interviewé est sollicitée pour des faits de nature très différente, quant
à son propre vécu : de l'exposition habituelle et régulière, à l'exposition accidentelle et rare,
de l'exposition qui aura mobilisé toute son attention (et aura sans doute laissé une trace
mémorielle forte), à l'exposition subreptice, dépourvue de réelle implication; elle est
sollicitée sur des périodes de référence temporelles très variables: depuis «la veille»
(mémoire à court terme, dont on espère une précision plus grande), jusqu'au mois ou à
l'année (de manière à restituer les comportements en termes d'habitudes).
Les questionnements adaptés au cas particulier de chaque média, sont la résultante des
recherches qui ont été menées, depuis l'origine, pour quadriller ce vaste champ
d'investigation. Elles ont permis de mettre en évidence un certain nombre de phénomènes,
(tel, par exemple, le biais désigné comme «effet télescope», qui conduit les répondants à
minimiser les durées sur les périodes de référence longues). Le croisement et l'analyse des
données issues de différents questionnements (dernière occurrence d'exposition et
habitudes) ont permis de préciser la signification des réponses, d'optimiser l'exploitation
des données et de concevoir les modèles de probabilisation utilisés en média planning.

HERMÈS 37, 2003 53


Emmanuel Fraisse

Une mesure appliquée à des faits statistiquement «rares»

Cette affirmation peut sembler un peu surprenante, s'agissant de mesures portant sur
des médias «de masse». Elle n'en est pas moins vraie, au sens statistique du terme, et au
degré de détail auquel on entend saisir les phénomènes.
A l'échelon de la population française (âgée de 15 ans et plus, et relevant des ménages
«ordinaires» - la population de référence par excellence), un support qui totalise une
audience de l'ordre du million d'individus - ce qui est loin d'être négligeable - réalise une
«pénétration» inférieure à 3 % - un fait statistique relativement «rare».
Le corollaire en est la dimension importante de la taille des échantillons - avec ses
conséquences sur le budget des études.

Une exigence de précision impossible à totalement satisfaire

En dépit des moyens importants mis en œuvre, l'exigence de précision que postule,
idéalement, la mesure d'audience, est impossible à totalement satisfaire.
Cette limitation n'est pas seulement (ni même, d'une certaine manière, principalement)
d'ordre économique ; elle relève des limites de l'outil statistique (accrues des imperfections
inhérentes à sa mise en œuvre), dans leur rapport avec l'utilisation qu'on entend faire des
données produites - comme clés de répartition pour l'affectation d'une ressource
économique : dans ce contexte, toute variation, même statistiquement non significative, est
susceptible d'avoir des conséquences dans l'exploitation des données.
Reprenons l'exemple cité au paragraphe précédent d'un support qui réalise une
audience de 3 % : relevé, par exemple, sur un échantillon de dix mille individus (dix fois la
taille habituelle de l'échantillon des sondages d'opinions publiés), le «sous-échantillon
utile» (qui représente l'audience du support) sera de l'ordre de trois cents individus:
l'incertitude statistique relative qui lui correspond est loin d'être négligeable (intervalle de
confiance au seuil de 5 % , compris entre 2,65% et 3,35%, soit plus de 10% d'erreur
relative - sous l'hypothèse d'un recueil d'information «parfait»).

Un recueil d'information lourd

Le nombre des supports à étudier, la nécessité de circonscrire le phénomène selon au


moins ses principales dimensions, débouchent sur des protocoles lourds, qui demandent un
niveau de participation élevé de la part des répondants.
Les impératifs liés à l'objectif poursuivi rentrent souvent en conflit avec la nécessité de
respecter une ergonomie satisfaisante du protocole expérimental : la tentation qui consiste à

54 HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

ne pas prendre suffisamment en considération ce qui est exigé du répondant constitue une
dérive fatale pour la qualité de l'information relevée. Un effort sensible a été accompli ces
dernières années pour mieux intégrer cette dimension du problème.

Une mesure très sensible au protocole expérimental

L'expérience a conduit à reconnaître l'extrême sensibilité des indices aux appareils de


mesure. Cette considération, qui vaut, en général, pour l'ensemble des études par sondage,
est ressentie avec une acuité toute particulière dans le cas de la mesure d'audience, compte
tenu de ses implications, et du fait qu'on cherche à disposer, pour chaque média, d'une
étude unique, puisqu'elle a vocation à servir d'étalon de référence.
En conséquence, un soin maniaque est apporté en permanence à suivre et à définir
chaque élément du protocole expérimental.
Dans beaucoup de pays (c'est le cas en France avec le CESP), on a mis en place une
instance indépendante pour assurer l'audit permanent des outils de référence.
Les données d'audience trouvant, quant à leur exploitation, l'essentiel de leur intérêt
dans leur valeur relative, et en termes d'évolution chronologique, les modifications au
protocole sont pratiquées le moins souvent possible - les ruptures n'intervenant qu'à la
condition d'apparaître comme un progrès réel pour la validité de la mesure.

Le CESP
Le Centre d'étude des supports de publicitéestl'association interprofessionnelle qui regroupe
l'ensemble des acteurs du marché publicitaire concernés par l'étude de l'audience des médias. Le
CESP compte plus de 300 adhérents : annonceurs, agences conseil en communication, agences
médias, supports et régies publicitaires.

L'Audit de la mesure d'audience


La mission première du CESP est l'audit des études d'audience dont les résultats déterminent
et régulent le marché de l'espace publicitaire. L'audit du CESP porte tant sur la réalisation de
l'étude (contrôles sur le terrain) que sur l'ensemble des aspects méthodologiques, en amont et en
aval (depuis la conception de l'étude jusqu'à la formalisation des résultats).

La recherche, l'expertise, la transmission du savoir


Le CESP est un carrefour de discussion et un lieu de débat méthodologique pour tout ce qui
touche à la connaissance et à la mesure de l'audience des médias. Il exerce un rôle de veille

HERMÈS 37, 2003 55


Emmanuel Fraisse

technologique et participe activement à plusieurs instances internationales. Il est régulièrement


sollicité par ses membres pour mener des recherches et des tests.
Le CESP joue un rôle important dans la diffusion des connaissances sur les problématiques
d'audience, à travers des manifestations variées.

Les mesures d'audience «de référence» auditées par le CESP


Presse:
- l'étude AΕΡΜ, sur l'audience de la presse magazine;
- l'étude EUROPQN/SPQR/SPHR sur l'audience de la presse quotidienne (nationale,
régionale) et hebdomadaire régionale;
- l'étude «la France des Cadres Actifs» (à l'origine sur la presse, et dont le champ
d'intervention s'est élargi aux médias audiovisuels).
Audiovisuel:
- le panel audimétrique Médiamat sur l'audience de la télévision;
- le panel MédiaCabSat sur l'audience des chaînes de télévision thématiques;
- l'étude « 73 000 + » et le panel Radio sur l'audience de la radio et du cinéma.
Affichage:
- l'étude Affimétrie sur l'audience de l'affichage.

Le bref catalogue qu'on vient d'esquisser du contexte et des difficultés auxquelles se


trouve confrontée la mesure d'audience des médias s'incarne selon des modalités nettement
différenciées pour chacun d'entre eux, en raison de sa spécificité propre.
En particulier, nous nous sommes référés jusqu'ici au modèle classique du recueil
d'information par interview, sans aborder celui, plus récent - mais qui a cours depuis
plusieurs années pour la télévision, et semble se mettre en place pour la radio - du recueil
instantané selon la technologie électronique de l'audimétrie. Il s'agit là, indéniablement, à
l'échelle de la mesure d'audience, d'une vraie révolution: tout ce qui a été dit du recours à
la mémoire ne s'y applique plus - le panéliste rend compte de ses audiences «en temps
réel»; pour le reste, et au-delà des différences patentes que présente ce mode de recueil
d'information par rapport au modèle classique, plusieurs des remarques qui ont été faites -
celles qui ont trait à l'utilisation de la technique des sondages - restent pertinentes;
l'application de la technique audimétrique recèle, par ailleurs, un certain nombre de
problèmes propres, que son caractère de modernité ne doit pas conduire à occulter.
Une présentation rapide de quelques-unes des études de référence, appliquées aux
différents médias, va nous permettre d'appréhender, plus concrètement, leur portée et leurs
limites.

56 HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

La Presse

Il existe, en France, deux études «de référence» sur l'audience de la presse: l'une sur
l'audience de la presse magazine, l'autre sur l'audience de la presse quotidienne. Cela n'a
pas toujours été le cas : à l'origine, les deux familles de supports étaient étudiées dans la
même étude (c'est le cas dans plusieurs pays étrangers) ; la scission est intervenue parce que
les quotidiens estimaient ne pas être traités sur un pied d'égalité avec les magazines dans le
cadre de cette enquête.
La partition en deux études indépendantes apparaît pertinente du point de vue du
mode de recueil : la presse quotidienne (nationale et régionale), qui compte un petit nombre
de supports (les quelques titres nationaux, et, en un lieu géographique déterminé, un, deux
ou trois titres régionaux) se prête à l'interview téléphonique (qui présente un certain
nombre d'avantages: notamment, celui de permettre d'optimiser la dispersion
géographique des interviews) ; par comparaison, la presse magazine, dont l'étude porte sur
plus de 150 titres, exige un recueil d'information en situation de face-à-face. L'existence de
deux études indépendantes n'en est pas moins ressentie comme dommageable en ce qu'elle
interdit l'exploitation conjointe des données (la prise en compte des duplications entre
quotidiens et magazines) en média planning.

l'étude d'audience de la presse quotidienne

Elle porte sur 11 titres nationaux, 71 régionaux et 174 titres de presse hebdomadaire
régionale (l'interviewé n'est interrogé que sur les titres susceptibles de le concerner, eu égard
à sa situation géographique).
Le recueil d'information est conduit par téléphone (système «Cati 1 »), auprès de la
population des «15 ans et plus, appartenant à des ménages ordinaires».
Les interviews sont réparties sur l'ensemble de l'année, sur un échantillon total de
21 700 répondants, selon un plan d'échantillonnage à deux degrés.
La définition de l'audience obéit à la formulation: «avoir lu, parcouru, ou consulté,
chez soi, ou ailleurs ».
La durée moyenne de l'interview s'établit à un peu moins de 15 minutes.
Le relevé des audiences obéit au schéma suivant :
- question «filtre» : seuls les titres cités comme ayant été lus au moins une fois au cours
des 12 derniers mois sont pris en compte dans les questions ultérieures du questionnaire.
On ne peut évidemment pas tabler sur une grande exactitude des réponses fournies en
référence à une période temporelle aussi longue: l'objet de la question «filtre» est de

HERMÈS 37, 2003 51


Emmanuel Fraisse

repérer, dans la liste des titres, ceux qui sont susceptibles de relever de définitions plus
resserrées de l'audience. L'audience «annuelle» est, en conséquence, une notion limite,
d'intérêt relatif (même si ses chiffres sont parfois utilisés pour leur promotion par les titres,
qui aiment bien les gros chiffres) ;
- habitudes de lecture, selon l'échelle : tous les jours ; 3 à 5 fois par semaine ; 1 à 2 fois
par semaine ; 2 à 3 fois par mois ; moins souvent ;
- date de dernière lecture (DDL), selon l'échelle: hier; avant-hier; il y a 3 ou 4 jours;
il y a moins de 8 jours ; il y a 8 à 15 jours ; il y a plus de 15 jours.
Les réponses à la première modalité («hier»), constituent la «Lecture Dernière
Période» (LDP). Le croisement des réponses en termes d'habitudes et de DDL permet
d'affecter des probabilités aux modalités d'habitudes (à titre d'exemple, la probabilité
correspondant à la réponse «tous les jours» est de l'ordre de 0,8).

L'étude d'audience de la presse magazine

Elle porte sur plus de 150 titres (hebdomadaires et mensuels pour la majorité d'entre
eux, mais aussi bimensuels, bimestriels). Elle est réalisée sous l'égide d'un GIE regroupant
les principaux éditeurs (l'ΑΕΡΜ), qui en confie, depuis plusieurs années, la réalisation
partagée à trois instituts (ISL, Ipsos, Sofrès). Elle présente de nombreuses caractéristiques
communes avec la précédente : population de référence, définition de l'audience, plan de
sondage.
L'échantillon total est de 20 100 individus ; il se décompose en un échantillon principal
(16200 individus), représentatif de la population de l'étude, et un sur-échantillon de 3 900
individus appartenant à des foyers dont le chef de famille est cadre ou profession
intermédiaire (strates de la population qui réalisent des audiences supérieures à la moyenne ;
bien entendu, un redressement rétablit, dans le calcul des résultats, le poids réel de ces
catégories dans la population).
Les interviews sont réparties tout au long de l'année en six vagues de deux mois.
La nature et l'ampleur du questionnement exigent la situation de face-à-face au
domicile de la personne interrogée; le recrutement selon cette modalité pose un certain
nombre de problèmes (par rapport au recueil téléphonique) : difficultés d'accès à certains
logements (les taux d'accessibilité et d'acceptation variant assez sensiblement selon les
catégories socio-démographiques), nécessité de conduire les interviews dans la journée, et
non en soirée (avec le risque de sous-échantillonner les individus les plus mobiles).
Une autre difficulté propre à l'enquête tient à la lourdeur du questionnaire, qui peut
entraîner une certaine lassitude de la part de l'interviewé et engendrer des risques de
confusions.

58 HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

À l'origine des enquêtes sur la presse, le matériel présenté pour pallier ce risque
consistait en des exemplaires réels des titres étudiés (études «through the hook»). Avec
l'augmentation du nombre des titres présents dans l'enquête, cette option s'est rapidement
révélée impraticable; c'est la présentation du logo des titres (dans leurs graphisme et
couleurs) qui est utilisée pour aider le souvenir. Une amélioration sensible à cet égard a été
introduite avec le recours à l'ordinateur portable.
L'enquête AEPM utilise un «Capi 2 double-écran» : l'enquêteur utilise le micro-
ordinateur sur l'écran duquel apparaissent toutes les consignes de déroulement de l'enquête
(le délivrant ainsi du souci de gérer les différents «filtres») ; le répondant dispose d'un écran
propre qui affiche les logos des titres au fur et à mesure de l'interrogation. Le logiciel gère
en outre la rotation aléatoire des titres (en respectant certaines règles de cohérence) pour
minimiser les biais d'ordre.

L'Audiovisuel

Les deux études de référence sur l'audience de la radio (étude «75 000») et sur
l'audience de la télévision (panel audimétrique «Médiamat») sont réalisées par l'institut
Médiamétrie.

L'étude d'audience de la radio

Elle est conduite par téléphone sur un échantillon annuel de 75250 individus, à raison
d'environ 250 interviews par jour. Le plan d'échantillonnage combine tirage aléatoire et quotas.
Certaines régions géographiques sont sur-représentées (en fonction de l'implantation des
stations) ; les individus de 65 ans et plus (dont les audiences présentent une variabilité moindre)
sont sous-représentés (bien entendu, les résultats font l'objet de redressements en conséquence).
La durée moyenne de l'interview est de 25 minutes. Les informations recueillies sur la
radio sont les suivantes :
- notoriété assistée des stations, sur la base d'une liste de 20 à 60 stations, selon les
départements ;
- habitudes d'écoute sur l'ensemble de la journée pour un certain nombre de stations
«majeures» (ayant passé le filtre de la question de notoriété) ;
- écoute des 24 dernières heures (et non de la veille ; les 24 heures qui ont précédé le
moment de l'interview, entre 17h30 et 21h30).

HERMÈS 37, 2003 59


Emmanuel Fraisse

Le concept d'audience retenu est «l'écoute, ne serait-ce qu'un instant» ; la résolution


temporelle du relevé est au «demi-quart d'heure», ce qui constitue une précision limite, si
l'on considère qu'elle repose sur le souvenir des répondants (qui peut être très précis sur
certains moments charnières de la journée, sensiblement plus approximatif pour d'autres,
en particulier lorsqu'il s'agit d'écoutes peu attentives, accompagnant d'autres activités ; la
difficulté se double alors de l'incapacité où peut se trouver le répondant d'identifier la
station qu'il écoutait).
Les résultats calculés sont :
- l'audience quart d'heure par quart d'heure ;
- l'audience du quart d'heure moyen ;
- la durée moyenne d'écoute par individu ;
- l'audience cumulée (sur 24 heures) ;
- la durée moyenne d'écoute par auditeur de chaque station.
L'effort mémoriel demandé à l'interviewé interdit de procéder à un relevé suffisamment
précis au-delà des 24 dernières heures. Pour reconstituer les comportements d'audience
dans la durée, on procède, une fois par an, à une étude complémentaire qui consiste en un
panel d'une durée de trois semaines, par carnet d'écoute auto-administré.
La population de référence de l'étude était traditionnellement la même que pour les
études presse (les «15 ans et plus») ; à la demande de certaines stations (musicales,
d'audience jeune), cette limite d'âge a été ramenée à 13 ans en 2002 ; en la circonstance, NRJ
a pris la première place en audience cumulée.
Une révolution méthodologique majeure est en cours concernant la mesure de
l'audience de la radio, avec l'émergence de systèmes de mesure électronique : elle repose sur
la technologie de capteurs portables qui captent et identifient les signaux émis par les
différentes stations. Un tel système fonctionne en Suisse depuis 2002 (sous forme de
montres-bracelets portées par les panélistes) ; un système concurrent fait l'objet
d'expérimentations aux USA et en Angleterre. Le coût de ces systèmes est élevé par rapport
à l'enjeu que représente le marché publicitaire de la seule radio ; ils esquissent sans doute
l'avenir de l'audimétrie télévisuelle, confrontée au développement des récepteurs mobiles.

La mesure d'audience de la télévision

Elle est sans doute celle qui est le plus connue du grand public (qui continue à la
désigner comme «l'audimat», alors que son nom officiel est, depuis plusieurs années, le
«Médiamat»).
La technologie audimétrique consiste à coupler au récepteur de télévision un appareil
(l'audimètre) qui enregistre en permanence l'état du récepteur (marche ou arrêt, canal de

60 HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

diffusion en fonctionnement). Le système est complété par un boîtier de télécommande, sur


lequel chaque membre du foyer est identifié par un bouton. L'information relevée est
déchargée la nuit en utilisant (silencieusement ! ) les lignes téléphoniques.
Parce qu'elle évite le recours à la mémoire, parce qu'elle autorise un relevé d'une
grande précision, avec une mise à disposition très rapide de l'information, la technologie
audimétrique constitue, indéniablement, une avancée remarquable du point de vue du
recueil des données. Elle n'est pas, pour autant, sans problèmes ; notamment :
- celui du recrutement du panel : le niveau d'engagement demandé au foyer qui rentre
dans le panel est élevé et engendre des taux de refus importants. Le contrôle de l'échantillon
selon les critères socio-démographiques ne constitue pas une garantie sans faille de sa
parfaite représentativité par rapport au phénomène étudié ;
- le système n'est pas totalement «passif» : il suppose une collaboration permanente
des panélistes, qui doivent déclarer leur présence dans l'audience au moyen de la
télécommande : il est difficile d'imaginer que la discipline soit, à cet égard, à tout moment
parfaite (des enquêtes coïncidentales sont périodiquement réalisées pour vérifier que le
niveau de collaboration est «satisfaisant») ;
- les audiences «hors-domicile» sont imparfaitement saisies (la télécommande prévoit
des boutons pour «des visiteurs») ou ignorées (audiences réalisées dans des lieux
publics...)
Le panel Médiamat compte 3 150 foyers - soit plus de 7 600 individus de «4 ans et
plus» (la population de référence; consigne est donnée aux adultes d'actionner l'audimètre
pour les individus les plus jeunes).
Les résultats produits sont :
- l'audience cumulée (jour) ;
- l'audience instantanée ;
- la durée moyenne d'écoute ;
- les parts de marché des chaînes ;
- l'audience des émissions et des écrans de publicité.
Ces indicateurs sont déclinés sur 24 cibles standard : l'accès aux données individuelles
permet (dans les limites statistiques) le calcul sur n'importe quelle combinaison de critères.

Cette présentation elliptique de quelques-unes des études de référence s'est efforcée de


faire ressortir les principales dimensions de la problématique de la mesure d'audience et
l'état de l'art en la matière.
Il s'agit d'un domaine en évolution très rapide, tant du côté des technologies, que du
côté de l'offre et des pratiques de consommation des médias.
L'un des principaux défis posés à la mesure est le phénomène de la « fragmentation »
des audiences, qui s'oppose à la logique des échantillons (même de grandes tailles) sur

HERMÈS 37, 2003 61


Emmanuel Fraisse

laquelle repose la technique des sondages. Les progrès de la statistique, l'accroissement de


la puissance informatique au service de l'exploitation des méga-bases de données vont, sans
doute, dans un avenir proche, relayer au moins partiellement la technique du sondage
classique.

NOTES

1. Cati : Computer assisted telephone interview (interview téléphonique assistée par ordinateur). L'enquêteur lit
les questions sur l'écran de l'ordinateur et saisit les réponses directement sur le clavier.
2. Capi : Computer assisted personnal interview (interview en face à face assistée d'un ordinateur).

62 HERMES 37, 2003


Jean-Marie Charon
Centre d'étude des mouvements sociaux (CEMS)
CNRS

PRESSE ECRITE :
DU TIRAGE AU LECTORAT

La presse écrite comme tous les autres grands médias dispose d'une analyse de
l'audience de ses titres, pourtant celle-ci est récente au regard de l'ancienneté du média. Les
caractéristiques de celui-ci, le très grand nombre de titres, les conditions de son utilisation,
lui confèrent également une très grande spécificité au regard de la télévision ou de la radio.
Ses méthodes d'analyse et les limites qu'elles rencontrent font l'objet de débats réguliers, qui
n'ont pas manqué de conduire, en 1993, à un éclatement entre d'un côté l'analyse de
l'audience des quotidiens et de l'autre celle des magazines, sous la direction d'organismes
distincts. Moins connues du grand public, voire des spécialistes des médias, que l'étude de
l'analyse de l'audience de la télévision, les questions concernant l'analyse de l'audience de
la presse écrite sont intéressantes dans la mesure où elles introduisent à des questions qui
vont progressivement concerner bien d'autres médias, soit la multiplicité de titres et la très
forte segmentation et atomisation qui en découlent.

Le lent cheminement vers la notion d'audience

Au regard d'une histoire riche de plus de trois siècles et demi, l'idée de comptabiliser
les acheteurs, puis les lecteurs de la presse écrite est finalement assez récente. Il suffit de
parcourir un ouvrage consacré à l'histoire des journaux pour constater que jusqu'aux

HERMÈS 37, 2003 63


Jean-Marie Charon

années 1920 il n'est fait référence qu'aux tirages de ceux-ci. Les historiens insistent
d'ailleurs sur la prudence nécessaire pour traiter de tels chiffres qui peuvent être retrouvés
dans les archives concernant les différents éditeurs et exclusivement produits par ceux-ci,
avec la difficulté à connaître comment ceux-ci étaient produits (chiffres bruts, moyennes,
etc.), sachant qu'aucune norme n'existait dans ce domaine et encore moins de système de
contrôle. Il est enfin très difficile d'évaluer de manière fiable l'écart existant entre les tirages
et la vente réelle, le pourcentage d'invendus ou de «bouillon», variant sensiblement avec
l'apparition de la vente au numéro (deuxième moitié du XIXe siècle1 et le ratio vente par
abonnement vente au numéro.
Ce n'est qu'en 1923 que les éditeurs vont s'accorder sur la création d'un organisme,
chargé de collecter, contrôler et donc garantir le nombre de quotidiens vendus, autrement
dit la «diffusion». Cet organisme, l'Office de justification de la diffusion (OJD), publie
chaque année les chiffres de diffusion des titres qui souhaitent que soient connues leurs
performances. Cet «OJD» est le fruit d'une déclaration «sur l'honneur» des éditeurs, des
contrôleurs étant chargés de vérifier la véracité des dites déclarations. Cette démarche
vérité, qui n'est pas sans entraîner des coûts d'abonnement à l'organisme de contrôle, n'est
bien évidemment pas liée à une pure soif de connaissance, ou une volonté de transparence
à destination du public. Il s'agissait plutôt de répondre aux demandes de plus en plus
pressantes des annonceurs d'obtenir un indicateur fiable de la puissance de chaque titre. Il
faut noter que les années 1920 voient se lancer les premiers magazines de conception
moderne 2 , faisant un appel substantiel à la publicité, sans parler de l'apparition de la radio,
premier média prétendant ne vivre que de la publicité.
La comparaison du contrôle de la diffusion avec les méthodes utilisées par nos voisins
européens, notamment britanniques et allemands, donne à penser que l'évolution
souhaitable va dans le sens de l'accélération des contrôles avec la publication de statistiques
plus fréquentes, trimestrielles par exemple. En matière de contrôle, nos voisins mettent
davantage de personnes chargées de vérifier et garantir la fiabilité des statistiques. Bien que
la notion de diffusion ne soit pas la plus pertinente pour les annonceurs, qui s'intéressent
aux lecteurs eux-mêmes, l'audience, il n'empêche que le nombre d'exemplaires vendus d'un
titre intervient comme une sorte d'étalon à partir duquel peut être appréhendée la
crédibilité des études d'audience.
Il faudra attendre la fin des années 1950 (1956)3 pour que soit créé le Centre d'étude
des supports de publicité (CESP), organisme paritaire entre les médias et le secteur de la
publicité (agences et annonceurs) qui, lui, a pour vocation de définir les conditions d'étude
de l'audience, de même que la conduite de celle-ci. En matière de presse écrite, l'étude
d'audience procède par vagues d'enquêtes en face à face, sur de gros échantillons. Plusieurs
chiffres sont alors saisis, la lecture la plus récente, sorte de photographie de la lecture au
moment de l'entretien, dite Lecture Dernière Période, ainsi que la lecture durant la période

64 HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

sur laquelle court l'enquête (équivalent de l'audience cumulée des radios). En 1993,
quotidiens et magazines, ne réussissant plus à s'accorder sur les conditions de l'analyse
d'audience, feront éclater le système, chaque forme de presse réalisant sa propre analyse
d'audience, sous la direction de son propre organisme d'étude de l'audience (Euro-PQN-
PQR pour les quotidiens, AEPM pour les magazines), avec des méthodologies légèrement
différentes (Lenain, 1995). La place des publicitaires a été relativisée"4. Chaque forme de
presse, redevenue propriétaire de ses chiffres, entend en faire l'exploitation conforme à ses
intérêts, tout comme elle entend les mettre en perspective avec diverses données de
pratiques médiatiques ou de consommation.

Les caractéristiques de l'enquête d'audience

L'enquête sur l'audience de la presse depuis qu'elle fut mise au point par le CESP
s'effectue par questionnaires, auprès de gros échantillons. L'AEPM procède par
entretiens en face à face, l'Euro-PQN par interviews téléphoniques. Son évolution,
surtout après l'éclatement entre quotidiens et magazines, a conduit à renforcer toujours
les échantillons. Il sont de 20000 personnes (de 15 ans et plus) pour l'étude AEPM et
22400 pour Euro-PQN 5 . Elle a aussi multiplié les vagues d'administration des dits
questionnaires, afin de prendre en compte les variations saisonnières. L'enquête AEPM
s'est ainsi d'abord administrée en six vagues successives de chacune 2500 interviews,
pour être aujourd'hui répartie régulièrement sur 350 jours par an. Pour limiter les effets
liés aux jours de la semaine, les interviews sont menées à égalité sur chaque jour de la
semaine, y compris les samedis et dimanches 6 . L'échantillon respecte scrupuleusement -
par un système de quotas - la répartition géographique, les CSP ou niveau d'études du
chef de famille7. Euro-PQN distingue un échantillon «quotidiens nationaux» de
6 000 interviews en région parisienne, d'échantillons s'adressant au public des différentes
régions.
Le questionnaire enregistre une lecture déclarée, par l'un des membres du foyer
enquêté. Il confond les différents niveaux de lecture dans une formule unique : avez-vous
«lu, parcouru ou consulté». Il distingue la lecture qui vient de se produire (le jour même
pour le quotidien, la semaine pour l'hebdo, etc.) d'une habitude de lecture dont la
fréquence est enregistrée. Ces deux modes d'appréhension permettent de produire deux
données courantes: la Lecture Dernière Période ou LDP, qui correspond à la part
d'audience pour les médias audiovisuels ; les habitudes de lecture, qui permettent de fournir
une correspondance à l'audience cumulée. Ces résultats sont fournis à chaque titre

HERMÈS 37, 2003 65


Jean-Marie Charon

adhérent, alors que les principaux chiffres pour l'ensemble des titres analysés, sont diffusés,
deux fois dans l'année, sous forme de CD roms8.
L'enquête AEPM ne se contente pas de saisir «l'audience» de chaque titre analysé. Elle
collecte également des données concernant les pratiques des différents médias (radio,
télévision, cinéma). Elle intègre également quelques données sur l'équipement et la
consommation du ménage (habitat, automobile, produits bancaires). Enfin un
questionnaire auto-administré est laissé à chaque interviewé, il porte sur les «pôles
d'intérêt». Il s'agit en fait des loisirs et divertissements, des pratiques culturelles, comme des
usages de communication, notamment le téléphone.
Le cœur de l'enquête AEPM porte sur la présentation des titres à la personne
interrogée. Les risques de confusion de titres, liés au nombre de ceux-ci ou à la proximité
de ceux-ci dans certaines familles de magazines (ex. TV Hehdo, TV Magazine, etc.) ont
conduit à proposer chaque titre sous forme de «vignette» reprenant le titre dans sa
typographie, ses couleurs, sa présentation habituelle. Afin d'éviter des biais liés à l'ordre de
présentation des titres, notamment avec des phénomènes de lassitude, les enquêteurs
faisaient varier régulièrement le déroulement des présentations, qui se faisaient grâce à des
«cahiers» à spirales. Aujourd'hui le recours à un micro-ordinateur à deux écrans contourne
cette question par une présentation aléatoire des vignettes des différents titres9.

Les limites des études d'audience de la presse

La principale limite, physique, à laquelle l'étude d'audience de la presse doit faire face,
est celle du nombre de titres. Avec 70 quotidiens et surtout plusieurs milliers de magazines,
l'enquête butte sur l'impossibilité de prolonger exagérément l'interview et de lasser la
personne interrogée. Aujourd'hui le temps moyen se situe autour de trois quarts d'heures
(46,9 minutes, exactement, en moyenne pour l'étude AEPM). Elle butte surtout sur
l'atomisation de l'audience et l'impossibilité de multiplier les échantillons, indéfiniment, en
grande partie pour des raisons budgétaires10. Or ce morcellement de l'audience au regard
d'un échantillon limité - même s'il représente 20 000 interviews - pose un délicat problème
d'intervalle de confiance, qui interdit de prendre en compte des titres dont l'audience serait
insuffisamment massive, avec suffisamment de sécurité. Il faut remarquer que les
commentateurs des résultats des études d'audience de la presse et même souvent les
éditeurs eux-mêmes ont du mal à intégrer ces données d'intervalle de confiance lorsqu'ils
constatent des évolutions de 1 à 2 % sur un titre dont l'audience est de l'ordre 1,3 million
de lecteurs11.

66 HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

Enfin, le nombre de titres à passer en revue, en un temps limité, interdit de multiplier


des questions permettant d'enrichir l'information de données qualifiant la lecture ou
précisant les habitudes de consommation, les pratiques culturelles ou les comportements
médias. Déjà a-t-il fallu se résoudre à recourir à un questionnaire auto-administré (donc
moins contrôlé) pour les pôles d'intérêts12. Il ne faut pas non plus mésestimer que ce faible
nombre de questions complémentaires pouvant être intégrées se trouve compliqué par les
intérêts contradictoires des éditeurs abonnés à l'enquête. Il est incontestable qu'ici, les plus
grands éditeurs, les grosses «forces de frappe» de la presse magazine, arrivent davantage à
faire passer leurs préoccupations, liées aux argumentaires privilégiés à l'égard des médias
planeurs et annonceurs13.
Faute de pouvoir trouver de réponse technique satisfaisante, la confrontation au
problème du nombre et de l'atomisation des magazines s'est soldée par une limitation
drastique du nombre des titres étudiés, à partir de critères de taille: au moins 100000
exemplaires de diffusion (OJD), au moins 500 000 lecteurs. Ce qui revient de fait à limiter
l'enquête à l'analyse de l'audience de 145 titres de magazines, seulement (!). C'est dire que
la plus grande partie des magazines n'est pas étudiée; que les magazines des segments les
plus en phase avec l'évolution du marché, très segmentés ; que les magazines créés depuis
moins d'un an et demi (le temps d'un premier OJD), ne peuvent s'appuyer sur les études
d'audience reconnues et contrôlées14.
La seconde grosse difficulté tient au fait qu'il s'agit d'enquêtes déclaratives, dans des
domaines sur lesquels pèsent des systèmes de valeurs très prégnants. Il faut surtout prendre
en compte l'effet cumulé du déclaratif et des confusions possibles entre des titres parfois
très proches dans leur dénomination, leurs concepts, leur contenu et leur forme pour les
magazines. Le phénomène joue particulièrement lorsqu'il est question de prendre en
compte des publications consultées, trouvées, prêtées, etc., durant l'année, dans des lieux
aussi différents que des salons de coiffure, les salles d'attente de médecins, une banquette
du métro, un hall de gare, etc.15 Pour les quotidiens l'étude déclarative, par téléphone
semble privilégier les titres bénéficiant de la plus forte notoriété.
La plupart des utilisateurs potentiels des résultats de ces études sont assez conscients
de ces difficultés et de ces limites. Ils savent pourtant qu'il n'y a pas vraiment d'alternatives
et moins d'améliorations envisageables, que l'on avait pu l'imaginer au début des années
1990. Chacun pourra se consoler en notant que de tels résultats d'études relèvent de
conventions sur lesquelles il suffit que l'ensemble des opérateurs concernés soient d'accord.
C'est largement le cas pour l'ensemble des professionnels de la presse, chez les régies et les
annonceurs habitués à travailler avec la presse écrite. Les choses peuvent se compliquer
pour les médias planeurs et les annonceurs travaillant surtout avec l'audiovisuel, qui ne
retrouvent pas le sentiment de garantie technique fournie par les audimètres et autres
dispositifs techniques.

HERMÈS 37, 2003 67


Jean-Marie Charon

Il reste surtout que la très grande majorité des titres ne sont pas pris en compte par les
études contrôlées et labellisées par le CESP, alors même que la qualification de la lecture,
du cheminement dans la consultation d'un titre sont bien éloignés d'un chiffre de LDP, d'où
une série de tentatives d'aménager ou compléter le système d'étude «officiel».

Les réponses actuelles aux limites des études d'audience


de la presse

Plusieurs réponses sont aujourd'hui données aux limites des études d'audiences
contrôlées par le CESP. Les premières concernent les titres trop petits pour être pris en
compte. Elles prennent la forme le plus souvent d'enquêtes «ad hoc» auprès de publics cibles,
qui permettent d'estimer l'audience probable des titres. Les méthodes sont plus ou moins
fiables, il n'en reste pas moins que ces études pâtissent d'une image d'études «maison» dans
lesquelles les cabinets d'études seraient dépendants des commanditaires, un éditeur, un titre...
Les «petits titres» peuvent également recourir à l'étude «Sofrès 30 000», étudiant la lecture
de chaque titre souscripteur auprès d'un échantillon de 30 000 personnes de 15 ans et plus.
Les acheteurs d'espace ont toutefois tendance à considérer que celle-ci comporte des
inconvénients assez proches de ceux des études ad hoc (échantillon trop faible concerné pour
un titre donné, etc. ), sans parler, là encore, du problème de l'intervalle de confiance.
Certaines familles de titres peuvent aussi s'organiser afin d'échapper en partie à ce type
de suspicion, telle est l'approche retenue par les éditeurs de presse pour les jeunes16, ainsi
que la principale régie intervenant sur ce marché, Interdéco17. L'étude «Consojunior»,
lancée en 1999 est reproduite tous les deux ans. Elle prend en compte 118 titres lus par les
jeunes (de 2 à 19 ans) et comprend 7200 interviews par questionnaires réalisés en plusieurs
vagues et respectant la représentativité par tranche d'âge. L'enquête comporte elle aussi un
volet en face à face et un volet auto-administré. Elle intègre quatre grands chapitres: la
pratique média (dont la lecture avec les mêmes notions de Lecture Dernière Période et
d'Habitudes de lecture), la consommation, l'environnement socioculturel, l'utilisation de
l'informatique et des jeux vidéo (Charon, 2002). L'effort particulier fait par les éditeurs et
leur volonté de se coordonner sur une telle démarche tient pour une large part à la faible
attractivité de la presse jeune pour les annonceurs, ce qui est un phénomène historique, qui
se voit amplifié par le choix spontané des mêmes annonceurs pour le support télé. Il n'en
reste pas moins que le coût élevé est faiblement compensé par l'apport de nouvelles recettes
publicitaires, alors même que l'espacement de deux années entre deux études, paraît bien
long pour des annonceurs habitués à jongler avec les courbes du médiamat de la veille.

68 HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

Une autre approche consiste à privilégier une catégorie de lecteurs particulièrement


intéressante pour les annonceurs. Telle est la démarche de l'étude «IPSOS Cadres», dite
FCA (France cadres actifs). 5200 cadres (3 800 «affaires et cadres supérieurs» et 1400
«professions intermédiaires») sont interrogés par téléphone à propos de 70 titres. Outre
l'audience proprement dite, l'étude «qualifie» celle-ci de données concernant les pratiques
de consommations du public concerné.
Le souhait de pouvoir mieux appréhender le détail et la qualité de la lecture des titres
de presse débouche sur la déclinaison, sous des formes variées, de la méthodologie des
études « Vu-Lu ». Le principe de base consiste à interroger le public d'un titre sur le détail
du contenu (les titres, les graphiques, les textes, les différentes rubriques) et de tenter de
cerner ce qui a été lu ou simplement vu. Certaines études proposent un barème de notation
selon l'intérêt ou la satisfaction tirée de la lecture de chaque article. La limite à la
sophistication des questionnaires est celle de la lourdeur de l'exploitation de telles
statistiques, sans parler du coût qui en découle. Les études Vu-Lu sont menées pour un titre
donné, épisodiquement, parfois sur plusieurs numéros de suite.

Conclusion

Les études d'audience de la presse pâtissent des caractéristiques particulières du média,


à commencer par le très grand nombre de titres et la diversité des pratiques (parcours) de
lecture possibles. Les résultats des grandes études peuvent ainsi apparaître disproportionnés
au regard des moyens mis en œuvre et de la rusticité des indicateurs produits. Les études
d'audience sont ainsi de peu d'intérêt pour les concepteurs et praticiens du contenu qui y
trouvent peu d'éléments, d'où le développement de méthodes plus spécifiques tels que les
Vu-Lu et surtout depuis les dernières décennies d'approches plus qualitatives, tels que les
«groupes» (Charon, 2003). Pour ce qui est des professionnels de la vente et de l'achat
d'espace publicitaire, la difficulté porte davantage sur l'harmonisation des méthodes entre
les différents médias. Il est clair que, dans ce domaine, les outils d'analyse de l'audience de
la télévision, avec le minute à minute, présentent une supériorité, qui tient au sentiment
d'immédiateté du résultat donné et de suivi de chaque contenu, sans parler d'un sentiment
de «sécurité» lié à l'outil technique lui-même18. Toute la question est de savoir si le
problème de l'atomisation de la presse n'anticipe pas sur l'état que connaîtra
progressivement la télévision avec des dizaines et même des centaines de chaînes accessibles
sur des supports diversifiés (téléviseur, ordinateur via le Net, etc.).

HERMÈS 37, 2003 69


Jean-Marie Charon

NOTES

1. C'est Le Petit Journal, lancé par Moïse Millaud en 1863, qui va développer le premier la vente au numéro, au
prix de un sou. La possibilité est donnée aux lecteurs populaires de payer leur quotidien jour après jour et
non plus d'avancer le prix de l'abonnement, dissuasif. Ce pari, qui impliquait de concevoir tout un réseau de
vente spécifique, constituait l'une des clés de la réussite de la presse populaire naissante, il donnait également
naissance à la notion d'invendu ou de «bouillon», la garantie de satisfaire tous les acheteurs potentiels se
présentant à un vendeur ne pouvant intervenir qu'en prévoyant un nombre d'exemplaires mis à la disposition
de chaque vendeur, légèrement supérieur à sa vente courante. C'est la notion de «réglage». Un taux
d'invendu de 20 % pour un quotidien classique est considéré en presse comme un réglage assez performant.
2. La presse féminine voit ainsi naître en 1920, la version française de Vogue, alors que Le Petit Écho de la Mode
tire un million d'exemplaires en 1922, face au Jardin des Modes, à Minerva (1919), à Êve (1919) ou aux Modes
de la femme de Prance, etc.
3. Le second poste périphérique à vocation nationale, Europe 1, est apparu en 1954, engageant désormais une
concurrence frontale avec Radio Luxembourg, future RTL.
4. Ce sont les éditeurs de la presse magazine qui dirigent l'ΑΕΡΜ, et qui entendent ainsi exploiter les résultats
de celle-ci en fonction des intérêts propres du média. Les publicitaires sont en revanche présents dans les
groupes de travail intervenant dans la conception et le suivi de l'étude elle-même.
5. L'étude «MRI», qui fait référence aux Etats-Unis, utilise un échantillon de 27 500 personnes, apparemment
plus important, mais qui doit être rapporté à 197,5 millions d'Américains de 18 ans et plus, représentant une
population très hétérogène répartie sur un territoire très vaste.
6. L'obsession de limiter les biais, voire certaines pratiques des éditeurs, visant à améliorer leurs scores en jouant
sur les dates des «vagues» ont conduit à recourir à un étalement sur chaque jour de l'année.
7. À l'étranger la plupart des études d'audience de la presse se font par entretiens téléphoniques et tirages
aléatoires. La disponibilité des données INSEE aurait conduit en France à privilégier un échantillon défini par
quotas.
8. Les régies et médias planeurs utilisent également une notion d'audience «primaire» - le «cœur de
l'audience» selon eux - constituée des lecteurs dont le foyer est acheteur du titre.
9. Ce dispositif d'un ordinateur avec un écran tourné vers l'interviewé et un vers l'intervieweur est à la fois récent
(janvier 2001) et inusité ailleurs dans le monde. Il semble qu'il intéresse plusieurs organismes d'étude de
l'audience chez nos voisins européens.
10. En 2002, l'abonnement «de base» de chaque titre se situait à 14000 euros (90000 francs), auquel s'ajoute un
tarif proportionnel au chiffre d'affaires publicitaire (soit un doublement du prix de base pour la plupart des
titres).
11. Dans une note «Interdéco expert», son auteur fait remarquer qu'un titre dont l'audience se situait à
1,385 million, représentait en fait 579 réponses sur 20000 interviewés, soit 2,9% du total. L'intervalle de
confiance permet alors de dire avec certitude que l'audience se situe entre 2,7 et 3,1. Ce qui conduit à situer
l'audience probable entre 1,274 million et 1,496 million de lecteurs.
12. Face à la contrainte de temps la tentation est de renvoyer davantage de sujets dans le volet auto-administré.
Les utilisateurs de l'enquête sont pourtant réticents, vu la distorsion qui en découle, de par des conditions

70 HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

différentes d'administration, mais aussi par un taux de non-réponse et non renvoi qui peut devenir inquiétant,
comme cela se produirait pour l'enquête Euro-PQN obligeant à des redressements parfois importants.
13. Pour la presse quotidienne, le regroupement de titres dans le cadre du « 66-3 » visant à vendre un espace
publicitaire aux normes communes (dans 66 titres, pour trois insertions, moyennant un tarif unique, une seule
négociation commerciale, tout comme une seule facturation, pour l'annonceur) facilite la coordination du
travail pour l'étude Euro-PQN.
14. Un média planeur déclare ainsi: «Le problème de l'audience de la presse, c'est l'inégalité de traitement. On
a 250 titres sur lesquels on sait presque tout grâce à l'ΑΕΡΜ, FCA, l'OJD, qui sont contrôlés... et
3/4 000 titres pour lesquels on ne sait rien de fiable, sérieux, etc. »
15. L'enquête recueille d'ailleurs ces indications de provenances diverses des exemplaires lus ou consultés.
16. Il existe également une étude Agrimédia, concernant la lecture des exploitants agricoles, Cessim pour les
milieux médicaux, etc.
17. Régie publicitaire filiale du groupe Hachette Filipacchi Média, qui assure la régie de Bayard presse, de
Excelsior (Sciences & Vie junior, Sciences & Vie Découverte) ainsi que quelques-uns des titres Disney
Hachette.
18. Il est significatif à cet égard qu'un projet ait été avancé, il y a quelques années, qui proposait de substituer aux
méthodologies déclaratives actuelles, l'équipement d'un échantillon de la population de lecteurs de codes
barres, prenant la forme de montres, qui auraient enregistré au fur et à mesure la lecture des journaux, avec
l'inconvénient pour les membres de l'échantillon de devoir faire lire le code barre de chaque titre lu, lors de
chaque prise en main...

RÉFÉRENCES BIBLIOGRAPHIQUES

AEPM, l'Audience de la presse magazine, Paris, décembre 2001.


BELLANGER, C , et al. Histoire générale de la presse française, t. 3 et 4, Paris, PUF, 1972 et 1975.
CHARON, J.-M,, Les Médias en France, Paris, La Découverte, 2003.
CHARON, J.-M., La Presse des jeunes, Paris, La Découverte, 2002.
KERMOAL, F , Mieux connaître ses lecteurs. Les méthodes d'analyse du lectorat et des supports, Paris, Éditions du
CFPJ, 1994.
LE FLOCH, P., SONNAC, N . , Économie de la presse, Paris, La Découverte, 2000.
LENAIN, B., L'Efficacité de la publicité dans la presse, mémoire ESCP, Paris, 1995.

HERMES 37, 2003 71


Marie-Dominique Chevreux
Radio France

LA RADIO PIONNIERE

La radio est un média en bonne santé, en phase avec le style de vie des Français. Chaque
jour, plus de 40 millions de personnes ouvrent leur poste de radio et le laissent allumé plus
de trois heures en moyenne. En dix ans, la radio a gagné cinq millions d'auditeurs.
L'équipement des foyers montre bien l'importance de ce média dans la vie quotidienne
puisqu'on trouve un peu plus de six postes de radio par foyer, autoradio inclus, et que cet
équipement est de plus en plus sophistiqué avec un nombre croissant de postes équipés de
système de pré-programmation, de télécommande et du RDS.
L'offre à disposition des auditeurs est riche puisqu'on recense plus de 1300 stations de
radio en France. Dans les plus grandes agglomérations, c'est en moyenne une soixantaine
de stations qui peuvent être captées. Si la partie la plus jeune de la population consacre la
majorité de son écoute aux programmes musicaux et la partie la plus âgée aux programmes
généralistes, le reste de la population est plus éclectique dans ses choix et navigue entre les
différents formats proposés.
La mobilité croissante des individus ne les empêche pas de suivre leurs émissions
préférées, une part importante de l'écoute se fait en voiture (23 %) et au travail (17 % ) .

La mesure de l'audience de la radio est une histoire


ancienne

La radio est dans un univers concurrentiel depuis très longtemps. Déjà, entre 1923 et
1945, il y a eu coexistence d'un secteur privé et d'un secteur public. Au cours de la période
de monopole de l'Etat qui a suivi, de 1945 à 1982, des stations émettant depuis l'étranger

HERMÈS 37, 2003 73


Marie-Dominique Chevreux

pouvaient être entendues. La plus ancienne était Radio Luxembourg rejointe par Europe
n° 1 et plus tardivement par Radio Monte-Carlo, lorsque celle-ci, appartenant pour moitié
à l'Etat français, a bénéficié de l'émetteur grandes ondes de Roumoules.
Cette situation originale de la radio a entraîné très vite le besoin de mesurer l'audience.
La première enquête périodique a été réalisée en 1949 par l'IFOP-ETMAR à
l'intention des stations et des publicitaires (ce n'est qu'en 1961 que ces enquêtes ont été
étendues à la télévision). Le Centre d'étude des supports de publicité (CESP) a pris sa
succession en 1968 et, pendant un peu plus de vingt ans, a interrogé chaque année 12 à
14 000 personnes réparties en trois ou quatre vagues. Parallèlement le service des études
d'opinion de l'ORTF est devenu, après la loi du 7 août 1974, le Centre d'études d'opinion
(CEO), organisme rattaché au Service juridique et technique de l'information (SJTI). Le
CEO avait pour mission de fournir aux pouvoirs publics la mesure de l'audience de chacune
des sociétés de programme issues de l'éclatement de l'ORTF et d'évaluer la qualité de leurs
programmes, ces données devant servir pour la répartition de la redevance. Les annonceurs
n'avaient pas accès aux résultats, en revanche, le CEO avait l'autorisation de les vendre aux
stations de radio privées. Le CESP et le CEO n'utilisaient pas la même méthodologie,
entretiens en face à face au domicile de l'interviewé pour le CESP et panel postal pour le
CEO, et obtenaient des résultats divergents. En 1983, pour des raisons à la fois politiques
et techniques, la tutelle décida de transformer le CEO en une société «dont le capital serait
majoritairement détenu par l'Etat et les sociétés du secteur public audiovisuel» avec une
participation minoritaire des partenaires privés. Ce fut la création de Médiamétrie en 1985.
La méthodologie de l'étude évolua, le panel fut remplacé par une enquête téléphonique
quotidienne et les résultats furent commercialisés. Depuis cette date, Médiamétrie est
l'organisme de référence des acteurs du marché radiophonique (stations de radio,
annonceurs, agences...) et également des autres médias à l'exception de la presse. Ses outils
évoluent et s'enrichissent selon les besoins de ces marchés.

Une connaissance du public évaluée avec des outils


complémentaires

L'enquête 75 000+· de Médiamétrie mesure l'audience des stations nationales et sert de


socle à la mesure d'audience des stations locales.
Un panel, réalisé chaque année depuis 1995 par le même institut, complète et affine la
connaissance des publics en montrant l'aspect dynamique de l'écoute et en permettant
d'apprécier la fidélité des auditeurs.

74 HERMÈS 37 , 2003
La radio pionnière

L'enquête 75000+ a subi de nombreuses évolutions en un peu plus de quinze ans, mais
ses principes de base sont restés les mêmes. Elle doit son nom au nombre d'interviews
annuelles et repose sur du déclaratif c'est-à-dire qu'elle fait appel à la mémoire des personnes
interrogées. Elle est réalisée par téléphone, chaque jour de septembre à juin entre 17 h30 et
21h30. L'échantillon est sélectionné par tirage au sort dans les annuaires, avec une procédure
pour atteindre les foyers inscrits en «liste rouge», la méthode des quotas est ensuite appliquée.
L'interrogation porte sur l'écoute des 24 dernières heures depuis janvier 1999. Auparavant,
elle portait sur l'écoute de la veille de l'interview, le but de cette modification étant de faciliter
le travail de mémorisation. L'écoute est recueillie avec une précision au demi-quart d'heure et
donne des résultats sur une journée moyenne de semaine (lundi-vendredi), sur le samedi et sur
le dimanche. L'enquête «75 000» va indiquer un volume d'audience, un nombre d'auditeurs
sur une journée, par tranche horaire et va nous dire quelles catégories de la population sont
présentes. Elle va permettre de se situer par rapport à la concurrence, de voir les évolutions et
de mesurer si les émissions mises en place séduisent suffisamment de personnes.

Le panel consiste dans l'interrogation pendant trois semaines, une fois par an, d'un
même échantillon qui remplit quotidiennement un carnet d'écoute. Il offre la possibilité de
déterminer des auditoires sur une période plus longue que la journée. On peut définir un
auditoire-semaine, un auditoire-trois semaines (couverture), connaître l'audience des
différents jours de la semaine etc. Il permet de comprendre comment se construit l'audience
telle qu'on l'observe dans la 75 000+, de suivre les transferts et les duplications d'écoute. Le
panel permet de définir des cibles comportementales, par exemple les auditeurs fidèles de la
tranche d'information d'une station ou les occasionnels d'un programme culturel et de voir
leurs modalités d'écoute. Autant de renseignements riches et utiles pour les directions de
chaîne principalement utilisés dans un but d'aide à l'optimisation des grilles de programme.

On peut schématiser en disant que l'enquête 75 000+, de nature transversale, propose


une photographie de l'auditoire alors que le panel montre un film. Les deux études seront
utilisées de façon complémentaire.

Des indicateurs pour préciser les différents


comportements d'audience

Avec ces deux études, le marché dispose d'une panoplie d'indicateurs pour
appréhender toutes les facettes de l'audience. Mais comment définir l'audience? Est-ce un

HERMÈS 37, 2003 75


Marie-Dominique Chevreux

nombre d'auditeurs, un temps passé à l'écoute, une certaine fidélité ? Il existe de multiples
réponses et l'on privilégiera certains indicateurs selon l'axe sur lequel on se placera. Ces
indicateurs peuvent être répartis en deux familles :
- ceux qui comptabilisent les individus ;
- ceux qui comptabilisent des comportements.
Dans la première famille, on trouve l'audience cumulée au cours d'une journée,
mesurée dans l'enquête «transversale» et les couvertures et accumulations que permet
l'enquête par panel. Chaque individu a le même poids quelle que soit sa durée d'écoute dans
le cas de l'audience cumulée ou sa fréquence d'écoute dans le cas de la couverture. Dans
cette première famille, on mesure des auditoires.
Dans la deuxième famille, il s'agit de l'audience du quart d'heure moyen, du volume
d'écoute. Les individus sont pondérés par leur durée d'écoute ou leur fréquence d'écoute
et ce sont essentiellement des audiences qui sont mesurées, c'est-à-dire des «auditeurs x
quarts d'heure». Ce sont ces indicateurs qui se traduisent aussi en parts de marché ou parts
d'audience.
Selon les objectifs à atteindre, l'attention se portera sur l'un et/ou l'autre des
indicateurs : en ce qui concerne les auditoires, pour certaines stations, il est primordial de
rencontrer quotidiennement un public important. Pour accroître leur auditoire, leur
stratégie consistera à fidéliser les auditeurs d'un jour à l'autre, à augmenter donc leur
fréquence d'écoute. En revanche, pour d'autres stations, la couverture sur une période plus
longue donnera une évaluation plus exacte de leur impact et leur objectif peut être d'avoir
une couverture maximale sur une période donnée quitte à avoir de nombreux auditeurs
«régulièrement» occasionnels, écoutant une fois ou deux par semaine.
De même, on n'accordera pas la même importance à la durée d'écoute selon les
stations. Il est normal que des programmes qui engendrent un fort renouvellement du
public aient une durée d'écoute plus faible que celle des radios généralistes pour lesquelles
c'est un indicateur essentiel.
L'indicateur du quart d'heure moyen intègre à la fois le nombre d'auditeurs et le temps
passé à l'écoute. C'est un indicateur majeur pour la commercialisation des espaces
publicitaires. Il sert également à calculer la part d'audience et permet de se situer
différemment par rapport à la concurrence.
La richesse des différents indicateurs permet de mieux évaluer l'adéquation entre les
publics dans la diversité de leur nature et de leur demande, et la variété des offres
radiophoniques commerciales ou de service public.

Prenons l'exemple de deux stations de Radio France :

76 HERMES 37, 2003


La radio pionnière

Couverture Audience cumulée Nombre de jours Durée d'écoute


3 semaines d'une journée d'écoute d'une journée
(en 3 semaines)
France Inter 24,3 % 11,9% 10,3 j 2h02
France Culture 8,6% 1,3% 3,2 j lh25
Source: Médiamétrie panel 2001/2002

On observe que les ordres de grandeur et les rapports entre les indicateurs sont
différents pour les deux stations.
France Inter obtient une couverture élevée associée à une fidélité importante à la fois
au cours d'une journée (durée d'écoute) et d'un jour à l'autre (fréquence d'écoute).
France Culture multiplie son audience cumulée sur une journée par 6,6 en trois
semaines grâce aux nombreux auditeurs qui viennent de façon ponctuelle pour un type
d'émission précis.
Des polémiques reviennent régulièrement notamment sur l'évolution du média ou sur
le classement des stations qui pourraient laisser penser à une grande pauvreté dans la
qualification de l'audience. Il n'en est rien et il existe d'autres indicateurs que l'audience
cumulée et la part d'audience.

Les publics de la radio

Média de masse, la radio concerne toutes les catégories de la population ; le facteur le


plus discriminant, que ce soit dans la manière de consommer la radio ou dans le choix des
programmes, est l'âge. L'audience des moins de 35 ans se constitue avec une pénétration
forte (90% pour les 13-34 ans) et un temps passé à l'écoute proportionnellement court
(2h50 un jour moyen), alors que le phénomène est inverse pour les plus de 60 ans (76 % de
pénétration et 3 h30 de durée d'écoute). Les plus jeunes constituent majoritairement le
public de la radio en soirée.
Dans ce contexte, l'âge auquel débute la mesure de l'audience est un enjeu économique
important et a fait l'objet de nombreuses discussions au cours des dernières années. Les
études d'audience radio ont, depuis leur début, pris en compte les auditeurs à partir de
15 ans. Désormais c'est la population de plus de 13 ans qui est sondée, suite à une décision
commune des acteurs du marché, afin de mieux prendre en compte la réalité.

HERMES 37, 2003 11


Marie-Dominique Chevreux

Les autres cibles utilisées pour l'analyse des données sont, comme pour les autres
médias, les catégories socio-démographiques classiques : profession, habitat, région, etc. Si
elles sont encore efficaces vis-à-vis des annonceurs et, le sont-elles vraiment, elles sont peu
adaptées à la réalité pour les concepteurs de programmes et, en tout cas, insuffisantes.
Considérer l'audience «des cadres» revient à supposer que cette cible représente une
population homogène, ayant peu ou prou les mêmes comportements, les mêmes besoins et
les mêmes attentes. C'est avoir une vision stéréotypée de la société et aller à l'encontre de
l'évolution des modes de vie. Ces catégories ont pour seul avantage d'être simples à
comptabiliser mais elles perpétuent des clichés, par exemple l'opposition hommes/femmes.
Des cibles de nature plus qualitatives, reflétant mieux les valeurs et les courants
porteurs du monde d'aujourd'hui, seraient plus pertinentes. Mais leur constitution nécessite
un processus plus complexe de recueil d'information et une actualisation régulière.

Le rythme de sorties des résultats

Bien que l'interrogation soit quotidienne, les responsables de programmes ne


disposent de résultats que quatre fois par an sur les périodes janvier-mars, avril-juin,
septembre-octobre et novembre-décembre, et encore ne s'agit-il que des radios
nationales. La situation est pire pour les stations locales, la majorité d'entre-elles ne
pouvant compter sur des résultats qu'une fois par an. On est ainsi bien loin de la situation
de la télévision ! Cette exploitation est justifiée par le temps qui rythme le média. Les
grilles de programme vivent sur un temps annuel, une saison radiophonique allant de
septembre à juin avec des émissions différentes proposées durant l'été. Mais ce rythme de
sorties laisse dans l'ignorance des phénomènes importants comme les périodes de
vacances scolaires, les «ponts» et jours fériés, les périodes d'actualité très spécifique
(événements sportifs, politiques...) qui sont ainsi diluées dans la moyenne. Cela devient
d'autant plus problématique que l'instauration des 35 heures, entre autres phénomènes, a
modifié profondément le rapport au temps et la façon de prendre des congés ou de gérer
sa semaine, ce qui n'est pas sans influence sur l'écoute de la radio, très liée aux activités
de la journée. Tout comme les résultats portent, en semaine, sur un jour moyen car les
grilles sont historiquement identiques du lundi au vendredi, alors que le samedi et le
dimanche ont leur programme propre. Certaines stations comme France Culture ou
France Musiques ne rentrent pas dans ce schéma. Fonctionnant avec des grilles verticales,
elles ne peuvent connaître leur profil jour par jour que grâce au panel, c'est-à-dire une fois
par an.

78 HERMÈS 37, 2003


La radio pionnière

Les limites actuelles de la mesure de l'audience

Les supports sur lesquels on écoute la radio ont beaucoup évolué. On peut maintenant
suivre son émission préférée sur Internet, écouter un programme, disponible ou non par
voie hertzienne, via la télévision par le câble ou le satellite, ou écouter les flashs
d'information sur son téléphone mobile. Ces pratiques sont encore limitées mais cependant
en croissance régulière. On ignore d'ailleurs si ces nouveaux modes d'écoute sont
complètement assimilés à de la radio dans la tête des auditeurs et si les interviewés de
l'enquête 75 000 pensent à l'inclure dans ce qu'ils déclarent écouter.
Les mesures d'audience spécifiques d'Internet ne savent pas prendre en compte
correctement le flux audio. L'écoute de la radio par le canal de la télévision va pouvoir être
appréhendée par le Médiamat maintenant que les foyers équipés en numérique sont intégrés
dans le panel. On pourra ainsi avoir une idée du volume de cette audience, mais il sera
difficile de recueillir des informations plus précises.

Comment se profile l'avenir de la mesure de l'audience


de la radio ?

La mesure passive de l'audience de la radio, à l'instar de celle fournie par l'audimétrie


pour la télévision, est à l'ordre du jour. Elle existe déjà en Suisse et est expérimentée dans
d'autres pays. Son principe repose sur la comparaison entre, d'une part, les données d'écoute
recueillies par l'intermédiaire d'une montre ou d'un boîtier qui enregistrent, compressent et
stockent les sons ambiants, donc la radio, quelques secondes par minute et, d'autre part, le
contenu des stations de radio. Quand il y a concordance entre les données de la montre ou
du boîtier et le contenu d'une station X, l'audience sera affectée à cette radio X.
La différence majeure entre les deux systèmes actuellement développés concerne
l'identification des stations. Dans un cas, les radios sont identifiées par un code qu'elles
envoient dans leur programme, code inaudible pour l'auditeur bien évidemment, dans
l'autre cas, l'ensemble des stations de radio est enregistré.
Pour des raisons pratiques et économiques, les audimètres ne peuvent pas être
distribués chaque jour à un échantillon différent. La mesure doit être effectuée auprès d'un
panel d'une durée plus ou moins longue, dépendante notamment des techniques de
transmission des données pour le traitement. Dans un des systèmes, la capacité mémoire de
la puce dans laquelle les données sont stockées est actuellement d'environ quinze jours.

HERMÈS 37, 2003 79


Marie-Dominique Chevreux

Les avantages de ces méthodes sont importants :


- l'exhaustivité, toutes les écoutes sont prises en compte quels que soient le lieu et le
support (à l'exception du walkman paradoxalement). On devrait même pouvoir préciser sur
quel canal de diffusion l'auditeur a écouté, poste recevant la FM, Internet, câble ou satellite
(ex. le son passant par le satellite arrive avec un peu de retard) ;
- l'exactitude de l'identification des stations et des heures d'écoute ;
- la précision de la mesure, l'audience est recueillie seconde par seconde.
Mais, cependant, elles ne résolvent pas tout et présentent aussi des inconvénients et des
difficultés d'application.
Bien que passives, ces méthodes nécessitent quand même une intervention humaine
essentielle, porter la montre ou le boîtier tout au long de la journée et notamment dès le
réveil, moment de prime time de la radio. Cette contrainte, alliée à une crainte éventuelle sur
la protection de sa vie privée (bien que les sons enregistrés et aussitôt compressés ne
puissent pas être reconstitués), peut engendrer des difficultés dans le recrutement de
l'échantillon et donc entacher sa représentativité.
Ces méthodes d'enregistrement automatique ne faisant plus appel à la mémoire mais
prenant en compte absolument toutes les expositions au média, la fameuse problématique
du «entendre ou écouter» va resurgir. Quand vous êtes sur un quai de gare sonorisée par
une radio et que vous êtes plongé dans votre livre ou votre journal, avez-vous entendu
quelque chose, êtes-vous réellement un auditeur ?
En allant plus loin, certains modes de diffusion vont poser le problème de la définition
de l'audience radio. Ainsi, il est possible de consulter en différé sur Internet des chroniques
ou des émissions diffusées sur l'antenne. On peut soit les écouter au moment qui vous
convient soit les lire. Comment mesurer ce phénomène, suffira-t-il qu'un fichier soit
téléchargé ou ouvert ? Beaucoup de questions sur lesquelles se pencher. Le phénomène est
marginal pour le moment mais le restera-t-il ?
L'évolution des pratiques d'écoute rend plus complexe la mesure de l'audience. Les
professionnels de la radio se doivent d'être de plus en plus attentifs à la qualité et à la
précision de l'enquête.

80 HERMES 37, 2003


Régine Chaniac
Institut national de l'audiovisuel (Ina)

TÉLÉVISION :
L'ADOPTION LABORIEUSE
D'UNE RÉFÉRENCE UNIQUE

L'histoire de la mesure d'audience à la télévision est indissociable des principales


évolutions qui ont transformé ce média et affecté le fonctionnement des chaînes de
télévision entendu au sens le plus large. Le progrès des méthodes et des techniques, permis
à la fois par le développement des enquêtes par sondage et l'essor de l'informatique,
n'explique à lui seul, ni l'importance croissante prise par les données d'audience, ni
l'évolution des indicateurs les plus couramment utilisés. Les différentes étapes qui ont mené
d'une télévision publique en situation de monopole à un système mixte public/privé
caractérisé par la concurrence sur le marché publicitaire ont fortement pesé. Avec la
domination du modèle commercial, la mesure d'audience est devenue l'instrument central
de régulation des chaînes de télévision généralistes.
Contrairement à celui d'autres médias (la presse, le cinéma), l'auditoire de la radio et
de la télévision ne peut être appréhendé à partir d'un comptage physique (nombre
d'exemplaires ou de billets vendus). Pour évaluer l'audience et, plus largement, pour
appréhender les habitudes d'écoute du public et ses opinions sur les programmes diffusés,
la technique du sondage s'est donc rapidement imposée. Dès 1949, la radio, vivant déjà sous
le règne de la concurrence entre service public et stations périphériques, s'est dotée d'un
système régulier d'enquêtes financé par la RTF, les principales stations commerciales d'alors
et les agences publicitaires les plus importantes. En ce qui concerne la télévision,
l'installation d'un outil permanent a été précédée de toute une période où les études et
sondages ne fournissaient pas un taux d'audience normalisé, mais plutôt des informations
sur le public, sur ses comportements et ses attitudes par rapport au nouveau média.

HERMÈS 37, 2003 81


Régine Chaniac

Les années de développement

Durant les années 1950 et une bonne partie des années 1960, la demande des
responsables de la télévision en matière d'audience n'est pas assez importante pour justifier
l'installation d'un système coûteux de mesure: l'offre de programmes, limitée à quelques
heures par jour, est volontariste, reposant sur un équilibre entre les genres relevant d'une
ambition culturelle et informative et ceux relevant du divertissement. La concurrence entre
chaînes n'existe pas, la publicité est absente et le public, qui augmente chaque jour, plébiscite
les émissions proposées. La montée de l'équipement, rigoureusement enregistrée par le service
de la redevance, est une des premières statistiques régulières qui indique à elle seule la forte
popularité du média: on passe de 6 % de foyers équipés en 1957 à 62 % en 19681 ! Entre 1961
et 1967, un million de nouveaux comptes de redevance sont ouverts chaque année.
La curiosité vis-à-vis de ce nouveau public existe et se traduit par un certain nombre
d'enquêtes assez nombreuses et diverses, qui ne constituent pas un instrument permanent
et systématique de suivi d'audience. Des sondages ponctuels sont confiés à des organismes
extérieurs pour mieux connaître les caractéristiques démographiques et socio-
professionnelles des foyers équipés (INSEE, COFREMCA, etc.). Les enquêtes régulières
mises en place pour la radio, et réalisées par l'IFOP-ETMAR pendant deux périodes d'une
semaine par an, s'élargissent à partir de 1962 pour fournir les habitudes d'écoute des
téléspectateurs (courbes d'écoute moyenne par jour).
Le service des relations avec les auditeurs et les téléspectateurs de la RTF, dont l'activité
est essentiellement tournée vers le traitement et l'analyse du courrier reçu spontanément,
commandite et exploite ces études. Il gère également, à partir de 1954, un système quotidien
d'interrogation par téléphone. Ce dispositif s'appuie sur un échantillon très faible (une
centaine de personnes chaque soir), limité à la seule région parisienne et non représentatif
de la population disposant d'un téléviseur (la population française est encore sous-équipée
en téléphone). Plutôt qu'un instrument de sondage fiable, c'est un moyen d'établir un
« dialogue presque immédiat »2 et continu avec le public, en recueillant à chaud les réactions
de téléspectateurs au programme principal de la soirée. Il traduit aussi l'aspiration de Jean
Oulif, responsable du service, de s'inspirer de l'exemple de la BBC déjà dotée depuis 1952
d'un sondage quotidien sur l'écoute de la télévision3.

Le panel postal

Il lui faudra attendre 1967 pour avoir les moyens de mettre en place un dispositif
permanent et fiable, capable de fournir des résultats par émission. La méthode adoptée par

82 HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

l'ORTF est celle du panel, qui consiste à conserver le même échantillon pendant un certain
laps de temps, plus économique que le recrutement d'un nouvel échantillon chaque jour. Le
panel, recruté selon la méthode des quotas, est représentatif de la population équipée en
télévision âgée de 15 ans et plus (de 400 personnes à l'origine, il culmine à 1600 en 1972),
réparti sur l'ensemble du territoire et renouvelé par moitié chaque semaine. Chaque personne
recrutée remplit un carnet d'écoute pendant deux semaines, indiquant les émissions regardées
(en entier ou en partie) et leur accordant une note d'intérêt. Le traitement des feuilles
d'écoute, renvoyées par la poste chaque jour, permet de calculer un taux d'écoute et un indice
de satisfaction pour chaque émission, dans un délai d'une huitaine de jours après la diffusion.
L'indice d'audience utilisé alors est un composite puisqu'il rajoute au pourcentage de
téléspectateurs ayant vu l'émission en entier la moitié de ceux qui l'ont vu en partie4. Ce mode
de calcul, qui permettait de prendre en compte approximativement l'auditoire partiel d'une
émission, met bien en évidence le caractère construit de tout indicateur d'audience.
Les résultats du panel postal sont strictement confidentiels et réservés à un petit
nombre de responsables de l'ORTF. Les rares résultats qui paraissent dans la presse sont
généralement délivrés par les responsables des chaînes à des fins de communication. Michel
Souchon fait remarquer que l'outil est destiné à éclairer une politique de programmes qui
demeure encore volontariste et compare ses utilisateurs de l'époque à Talleyrand qui
considérait que «l'opinion est un contrôle utile et un guide dangereux» 5 . Pourtant, certains
professionnels accordent très vite une grande attention aux chiffres d'audience pour évaluer
l'impact de leurs émissions, comme le raconte Etienne Mougeotte, disant de Pierre
Desgraupes, directeur de l'information de la première chaîne de fin 1969 à juillet 1972, «il
m'a aussi appris l'audience» 6 .
Mais l'effet le plus important de l'introduction du panel postal n'est pas encore dans
l'instauration d'une concurrence entre chaînes. Il réside dans la profonde désillusion
entraînée par la comparaison des résultats soir après soir. Avec la création de la deuxième
chaîne en 1964 et l'ouverture du choix qui en a résulté, avec l'enrichissement de l'offre
propre à ces années d'expansion, le public montre clairement sa préférence pour les jeux,
les sports, les variétés et les feuilletons7. Les responsables de l'Office peuvent maintenir un
équilibre entre programmes culturels et programmes de divertissement, mais les grandes
espérances pédagogiques sont déçues.

Deux systèmes parallèles de mesure d'audience

Un an après l'installation du panel postal, en octobre 1968, la publicité de marques est


introduite à la télévision, uniquement sur la première chaîne. Cela conduit à l'installation
d'une seconde mesure d'audience répondant aux besoins de la profession publicitaire.

HERMÈS 37, 2003 83


Régine Chaniac

Le Centre d'étude des supports de publicité (CESP), créé en 1957 pour mesurer
l'audience de la presse, reprend à partir de 1968 les enquêtes par vagues menées auparavant
par l'IFOP-ETMAR pour la radio, interrogeant 12 000 individus par an sur leur écoute de
la radio et de la télévision. Chaque vague (de deux à quatre par an) fournit quart d'heure
par quart d'heure les courbes d'écoute des différentes chaînes. Les résultats sont utilisés,
non seulement par les annonceurs et les agences de publicité, mais aussi par la Régie
française de publicité, organisme public filiale de l'ORTF chargée de commercialiser les
écrans de la télévision publique. Dans la mesure où les résultats du panel de l'ORTF ne sont
communiqués qu'aux responsables de chaînes et aux pouvoirs publics, ce sont en effet les
chiffres du CESP qui servent de référence pour la tarification des écrans.
Deux systèmes parallèles vont ainsi coexister jusqu'en 1989, l'un réservé aux chaînes et
l'autre s'adressant à tous les acteurs du marché.
Il peut paraître paradoxal que les différents partenaires du marché publicitaire aient
disposé pendant une bonne vingtaine d'années de données plus frustres que celles fournies
par le panel postal. Le dispositif du sondage par vague ne permettait notamment pas d'avoir
des résultats émission par émission, soir par soir, sur l'année entière. Les résultats étaient
moyennes par jour «nommé». Les chaînes avaient d'ailleurs tendance à programmer leurs
événements exceptionnels pendant les périodes de sondage, pour infléchir les résultats en
leur faveur. Si les publicitaires se sont contentés de cette information pendant si longtemps,
c'est parce que les écrans étaient strictement contingentés et que leur nombre était très
inférieur à la demande. La Régie française de publicité profitait de cette situation de pénurie
pour «gérer la file d'attente» et imposer ses conditions : elle vendait en fin d'année tous les
écrans de l'année suivante, à un tarif uniforme selon les jours. Les annonceurs achetaient à
l'aveugle, sans connaître le contexte de programmation exact et sans choisir la date de
diffusion. Les chiffres du CESP leur suffisaient pour minimiser les risques en leur donnant
l'audience moyenne de la chaîne sur le créneau horaire demandé.

La montée de la concurrence dans le service public

Le début des années 1970 voit s'installer une certaine compétition entre les deux
chaînes existantes. En 1971, la seconde s'ouvre à son tour à la publicité. En juillet 1972, les
deux chaînes deviennent des régies distinctes au sein de l'ORTF, placées sous la
responsabilité d'un directeur et ayant une certaine autonomie de fonctionnement. Leurs
directeurs respectifs, Jacqueline Baudrier et Pierre Sabbagh, vont chacun s'attacher à leur
donner une identité propre, une unité. Pierre Sabbagh reçoit clairement mandat

84 HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

d'augmenter l'audience de la seconde chaîne (limitée les premières années par un réseau
d'émetteurs incomplet) pour se rapprocher de la chaîne aînée, et cela au moment où
s'annonce la troisième chaîne. Les chiffres fournis chaque semaine par le panel permettent
à leurs responsables de comparer les résultats des deux rivales, surtout pour le programme
principal offert en première partie de soirée. Progressivement, la réussite des dirigeants de
chaîne s'exprimera de plus en plus en termes d'audience.
Prévus par la loi d'août 1974, l'éclatement de l'ORTF et la création de sociétés de
programmes indépendantes, institutionnalise à partir de 1975 la concurrence au sein du
service public. TFl et Antenne 2 ont chacune leur régie de publicité, filiale de la RFP, et
négocient séparément avec les annonceurs ; la Loi de finances fixe chaque année le montant
maximum de recettes pour l'une et l'autre, le total étant plafonné à 25 % des ressources
globales de la télévision. Le service qui gérait à l'ORTF le panel postal, ainsi que l'ensemble
des études complémentaires (quantitatives ou qualitatives) portant sur le public, devient le
Centre des études d'opinion (CEO), rattaché aux services du Premier ministre. Le panel
postal perdure à quelques évolutions près (intégration de la radio, augmentation progressive
de la durée de panélisation, etc.). Parallèlement, les résultats du CESP, qui apportent un
baromètre sur l'état de santé respectif des chaînes selon les tranches horaires, font l'objet
d'une attention croissante au sein des chaînes. En effet, la RFP ne joue plus le rôle de boîte
noire et chaque chaîne est dans une situation de dépendance nouvelle vis-à-vis des
annonceurs, et cela par rapport aux chiffres qui ont vigueur sur le marché.

L'audimétrie foyer

À partir de janvier 1982, l'audimétrie, déjà présente dans de nombreux pays d'Europe
(ITV l'a adoptée dès les années 1960), s'installe en France avec un panel d'audimètres
mesurant de façon passive l'écoute de 600 foyers (poste allumé, chaîne regardée). Ce nouvel
outil, baptisé Audimat en France, enregistre les changements d'état du récepteur à la
seconde près, mais ne distingue pas l'écoute des différents individus au sein du foyer. C'est
pourquoi le panel postal est maintenu pendant trois ans encore pour fournir des résultats
par individu.
En fait, l'audimétrie représente une telle révolution au sein des chaînes que celles-ci se
désintéressent progressivement du panel postal. Chaque chaîne, chaque régie est connectée
à l'ordinateur central qui recueille et traite dans la nuit les données stockées par les
audimètres. Les responsables disposent le matin des résultats de la veille, avec les taux
d'audience moyenne et cumulée de chaque émission, et plus encore, la courbe d'audience
globale et par chaîne, indiquant les arrivées et les départs des téléspectateurs, les reports
d'une chaîne à l'autre. La rapidité, la précision s'accompagnent d'un degré de fiabilité

HERMÈS 37, 2003 83


Régine Chaniac

inconnu jusqu'alors (on mesure le fonctionnement effectif du téléviseur, en neutralisant les


erreurs liées au recours à la mémoire et au déclaratif) et de la richesse d'une représentation
graphique qui permet d'un coup d'œil d'évaluer la performance d'une programmation.
Pour Michel Demaison, alors responsable du service des sondages à Antenne 2,
l'audimétrie a changé «les rapports entre la télévision et son public» 8 . Auparavant, les
résultats du panel représentaient «un regard sur le passé», arrivant après tout un ensemble
de réactions, comme celles de la critique, des pairs et des téléspectateurs qui s'exprimaient
spontanément par téléphone ou par courrier, dont ils n'effaçaient jamais totalement
l'impact. Avec l'Audimat, le verdict du public est intégré dans «le présent de la télévision»
et prend le pas sur toutes les autres instances de jugement.
La fascination pour le nouvel outil est partagée par les publicitaires qui revendiquent
l'accès aux résultats. Alors que le panel postal n'était pas assez précis pour fournir
l'audience des écrans. Audimat est tout à fait performant pour une mesure précise au niveau
du foyer. Mais les chaînes et leurs régies craignent de partager des informations aussi
stratégiques avec les agences et les annonceurs et bloquent les tentatives répétées de
négociation9.

L'arrivée des chaînes commerciales

La loi du 29 juillet 1982 supprime le monopole du service public en matière de


programmation, en prévoyant la possibilité de créer des chaînes hertziennes selon un régime
d'autorisation préalable ou de concession de service public. Elle supprime également le
plafonnement des recettes publicitaires pour les chaînes publiques et introduit la publicité
sur FR3. Après le démarrage du plan câble dès novembre 1982 et, deux ans après, de la
chaîne payante Canal Plus, François Mitterrand annonce la création de deux chaînes
privées, qui commencent à émettre au printemps 1986, sous le nom de La Cinq et TM6.

La création de Médiamétrie

Dans ce contexte de libéralisation, Georges Fillioud, secrétaire d'Etat chargé de la


Communication, entreprend de sortir le CEO de son statut administratif afin de lui
permettre de devenir un interlocuteur pour l'ensemble du marché. En juin 1985, une société
de droit privé, Médiamétrie, dont le capital est détenu à 80 % par l'État (à travers l'ΙΝΑ, les
trois chaînes publiques, la RFP, Radio-France) et les radios dites périphériques Europe 1 et

86 HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

RMC, voit le jour. Pour la première fois, les données d'audience calculées pour les diffuseurs
peuvent être commercialisées auprès de la profession publicitaire, même si l'AACP,
l'Association des agences-conseils en publicité, refusera dans un premier temps tout
dialogue avec cette société contrôlée par les diffuseurs publics.
Médiamétrie abandonne le panel postal, augmente le nombre d'audimètres à 1 000 et
crée l'enquête téléphonique 55000 10 pour suivre l'audience de la radio et fournir, en
moyenne mensuelle, l'écoute individuelle de la télévision. Audimat plus, créé en 1986,
calculait une audience-individu probable 11 pour chaque émission, en appariant les résultats-
foyers par émission de l'Audimat et les résultats-individus de la 55 000 par quart d'heure
moyen. L'utilisation pendant plusieurs années, par une grande partie de la profession, des
chiffres purement hypothétiques de l'Audimat plus illustre encore à quel point la mesure
d'audience n'est qu'une construction statistique faisant un temps donné l'objet d'un
consensus.
De l'autre côté, soutenu par l'AACP, un concurrent entre en jeu : le tandem Sofrès-
Nielsen, qui propose lui aussi une fusion entre les données-foyer d'un panel de
200 audimètres installés en région parisienne et des données-individu issues d'un panel de
300 minitels sur la France entière. Certaines agences publicitaires s'abonnent à ce système
moins coûteux que le précédent, de même que Canal Plus, qui a des besoins particuliers
en mesure d'audience et peut suivre un échantillon de ses abonnés à partir du panel
télématique.

La privatisation de TFl

La décision de privatiser TFl, proposée par François Léotard et votée le 30 septembre


1986 par la nouvelle assemblée, prend effet en avril de l'année suivante, avec l'attribution
de la chaîne à un groupe d'acquéreurs conduit par la société Bouyghes. Cette privatisation
de la première chaîne publique (près de 40 % de part d'audience en 1986) fait basculer le
paysage audiovisuel français dans un système concurrentiel : brusquement, le secteur public
est mis en minorité, le nombre des écrans publicitaires commercialisés par TFl augmente
fortement et, pour la première fois, l'offre globale d'écrans est supérieure à la demande. Les
conditions de vente s'assouplissent, les tarifs s'affinent, les délais d'achat se raccourcissent.
Dans cette situation d'ouverture du marché, un nouveau rapport de forces s'instaure
entre les diffuseurs et les acheteurs d'espaces (annonceurs, centrales d'achat, agences).
Ceux-ci sont tout-à-coup en mesure d'exiger leur participation au contrôle de l'institution
chargée du calcul de l'audience et de peser pour l'adoption d'un instrument de mesure
adapté à leurs besoins, c'est-à-dire capable de fournir l'audience des écrans chez certaines
catégories de consommateurs. Le suivi du nombre d'individus touchés par une campagne,

HERMÈS 37, 2003 87


Régine Chaniac

identifiés par cible de consommateurs, qui n'avait guère d'intérêt dans un contexte de rareté
des écrans publicitaires, devient un enjeu pour la profession.

L'audimétrie individu

La profession publicitaire réclame donc l'installation de l'audimétrie individuelle, qui


permet de fournir les résultats d'audience par cible. Les audimètres sont équipés d'un boîtier
de télécommande muni de bouton-poussoir et chaque membre des foyers panélisés se voit
attribuer un bouton qu'il doit presser quand il commence à regarder la télévision, puis quand
il arrête. L'audimètre à bouton-poussoir conserve l'enregistrement objectif des états du
récepteur (marche/arrêt, changements de chaînes), auquel il ajoute celui de la déclaration
volontaire des individus. Contrairement à l'audimétrie foyer, ce n'est donc plus un système
passif. Mais la sophistication de la mesure l'emporte, aux yeux des publicitaires, sur les biais
inhérents à la déclaration: erreurs d'utilisation et surtout, difficulté de constituer des
échantillons représentatifs d'individus acceptant la contrainte du bouton-poussoir.
Les concurrents de Médiamétrie profitent de cette opportunité. C'est tout d'abord
Sofrès-Nielsen qui annonce l'augmentation de son panel et le passage à l'audimétrie
individuelle ; puis le CESP, à la fois arbitre de l'ensemble des études d'audience et opérateur
de l'enquête par vague radio et télévision, qui lance un appel d'offres en vue de constituer
son propre panel d'audimètres à bouton-poussoir. En quelques mois, Médiamétrie réussit à
s'imposer comme le fournisseur principal de l'audience télévision. Le CESP renonce à son
projet et Sofrès-Nielsen abandonnera quelques années plus tard son panel, n'étant pas
parvenu à convaincre les anciens diffuseurs, clients historiques de Médiamétrie.
Médiamétrie fait entrer les publicitaires dans son capital à égalité avec les diffuseurs
TV, à la faveur du désengagement de l'Etat et de la disparition de la RFP (février 1988), et
annonce la mise en place de l'audimétrie individuelle. En 1989, le système baptisé
Médiamat, s'appuyant sur un panel de 2 300 audimètres à bouton-poussoir, soit
5 600 individus ayant 6 ans et plus, entre en fonction et devient rapidement la référence
unique pour l'ensemble des parties intéressées. Les résultats sont fournis sur 24 cibles
standard, construites à partir de critères socio-démographiques (sexe, âge, taille de
l'agglomération) et de critères de consommation (catégorie socio-professionnelle,
responsabilité des achats). Ainsi apparaissent la «ménagère de moins de 50 ans» et la
«ménagère avec enfants de moins de 15 ans», susceptibles d'acheter une forte quantité de
ces produits de grande consommation (alimentation, hygiène-beauté, entretien, etc.), qui
accaparent l'essentiel des investissements publicitaires sur le média télévision.

HERMES 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

Après l'arrivée des audimètres à bouton-poussoir, les évolutions concernant l'audience


des chaînes généralistes sont mineures : en 1993, Médiamat prend en compte les plus jeunes
enfants, dès l'âge de 4 ans; au cours de l'année 1999, le panel s'élargit à 2750 foyers, soit
6640 individus; à partir de mars 2000, 280 foyers équipés en réception numérique sont
intégrés au panel, grâce à de nouveaux audimètres capables de mesurer à la fois l'audience
d'une offre diffusée en numérique et en analogique; l'année suivante, un nouvel
élargissement intervient et, en 2003, le panel Médiamat comprend 3 150 foyers, soit
7 600 individus de 4 ans et plus.

Les indicateurs : la montée e n puissance


de la part d'audience

Parallèlement à l'évolution des outils, des méthodes et du statut de l'instance chargée


de mesurer l'audience, celle des indicateurs utilisés traduit aussi le profond changement qui
s'est opéré avec l'émergence du modèle commercial.
Nous avons vu que le panel postal fournissait un indice d'écoute, calculé de manière à
prendre en compte approximativement l'écoute partielle des émissions. Il était complété par
un indice d'intérêt, appelé plus tard indice de satisfaction, établi à partir d'une note fournie
par chaque panéliste (de 1 à 6).
Le passage à l'audimétrie-foyer supprime cette appréciation du téléspectateur. Le
premier indicateur de base de l'Audimat est l'audience moyenne (pourcentage moyen des
foyers ayant regardé l'émission ou la chaîne), qui, contrairement à l'indice précédent, prend
en compte l'ensemble des écoutes partielles pour leur durée exacte. Le second est l'audience
cumulée (pourcentage de foyers ayant regardé au moins un certain seuil de temps l'émission
ou la chaîne considérée). L'audience cumulée est supérieure à l'audience moyenne car elle
compte en entier la totalité des foyers ayant été en contact avec l'émission. C'est un chiffre
très utile pour un programmateur qui peut ainsi connaître l'étendue de la population
touchée par une émission.
Un nouvel indicateur fait progressivement son apparition au cours des années 1980: la
part d'audience (ou part de marché). Il exprime le rapport, pendant une période donnée,
entre le nombre de foyers à l'écoute d'une chaîne et le nombre de foyers regardant la
télévision. Plus élevé que le taux d'audience moyen (calculé sur l'ensemble des foyers équipés
TV), il fournit l'état de la concurrence. Lorsque la compétition se situait principalement entre
deux chaînes publiques (la troisième ayant un auditoire beaucoup moins élevé que ses aînées

HERMÈS 37, 2003 89


Régine Chaniac

jusqu'à la fin des années 1980), la part d'audience était peu utilisée en tant que telle.
L'indicateur global fourni par le CEO et le CESP sur la répartition par chaîne de la durée
d'écoute moyenne, fournissait aux responsables une appréhension immédiate du
positionnement relatif des deux rivales. De même, un simple coup d'œil sur les résultats de
deux émissions diffusées à la même heure donnait grosso modo leur poids respectif.
Médiamétrie introduit l'indicateur dès 1985 en communiquant chaque semaine à la
presse les parts de marché-foyer des chaînes, en même temps que la durée d'écoute
moyenne et un palmarès des dix meilleurs résultats par chaîne (exprimés en audience
moyenne). Cette part de marché, calculée sur la semaine, le mois ou l'année, devient
rapidement une référence, non seulement pour les professionnels mais pour la classe
politique et l'ensemble des observateurs. C'est le chiffre-clé pour hiérarchiser les chaînes
dans un contexte de montée de la concurrence. Lorsque la privatisation de TFl est décidée,
l'élément le plus significatif qui sera retenu pour déterminer sa valeur de cession sera sa part
de marché d'environ 40 % à l'époque.
Un cran décisif est franchi à l'été 1987 quand les repreneurs de TFl, en place depuis
avril, craignent une baisse massive de l'audience, suite au départ de plusieurs animateurs de
divertissements très populaires débauchés par La Cinq. Dans un tableau de bord
hebdomadaire, chaque émission de la chaîne est évaluée par rapport à l'objectif global de
part d'audience, fixé à 40 %. Pour la première fois, la part d'audience de chaque émission,
calculée grossièrement au sein de la chaîne, devient une référence systématique et un critère
de décision affiché. Dès l'année suivante, Médiamétrie propose à tous ses souscripteurs des
résultats en audience moyenne et part d'audience, par émission et par quart d'heure.
À partir de 1989, la mise en place de Médiamat permet de calculer tous les indicateurs
précédents sur les individus, et non plus sur les seuls foyers. L'audimétrie individuelle
fournit des parts d'audience par cible qui permettent de raffiner la communication des
chaînes, aussi bien en direction des publicitaires (même si ces derniers n'achètent in fine
qu'un nombre théorique de contacts, c'est-à-dire d'individus touchés) que des journalistes.
Ainsi, lorsque la part d'audience globale de TFl commence à s'éroder au début des années
1990, la régie de la chaîne vante ses bons résultats auprès des «ménagères de moins de
50 ans», très recherchées par les annonceurs de produits de consommation courante. De
son côté, M6 se présente comme «la chaîne des jeunes», ses responsables communiquant
habilement sur des scores à certains moments plus élevés chez les moins de 35 ans. Même
dans les chaînes publiques, la part d'audience devient progressivement l'indicateur
omniprésent dans les discours des programmateurs qui, comme leurs homologues, justifient
ainsi les changements de grille, l'arrêt ou le maintien d'une émission, le lancement d'une
nouvelle formule.
Il faut attendre l'émergence d'un outil de mesure d'audience propre aux chaînes de
complément, diffusées par câble puis sur satellite, pour que l'audience cumulée reprenne de

90 HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

l'intérêt. Dans un univers où les auditoires sont fortement fractionnés, chaque chaîne
souhaite appréhender, non plus les taux d'audience de chacun de ses programmes ou sa part
d'audience, chiffres souvent dérisoires et frappés d'incertitude statistique, mais l'étendue de
sa «clientèle» sur une période donnée. L'étude par vague Audicâble, créée en 1994 par
Médiamétrie, devenue AudiCabSat en 1998, fournit ainsi un taux de couverture sur les trois
semaines de l'enquête et un taux moyen sur la semaine. Puis ce dernier indicateur est calculé
sur six mois avec l'outil permanent MédiaCabSat12, mis en place à partir de 2001, à partir
d'un panel d'audimètres à bouton-poussoir. Toutefois, dès la seconde période de
MédiaCabSat (septembre 2001-février 2002), Médiamétrie publie aussi la part d'audience
des chaînes thématiques, seule une poignée d'entre elles atteignant le seuil de 1 % (Canal J,
Eurosport, LCI, RTL9).

À plusieurs reprises, nous avons souligné l'aspect conventionnel de la mesure


d'audience : construction d'indices, extrapolation à partir d'enquêtes différentes, définition
des cibles, etc. L'outil et le protocole adoptés, les indicateurs choisis sont le résultat d'un
rapport de forces entre les parties prenantes. Les compromis successifs expriment des
intérêts différents, des représentations différentes du public et de la télévision. L'exigence
de disposer d'une référence unique pour le marché de l'espace publicitaire, propre au
modèle commercial, s'impose aujourd'hui à l'ensemble des acteurs. Parallèlement, la part
d'audience supplante les autres indicateurs pour comparer les performances des chaînes,
fussent-elles exemptes de publicité (Arte) ou thématiques.

NOTES

1. La montée de l'équipement est conditionnée par la mise en place progressive du réseau d'émetteurs nécessaire
à la réception : en 1956, de nombreuses régions ne sont pas encore couvertes et il faut attendre 1966 pour que
95 % des zones habitées du territoire puisse recevoir la première chaîne (et 70 % la seconde chaîne).
2. OULIF, Jean, PHILIPPOT, Michel, 1980, «La fable de la culture audiovisuelle», in Communication et langages,
4e trimestre, p. 100-109, cité par MÉADEL, Cécile, 1998, «De l'émergence d'un outil de communication», in
Quaderni, n° 35, p. 63-78.
3. Il faut préciser que la télévision britannique a été la plus précoce d'Europe, à la fois du point de vue de
l'infrastructure de diffusion, développée intensivement à partir de 1949, de l'équipement des foyers et de
l'offre de programmes: en 1958, le tiers des ménages britanniques sont équipés d'un récepteur (contre 6 %
en France) et reçoivent déjà deux chaînes.
4. SOUCHON, Michel, 1998, «Histoire des indicateurs de l'audience», in Quaderni, n° 35, p. 97-98.
5. Idem, p. 97.

HERMÈS 37, 2003 91


Régine Chaniac

6. Hors Antenne, avec DESGRAUPES, Pierre, in Les Cahiers du comité d'histoire de la télévision, n° 1, avril 1995.
7. Pour le divorce entre télévision culturelle et télévision de divertissement, cf. MISSIKA, Jean-Louis, WOLTON,
Dominique, La Folle du logis, p. 38-39 et suivantes.
8. DEMAISON, Michel, 1988, «L'audimétrie en France», in Études de radio-télévision, RTBF n° 38, Télévisions
mesurées et mesures de la télévision, Bruxelles.
9. Cf. DURAND, Jacques, «Les études sur l'audience de la radiotélévision en France», in Quaderni, n° 35, p. 79-
92.
10. L'enquête doit son nom au fait que 55000 individus âgés de 15 ans et plus étaient interrogés chaque année
(soit plus de mille personnes par semaine). Elle devient l'enquête 75000 en 1990 et la 75000+ depuis 1999.
11. Cf. DEMAISON, Michel, 1988, déjà cité.
12. Cf. «Il était une fois MédiaCabSat», dans ce numéro.

RÉFÉRENCES BIBLIOGRAPHIQUES

BAHU-LEYSER, D . , CHAVENON, H., DURAND, J., Audience des médias. Guide France-Europe, Paris, Eyrolles, 1990.
BOURDON, J., «À la recherche du public ou vers l'indice exterminateur? Une histoire de la mesure d'audience à
la télévision française». Culture technique, n° 24, 1991, p. 131-140,
BRIGNIER, J . - M . , CHAVENON, H., DUPONT-GHESTEM, F , DUSSAIX, A - M . , HAERING, H., (préface d'Emmanuel
FRAISSE), Mesurer l'audience des médias. Du recueil des données au média planning, Paris, CESP, Dunod, 2002.
CHALVON-DEMERSAY, S., «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni,
n° 35, 1998, p. 45-51,
CHAMPAGNE, P , «La Loi des grands nombres. Mesure de l'audience et représentation politique du public». Actes
de la recherche en sciences sociales, n° 101-102, 1994, p. 10-22.
CHANIAC, R., «Programmer en régime concurrentiel». Dossiers de l'audiovisuel, n° 99, 2001, p. 24-27.
CHANIAC, R,, La Télévision de 1983 à 1993. Chronique des programmes et de leur public, Paris, Ina, SJTI, La
Documentation française, 1994.
FANSTEN, M., «Le poids déterminant de la publicité dans le financement de la télévision». Dossiers de
l'audiovisuel, n° 99, 2001, p. 10-14.
DEMAISON, M., «L'audimétrie en France», Études de radiotélévision, (RTBF, Bruxelles), n° 38, 1988, p. 95-100.
DURAND, J., «Les études sur l'audience de la radio-télévision en France», Quaderni, n° 35, 1998, p. 79-92.
HURARD, F , «Mesure et connaissance du public des médias audiovisuels en France: éléments de problématique»
in ALBERT, P., KOCH, E . U . , RIEFFEL, R., etc. (dir.), Les Médias et leur public en France et en Allemagne, Paris,
Éditions Panthéon Assas, 2003, p. 193-210.

92 HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

MALO, G., GIROUX, L., «La mesure industrielle des auditoires» in PROULX, S. (dir.), Accusé de réception. Le
téléspectateur construit par les sciences sociales, 1998, Québec, Les presses de l'Université Laval, 1998.
MAUDUIT, J., «Le roman vrai de la mesure d'audience» (en trois parties). Les Ecrits de l'image, n° 29,2000, p. 130-
142 ; n° 30, 2001, p. 62-72 et n° 31, 2001, p. 108-128.
MEADEL, C , «De l'émergence d'un outil de quantification», Quaderni, n° 35, 1998, p. 63-78.
MISSIKA, J.-L., WOLTON, D., La Folle du logis. La télévision dans les sociétés démocratiques, Paris, Gallimard, 1983.
SAINCY, S., La Télévision en genre et en nombre. Analyse par genre du temps d'antenne et du temps d'écoute entre
1983 et 1991, Paris, Ina, SJTI, La Documentation française, 1992.
SOUCHON, M., Petit écran, grand public, Paris, Ina, La Documentation française, 1987.
SOUCHON, M., «Histoire des indicateurs de l'audience», Quaderni, n° 35, 1998, p. 93-106.
SANTINI, G . , SANTIER, É . (dir.), L' Audience et les médias, Paris, IREP, Les Éditions d'Organisation, 1989,
bibliographie de Jacques Durand.

Dossiers de revues et publications professionnelles :


Études de radio-télévision, n° 38, «Télévisions mesurées et mesures de la télévision», Bruxelles, RTBF (Radio-
Télévision belge de la Communauté française), mars 1988.
Dossiers de l'audiovisuel, n° 22, «Télévision ; La mesure de l'audience», sous la direction de Régine Chaniac, Paris,
Ina, La Documentation française, novembre-décembre 1988.
Réseaux, n° 39, «L'invention du téléspectateur», CNET, janvier 1990.
Quaderni, n° 35, «Les publics: généalogie de l'audience télévisuelle», sous la direction de Sabine CHALVON-
DEMERSAY, Paris, Université Paris I Sorbonne, Sapientia, printemps 1998.
Le Livre de l'audience. Télévision 1990, Paris, Médiamétrie, Economica, 1991.
L'Année TV 2002 : les chiffres-clés, les palmarès, Médiamétrie, 2003 (chaque année depuis 1989).

HERMES 37, 2003 93


Olivier Appé
Médiamétrie

Jean Mauduit
Médiamétrie

CÂBLE ET SATELLITE :
IL ÉTAIT UNE FOIS MÉDIACABSAT

Depuis le début de Tannée 2001, Médiamétrie dispose pour les chaînes du câble et du
satellite d'un nouvel outil spécifique de mesure d'audience, baptisé MédiaCabSat, qui
répond aux exigences du marché... L'ancien dispositif, Audicabsat, fondé sur une
méthodologie traditionnelle, s'essoufflait devant la multiplication des chaînes et des modes
d'abonnement, si bien que beaucoup de thématiques n'étaient pas prises en compte dans la
mesure d'audience. Impossible de laisser les choses en l'état. Et d'autant moins que dans le
même temps, devant l'encombrement croissant de l'espace commercial, le gouvernement
s'était mis en tête de limiter l'accès de la publicité aux antennes publiques. Il devenait
indispensable de se donner de l'air en faisant entrer dans le jeu les chaînes du PAF de
complément. Or, c'était l'époque où venait de naître une nouvelle génération d'audimètres,
capables de saisir tous les types de réception : en analogique par câble ou hertzien, aussi bien
qu'en numérique par câble ou par satellite. Cet audimètre d'un nouveau type avait permis
à Médiamétrie, dès le début de l'année 2000, d'intégrer dans son panel audimétrique
Médiamat1 280 foyers recevant l'offre élargie.
MédiaCabSat est né de cette triple opportunité: les besoins criants du marché, une
conjoncture économique favorable, une avancée technologique déjà validée. Ainsi s'est
ouverte pour le nouvel outil une véritable fenêtre de tir. Et la profession s'est mise d'accord,
dans des délais remarquablement courts, sur la création d'une nouvelle mesure
audimétrique consacrée aux chaînes du câble et du satellite.

HERMÈS 37, 2003 95


Olivier Appé et Jean Mauduit

Un grand pas e n avant pour la mesure d'audience

Pour se faire une idée de l'ampleur du bond en avant, il est nécessaire de se reporter à
ce qu'était l'Audicabsat : une enquête déclarative par carnet d'écoute auto-administré. Elle
ne permettait qu'un suivi limité dans le temps, à travers une seule vague annuelle, à des
dates plus ou moins prévisibles, si bien que certaines chaînes se trouvaient encouragées à
programmer des opérations promotionnelles qui étaient pour l'audience autant de piqûres
de cortisone : elles font grossir, comme chacun sait. En outre, le mode déclaratif du recueil
de l'information se prêtait, inévitablement, aux erreurs de mémorisation et/ou de
transcription. Enfin, le traitement était différent selon les chaînes : impossible, dans le cadre
forcément restreint d'un questionnaire, de pré-formuler la totalité d'entre elles ; quarante-
huit seulement l'étaient ; le reste était laissé à la dénomination faite par les interviewés sous
la rubrique « autres ». Bref, pour explorer la nouvelle galaxie, sans cesse en mouvement, que
constituent les chaînes du câble et du satellite, on en était encore au télescope de Newton !
Audicabsat avait ses mérites, et d'abord celui d'exister. Il avait représenté en son temps un
grand progrès. Mais l'heure était venue pour lui d'entrer au musée.
Pour remédier à cette situation, la démarche accomplie par la profession eut quelque
chose d'exemplaire. D'abord, elle prit d'un commun accord la décision coûteuse et
méritoire - méritoire notamment parce que coûteuse - de mettre en place un dispositif
d'une tout autre envergure. Ensuite et surtout, elle participa étroitement à son élaboration
par Médiamétrie. Il s'agissait, globalement, de passer à la mesure audimétrique pour les
chaînes du câble et du satellite, autrement dit de substituer au carnet d'écoute une
méthodologie électronique, avec toutes les perspectives qu'ouvrait cette mutation
technologique. Toutes les chaînes seraient désormais prises en compte de la même façon. La
vague annuelle d'interrogation de l'échantillon serait remplacée par un suivi permanent,
365 jours par an, vingt-quatre heures sur vingt-quatre. La possibilité serait offerte d'accéder
plusieurs fois dans l'année à des résultats permettant d'observer les évolutions des
comportements d'écoute et de saisir, le cas échéant, les phénomènes de rupture. Enfin la
précision de la mesure passerait du quart d'heure à la seconde, si bien que la
comptabilisation de tous les mouvements d'audience serait assurée. Vaste programme.
Sur ces bases, un prototype fut conçu par les spécialistes de Médiamétrie, à travers ce
qu'on peut bien appeler une relation dialectique avec les acteurs du marché. Le projet leur
était soumis au fur et à mesure de son élaboration, au prix de copieuses réunions de travail.
À partir du projet, un cahier des charges fédérateur des attentes du marché fut établi après
une rencontre, le 19 septembre 2000, à laquelle participaient les représentants du CRTM
(organisme de réflexion qui regroupe l'Union des Annonceurs et les agences médias), les
régies publicitaires des chaînes du câble et du satellite, les opérateurs câbles et satellite, et

96 HERMÈS 37, 2003


Câble et satellite: il était une fois MédiaCabSat

des représentants de l'ACCeS (Associations des chaînes du câble et du satellite). Et c'est en


répondant point par point à ce cahier des charges que Médiamétrie fut en mesure d'élaborer
l'outil définitif, tel qu'il put entrer en service le 3 septembre 2001. Le MédiaCabSat est né
de cet aller-retour permanent.

L'échantillon : vingt fois sur le métier

Le premier point du cahier des charges portait naturellement sur la construction et la


taille de l'échantillon, dont il était demandé qu'il reflétât l'exacte réalité de l'offre élargie en
France tout en prenant en compte les différentes formules d'abonnement : sur les plates-
formes satellitaires, sur le câble analogique, sur le câble numérique, à la date du ler janvier
2002. Etaient évoqués également la nature des résultats fournis, leur périodicité, les
modalités de fonctionnement de l'outil de mesure, enfin le planning et le financement.
Concernant l'échantillon, quatre principes furent énoncés par Médiamétrie comme
indispensables au respect des exigences formulées par le cahier des charges :
- l'outil de mesure doit être représentatif de la diversité des offres ;
- chaque chaîne thématique doit pouvoir accéder régulièrement à des résultats
d'audience sur la population qu'elle considère comme son cœur de cible ;
- les résultats doivent avoir la même précision statistique que ceux dont disposent les
chaînes hertziennes avec Médiamat ;
- il est indispensable de trouver le bon compromis entre la taille de l'échantillon et les
moyens financiers dont dispose l'ensemble des souscripteurs.
C'était relativement facile à énoncer. Pas du tout facile à faire. Et d'autant moins qu'à
l'époque (cela n'a fait que s'accentuer depuis) le marché du câble et du satellite ressemblait
déjà à un univers en fusion. Les deux plates-formes satellitaires, TPS et CanalSatellite,
proposaient de nombreuses chaînes thématiques - de plus en plus nombreuses - dont les
unes étaient reprises largement sur le câble en mode analogique, les autres présentes
seulement dans l'offre numérique des câblo-opérateurs. Si bien que non seulement le
nombre d'abonnés par plate-forme était naturellement différent, mais que les taux
d'initialisation des chaînes2 étaient hétérogènes. La métaphore astronomique revient
inévitablement à l'esprit: ces deux plates-formes étaient semblables à des galaxies ayant
chacune son petit soleil, ses planètes de formation plus ou moins récentes, et même ses
étoiles... filantes. Or chaque chaîne nourrissait la prétention, légitime, d'avoir accès à sa
cible privilégiée, c'est-à-dire à la fois à l'ensemble des foyers recevant l'offre élargie et au
sous-ensemble de ceux qui étaient en mesure de capter ses propres programmes. Sans

HERMÈS 37, 2003 97


Olivier Appé et Jean Mauduit

oublier que certains cœurs de cible correspondaient à des populations très minoritaires et
même très peu nombreuses. Il fallait pouvoir viser juste, à longue distance, sur des cibles
parfois minuscules et généralement mouvantes.
À titre d'exemple, voici deux chaînes A et Β visant exactement le même cœur de cible :
les individus GSP +. A est distribuée sur CanalSatellite et sur le câble analogique; ces deux
modes de réception cumulés concernent 70 % des individus recevant l'offre élargie, où la
proportion de GSP + s'élève elle-même à 25 % : soit pour notre antenne une cible
potentielle de (70 x 25) : 100 = 17,5 % de l'offre élargie. La chaîne B, quant à elle, est
présente sur TPS et sur le câble numérique qui totalisent 30 % de la même offre élargie ; elle
a donc une cible de (30 x 25) : 100 = 7,5 %, deux fois et demie plus restreinte. Comment,
pour respecter le principe de service commun, faire en sorte que les deux chaînes accèdent
au même type de résultats, c'est-à-dire au même degré de précision et de fiabilité ? Dans ce
contexte hérissé de contraintes, notamment financières, l'entreprise était ardue.

Élémentaire, mon cher Gallup

En fait, pour résoudre ce qui pouvait apparaître comme étant la quadrature du cercle,
Médiamétrie disposait de la panoplie de moyens que fournissent le nombre combiné avec le
temps et l'organisation. Le nombre, c'est-à-dire la taille de l'échantillon, est un paramètre
évidemment incontournable, et qui financièrement parlant pèse lourd, en particulier en
termes de recrutement. Aussi avait-il été posé comme principe, dès le départ avec l'accord
des grandes chaînes hertziennes, que seraient utilisés les 480 foyers recevant l'offre élargie
déjà présents au sein du Médiamat (riche au total de 2 800 foyers). A quoi viendrait s'ajouter
un sur-échantillon d'abord fixé à 250 foyers puis, comme il était apparu que cette taille ne
permettrait de couvrir «que» 95 % des besoins du service commun, à 350 soit au total 830
foyers, représentant 2250 individus.
Mais le temps? que vient faire le temps dans cette galère? Elémentaire, mon cher
Watson, ou plutôt mon cher Gallup. Etant posé comme principe que les résultats devaient
offrir, pour chaque chaîne dépassant un million de foyers d'abonnés, une fiabilité statistique
aussi grande que celle des résultats quotidiens des chaînes hertziennes dans Médiamat ;
attendu par ailleurs que les résultats du Médiamat sont calculés sur une base minimale de
400 individus par cible, la solution tombait sous le sens : Médiamétrie préconisait d'établir
des résultats moyennes c'est-à-dire en cumulant plusieurs jours d'information ; et avec un
seuil minimal de 200 individus sur une cible, un cumul semestriel permettrait de garantir le
résultat souhaité. Ici, le temps venait au secours du nombre.

98 HERMÈS 37, 2003


Câble et satellite: il était une fois MédiaCabSat

Quant à l'organisation, c'est-à-dire la structure de l'échantillon, elle permettrait, grâce


aux méthodes classiques de redressement - en affectant à chaque individu un coefficient de
pondération pour le calcul des résultats d'audience - de respecter scrupuleusement, a
posteriori, les structures théoriques de la population cible.

Les surprises du marché

Restait un problème fondamental, pour déterminer précisément ces structures:


connaître la répartition des diverses composantes de l'offre élargie, et l'initialisation de
chacune des chaînes concernées, dans ce paysage audio-visuel de complément caractérisé,
nous l'avons dit, par la bigarrure des formules et des modes d'abonnement combinés au
nombre de chaînes. Ce fut le rôle d'une enquête dite de cadrage, avec comme support
l'enquête nationale 75 000 + (75000 interviews annuelles) utilisée par Médiamétrie pour
s'informer sur les taux d'équipements audiovisuels qui servent de références pour le
redressement quotidien du Médiamat, avec mise à jour tri-annuelle. Un questionnaire fut
envoyé, avec leur accord, à 1200 personnes interrogées dans la 75 000 + et disposant d'une
offre élargie; il leur était demandé d'y consigner les chaînes reçues dans leur foyer.
Parallèlement, et à la demande de l'ACCeS (Association des chaînes du câble et du satellite)
le CESP fut chargé de collecter auprès de chaque chaîne son nombre d'abonnés, le but étant
bien entendu de comparer les deux sources.
Et là, surprise. Les résultats, qui d'abord étaient cohérents, marquèrent à partir de la
deuxième vague du MédiaCabSat une différence qui alla croissant. Dans quel sens? Les
chaînes déclaraient davantage d'abonnés que Médiamétrie n'en trouvait. L'explication ? Il y
en avait deux. D'une part, les chaînes comptaient en nombre d'abonnements alors que
Médiamétrie évaluait le nombre d'abonnés ; or certains foyers sont multi-abonnés et vont
par exemple compter pour deux aux yeux de la chaîne, là ou Médiamétrie en enregistre un
seul. D'autre part, on peut imaginer sans trop faire preuve de mauvais esprit que le
problème avait un aspect politique. Les chaînes, qui avaient choisi non sans courage de faire
toute la vérité sur leur audience, s'exposaient au risque de voir les câblo-opérateurs
procéder à une révision déchirante de leur financement, au prorata de leurs résultats. On
peut comprendre que certaines d'entre elles aient eu tendance, par réflexe de survie, à
optimiser leurs déclarations, par exemple en faisant entrer en compte les abonnés
«gratuits» qu'engendrent les opérations promotionnelles. Reste que pour 80 % des chaînes
suivies les résultats de l'étude et les déclarations des chaînes convergeaient parfaitement.
Fallait-il considérer le verre comme à moitié vide ou aux trois quarts plein? Des

HERMÈS 37, 2003 99


Olivier Appé et Jean Mauduit

vérifications complémentaires furent effectuées et des ajustements appliqués. En réalité, on


peut considérer que la vérité du marché était en train de s'imposer. Et la vérité, parfois, est
douloureuse ; mais c'est le prix à payer pour la transparence.

Quand le câble cassait les trottoirs des grandes villes

Là-dessus, les résultats commencèrent à tomber. La première vague se déroula de


février à juillet 2001, la deuxième couvrit la période de septembre 2001 à février 2002, la
troisième allait du 3 janvier 2001 au 16 juin 2002, la quatrième est sortie le 11 mars 2003.
L'ensemble - en attendant les vagues suivantes - fournit une moisson de données en
évolution, et c'est tout l'intérêt du système. Il s'agit de photos successives du marché : en
réalité un film, au ralenti, mais un film.
Premier constat sur la troisième vague de résultats : la population des abonnés à une offre
élargie continue d'augmenter (+ 2,7 % en nombre d'individus par rapport à la deuxième
vague). Elle s'élève à un peu plus de 12 millions de personnes de 4 ans et plus, soit 23 % de la
population équipée TV correspondante en termes d'âge. Un gros, gros marché déjà ! Le leader
en est CanalSatellite3, suivi de près par le câble4 (abonnés à 15 chaînes et plus). Loin derrière,
TPS5. Mais l'ensemble des deux plates-formes satellitaires représente presque le double du
territoire du câble ; et TPS est celui des trois compétiteurs qui progresse le plus vite en nombre
de foyers (+ 3,5 % par rapport à la vague précédente). À l'inverse la population câblée, même
si elle augmente encore un peu, tend à se stabiliser (+ 0,7 %).
La structure des abonnés, sur la base des 15 ans et plus, reste stable d'une vague à
l'autre et conserve globalement les caractéristiques qui la distinguent de celle de la France
équipée TV. Elle est par rapport à celle-ci nettement plus masculine, légèrement plus jeune
et de statut social plus élevé. Mais c'est entre les trois sous-ensembles de l'offre élargie
qu'apparaissent les différences les plus significatives. Les abonnés à CanalSatellite sont ceux
qui comptent dans leur rang le plus grand nombre d'individus de sexe masculin, le plus de
GSP +, le plus d'actifs. TPS recrute une population sensiblement comparable. En revanche
le câble se singularise par sa pyramide des âges, qui marque un creux au niveau de la tranche
des 35-49 ans, si bien qu'en fait de pyramide on a plutôt affaire à une bobine, plus étroite
en son milieu ! Surtout, le câble porte les traces de son histoire. N'oublions pas qu'on l'a
créé en ouvrant les trottoirs des grandes agglomérations. Aussi ne faut-il pas s'étonner si
près des trois quarts de ses abonnés habitent des villes de plus de 100000 habitants, alors
que c'est exactement le contraire pour les deux plates-formes satellitaires qui pénètrent
largement dans les villes de moins de 100000 habitants.

100 HERMÈS 37, 2003


Câble et satellite : il était une fois MédiaCabSat

Madame Thématique reçoit le mercredi

Les durées d'écoute, elles aussi, restent stables. Stables et conséquentes. Un individu,
âgé de 15 ans et plus, abonné à une offre élargie consacre en moyenne à la télévision 3 h 45
par jour, dont l h 0 5 pour les chaînes thématiques. Les durées d'écoute correspondantes
d'un enfant de 4 à 14 ans sont respectivement 2 h 20 et l h05 ; consommant moins de
télévision en général que ses aînés, il s'attarde aussi longtemps qu'eux sur les thématiques.
De là à penser que celles-ci l'encouragent à se scotcher au petit écran, il n'y a qu'un pas. Et
c'est vrai pour toutes les catégories d'âge. Les abonnés à l'offre élargie consacrent davantage
de temps à la TV (13 minutes par jour de plus, pour les 15 ans et plus, 9 minutes pour les
4-14 ans) que les individus recevant une offre restreinte.
La part d'audience globale des thématiques est le reflet de l'importance qu'elles ont
prise dans la vie des gens. C'est quoi, la part d'audience (PDA) ? Le pourcentage de temps
consacré à une chaîne ou comme ici à un ensemble de chaînes, par rapport à la durée totale
d'écoute de la télévision. Un bon indicateur, non le seul mais particulièrement solide,
précisément parce qu'il fait entrer en ligne de compte la durée, et qui exprime bien les
rapports de force entre les chaînes. Or la part d'audience des thématiques chez les abonnés
de l'offre élargie dépasse 3 0 % , pour les 15 ans et plus, et atteint 45 % pour les 4-14 ans.
D'une vague à l'autre la situation reste à peu près stable, sauf à constater que cette part
d'audience a tendance à progresser légèrement chez les adultes (-h 1,4 % depuis la première
vague de l'étude) et à perdre un peu de terrain sur le marché des jeunes (- 1,9 %) où seul le
câble consolide ses positons.
L'âge apparaît d'ailleurs un facteur déterminant pour l'audience des thématiques. On
ne regarde la télévision ni autant de temps ni de la même façon au fil des années. C'est ce
que reflète clairement l'évolution comparée, par tranches d'âge, des durées d'écoute totale
TV et des PDA des thématiques. À 15 ans, ces deux indicateurs «décrochent», l'un de dix
minutes, l'autre de près de dix points. C'est la période où la vie vous appelle. On a moins
de temps à consacrer au petit écran, et surtout on consomme la rupture avec les émissions
pour enfants. Puis vient le temps de la prise d'autonomie, de la vie en couple, de l'insertion
sociale et professionnelle. On s'établit et même, on s'assoit : la durée d'écoute totale bondit
de 2h 12 à 3h33 sur les 25-34 ans par jour, celle des thématiques ré-augmente aussi, mais
dans des proportions moindres, si bien que leur part d'audience stagne à 35 %. Elle ne fera
d'ailleurs que décroître avec l'âge, non parce que les thématiques sont délaissées mais parce
que le temps total consacré à la TV ne cesse d'augmenter jusqu'à atteindre 4h39 pour les
plus de 50 ans, tandis que la PDA des thématiques tombe à 27,1 %.

HERMES 37, 2003 101


Olivier Appé et Jean Mauduit

Durée d'écoute Part d'audience Durée d'écoute


individuelle Chaînes des chaînes
Total TV thématiques (en %) thématiques
Enfants 4-14 ans 2h22 45,3 65'
15-24 ans 2hl2 35,9 48'
25-34 ans 3h33 35,1 75'
35-49 ans 3h36 32,4 70'
50 ans et plus 4h39 27,1 76'
Source : MédiaCabSat - Médiamétrie, janvier-juin 2002

Le poids des thématiques dans l'audience n'évolue pas seulement au fil des années,
bien sûr. Elle varie au fil de la semaine et même des heures. Les thématiques ont leurs jours
où leur part d'audience atteint ses plus hauts niveaux : ce sont le mercredi, jour des écoliers,
le samedi et le dimanche, jour de la famille qui rassemble aussi bien les grands enfants que
les petits. Durant la journée, la part d'audience des thématiques va à contre-courant de
l'écoute TV en général, c'est aux heures de faible audience qu'elle est la plus forte - soit le
matin entre 8h30 et 12 heures et l'après-midi entre 15 h et 19 h. Puis, elle décline fortement
à partir de 18h30 au moment où la télévision «ordinaire» commence à faire le plein
d'auditeurs pour remonter en fin de soirée. Comme si l'offre élargie, et plus
particulièrement les thématiques, était une offre dans l'offre, une TV dans la TV !

Cinq chaînes sur le podium

Et le palmarès des chaînes thématiques ? C'est toujours le même peloton de cinq qui
occupe la tête du classement au fil des vagues, mais avec des parts d'audience dont la
modestie est le reflet de l'extrême diversité du marché (63 chaînes ayant au moins 20 %
d'initialisation). Viennent dans l'ordre RTL 9 (2,2 %), Eurosport (1,6%), Canal J (1,4 % ) ,
LCI (1,1 %) et Télétoon (1 %).
Il est possible d'étudier ce palmarès par plate-forme, par cible en termes d'âge, ou
encore par thèmes, et par thèmes croisés avec la plate-forme. On peut y constater que la
fiction, chez les 15 ans et plus, représente la thématique-phare de TPS et, à un moindre
degré du câble, loin devant le cinéma qui est surtout l'affaire de Canal Satellite. Pour les
4-14 ans, en revanche, la fiction et le cinéma arrivent loin derrière les émissions pour la
jeunesse, qui rassemblent 26,5 % de part d'audience sur cette catégorie d'âge.

102 HERMES 37, 2003


Câble et satellite: il était une fois MédiaCabSat

L'enquête détaille même l'évolution des parts d'audience des thématiques par thèmes,
du lundi au dimanche: cinéma, sport, information, documentaire, «généralistes»,
musicales. Une pleine moisson vraiment, de quoi remplir le grenier des hommes d'études et
des spécialistes du marketing... jusqu'à la prochaine récolte.

Peut-on se passer du MédiaCabSat ?

Reste à évoquer un problème de fond, pimenté de polémiques. Pour certains, les


chaînes thématiques, jusqu'à l'instauration du MédiaCabSat, étaient le dernier espace de
liberté pour les programmateurs. On pouvait s'y ébattre en toute impunité, innover,
imaginer, faire entendre sa petite musique sans avoir à craindre la sanction de l'audience.
Voici que tout est changé. Voici qu'un dispositif de mesure est capable de suivre chaque
évolution, et les plus légers frémissements d'audience comme les ruptures les plus
inattendues. Cette prise de position est respectable. Elle fait entendre une mélodie chère à
nos esprits - la petite flûte de la liberté, le choeur des petits qui n'ont pas peur des gros. Mais
elle ne résiste pas à l'analyse. Pourrait-on sérieusement envisager que les investisseurs
financiers de tous ordres - actionnaires ou annonceurs - qui misent sur ces chaînes, se
voient refuser les éléments de mesure dont ils ont besoin pour évaluer les retombées de leurs
investissements ? Non bien sûr. À moins d'admettre que le média planning est une loterie
et/ou qu'on vise mieux les yeux bandés. Ce qui, pour le moins, serait inconséquent.

NOTES

1. Celui qui mesure l'audience de la télévision hertzienne en général.


2. Nombre ou pourcentage de personnes ou de foyers en mesure de recevoir une chaîne sur au moins un
récepteur.
3. 5105000 individus.
4. 4616000 individus.
5. 3 120000 individus.

HERMÈS 37, 2003 103


π . TÉLÉVISION: PROGRAMMER
EN RÉGIME CONCURRENTIEL

Etienne Mougeotte

Jean-Pierre Cottet

Eric Macé

Patrick Champagne

Yves Jeanneret

Valérie Patrin-Leclère
Entretien avec Étienne Mougeotte
TF1

LA LOI D'AIRAIN DU MÉDIAMAT

Propos recueillis par Régine Chaniac et Jean-Pierre Jézéquel le 12 février 2003.

Question: TF1 domine largement le marché, avec plus de 10 points d'avance sur la
suivante, ce qui n'existe plus dans aucun pays d'Europe. Dans ce contexte de puissant
leadership d'une chaîne commerciale, la formule souvent utilisée de «dictature de l'audimat»
résume-t-elle bien le lien qui s'établit entre résultats d'audience et décisions de programme ?
N'y a-t-il pas d'autres paramètres qui interviennent ?

Il faut faire une remarque préalable. La dictature de l'audimat, c'est naturellement une
formule polémique. On ne dit pas la loi, le poids, la force, on emploie le terme de dictature
qui a une connotation plus que péjorative, insultante: la dictature, c'est insupportable.
Quant à l'audimat, cela n'existe plus. L'audimat, c'était l'outil qui permettait de mesurer la
consommation des foyers seconde après seconde; il a été remplacé par le médiamat,
instrument infiniment plus sophistiqué, puisqu'il mesure l'audience de chacun des membres
du foyer. Mais une fois diabolisé, on a gardé ce terme d'audimat comme l'expression de
l'abomination absolue.
Ce qu'il y a derrière cette formule, c'est l'importance qu'on attache à l'écoute des
téléspectateurs et on peut alors exprimer la question de manière moins polémique: est-ce
qu'il y a une loi d'airain du médiamat ? Cela se traduit comment pour un responsable de
télévision privée ou pour un programmateur ?

HERMÈS 37, 2003 107


Entretien avec Etienne Mougeotte

Il y a effectivement une attention réelle, forte, apportée au résultat d'audience, tout


simplement parce qu'il mesure à la fois une forme de satisfaction du public (si je ne suis pas
satisfait, je m'en vais, je vais voir autre chose) et des comportements (j'ai regardé tel
programme, parmi une offre donnée). Quand on est responsable d'une chaîne de télévision
comme TFl, qui ne vit que de la publicité, la mesure d'audience joue un rôle très important
dans les décisions que l'on est amené à prendre. Il n'y a pas pour autant de loi mécanique
qui entraîne la suppression immédiate d'un programme qui perd de l'audience. En règle
générale, quand un programme récurrent perd de l'audience, on essaie de comprendre
pourquoi on le regarde moins ou on le regarde de moins en moins. Quand on a fait cette
analyse, qu'on croit avoir trouvé les raisons pour lesquelles ce programme plait moins, on
essaie de le modifier, de l'amender, avec l'espoir qu'il va à nouveau plaire davantage.
Cela signifie une chose assez fondamentale, c'est que nous faisons largement une
télévision de la demande, et non pas une télévision de l'offre où les choix sont dictés non
par la réaction du public mais par ce que l'on estime être le bon programme. J'essaie de
comprendre ce que sont les demandes du public et je m'efforce de lui offrir des programmes
qui répondent à ces demandes. De ce point de vue, il y a bien une loi de l'audience, qui fait
que, sur une chaîne privée comme TFl, un programme qui durablement ne fait pas assez
d'audience a peu de chance de survivre.
Ceci est à corriger par certains facteurs:
- la mesure d'audience est toujours rétrospective (je mesure ce que j'ai fait et non pas
ce que je vais faire). C'est à partir des résultats de ce que j'ai fait que j'essaie de tirer un
certain nombre de leçons pour ce que je vais faire. Néanmoins, on regarde toujours dans le
rétroviseur;
- par ailleurs, le potentiel d'audience d'un programme de télévision a une valeur
relative, dans la mesure où ce programme va se situer dans un univers de concurrence qui
n'est pas maîtrisé par le programmateur. Il est donc impossible de dire a priori qu'un
programme va faire telle audience, cela dépend de la concurrence. Il faut toujours garder
cela à l'esprit. C'est surtout vrai suprime time si on se trouve par exemple en face d'une case
cinéma où les résultats sont extrêmement variables d'une semaine à l'autre. On contrôle
mieux la concurrence en journée où les offres sont régulières, même s'il suffit d'un
changement d'une série sur une autre chaîne pour créer une situation nouvelle.

Question: Lorsque les premiers résultats d'une nouvelle émission sont décevants, quels
sont les paramètres qui vous conduisent à tenter de l'améliorer ou à la retirer rapidement de
votre grille ?

C'est une appréciation très subjective qui consiste à se demander si le programme est
susceptible de s'améliorer, de faire l'objet de modifications légères ou moins légères, qui vont

108 HERMÈS 37, 2003


La loi d'airain du médiamat

faire que peu à peu, il va s'imposer. Si on estime (à tort ou à raison) qu'on ne peut pas le
réformer, il vaut mieux tout de suite arrêter. Pour prendre un exemple un peu ancien mais
révélateur. Les Niouzes1 est une émission mise à l'antenne le lundi et arrêtée le vendredi, son
audience était insuffisante et, surtout, baissait d'un jour à l'autre. Le jeudi précédent, quand
on a fait le dernier pilote, j'ai failli prendre la décision très tard dans la nuit de ne pas démarrer.
J'ai fait l'erreur de dire: «Tant pis, on y va, on est très loin de ce qu'on voudrait faire, mais
néanmoins on l'a annoncé. » On savait que cela allait être très difficile, cela a été encore pire.
On était parti sur des mauvaises bases et je pense qu'on ne pouvait pas réformer l'émission.
À l'inverse, par exemple, au tout début de la privatisation de TFl, on avait créé un
magazine de cinéma en deuxième partie de soirée, présenté par Michel Denisot, qui n'a pas
donné les résultats espérés. On l'a arrêté très vite, et à mon avis à tort. Avec le recul, je pense
qu'on s'est trompé. Si on avait accepté d'attendre quelques semaines pour lancer ce
magazine hebdomadaire et le roder, on aurait peut-être pu le sauver.
L'exemple le plus spectaculaire d'amélioration d'une émission, c'est Star Academy. En
2001, on a énormément souffert dans les premières semaines, on a été tenté de raccourcir le
programme et de l'arrêter beaucoup plus tôt. Puis, en le travaillant, en modifiant peu à peu
le contenu, on a redressé la barre. C'est le bon exemple d'une mauvaise décision qu'on
aurait pu prendre et qu'on n'a pas été loin de prendre. Cela se joue souvent à peu de chose.

Il faut être prudent quand on décide d'arrêter très vite, mais en même temps, il faut
savoir prendre la décision parce que, quand on traîne semaine après semaine un programme
qui déçoit le public, c'est très lourd à porter. La décision est largement prise au doigt
mouillé. La mesure d'audience nous montre très bien ce qui s'est passé, elle ne nous dit pas
ce qu'il faudrait faire pour que cela marche. Après, on peut faire des études qualitatives,
mais c'est long, c'est compliqué et c'est aléatoire.
Il peut aussi arriver que l'on maintienne un programme décevant parce que, dans
l'immédiat, on n'a rien d'autre à mettre. Mais, quand on est en situation de catastrophe,
quand l'audience est vraiment un désastre, on est obligé de changer très vite. Il ne faut pas
oublier qu'un programme dont l'audience est défaillante est un programme qui repousse les
annonceurs et on a, dans le fonctionnement d'une chaîne comme la nôtre, l'obligation
d'avoir des recettes minimales. Et, de même qu'un directeur de théâtre qui ne remplit pas
sa salle, finit par arrêter la pièce qui lui fait perdre de l'argent tous les jours, il y a un moment
où l'on est obligé d'arrêter. On ne peut pas durablement perdre de l'argent.

L'animateur d'une émission qui a un mauvais résultat ressent douloureusement le fait


que son émission ne remporte pas l'adhésion, il se sent personnellement remis en cause dans
son lien avec le public. C'est plus difficile pour lui que pour le producteur ou le diffuseur.
Il faut l'aider à appréhender la relativité du résultat. Il m'arrive souvent de dire à un

HERMÈS 37, 2003 109


Entretien avec Etienne Mougeotte

animateur, à un producteur: «Tu as fait 10 % de moins que la semaine dernière, et pourtant


c'est mieux, parce que la concurrence était tellement plus forte qu'en réalité ce recul est
plutôt un bon résultat. »
On parle toujours de l'effet de chaîne, mais c'est le produit offert qui est prégnant. On
dit ainsi qu'un film sur France 3 fait 1 0 % de moins que s'il avait été diffusé par TFl. Ce
n'est pas l'effet de chaîne. C'est simplement que quand il est sur France 3, il a face à lui un
programme de TFl qui est en général plus concurrentiel.

Question: Une chaîne qui, comme TFl, attire en général une fraction importante des
téléspectateurs à l'écoute, peut-elle vraiment cibler son auditoire ?

La problématique de TFl depuis le début de la privatisation, c'est d'essayer d'être le


plus puissant possible, d'attirer le plus grand nombre possible de téléspectateurs et, en
même temps, d'être le plus performant possible sur les cibles recherchées par les
publicitaires: les «ménagères de moins de 50 ans», les 15-24 ans, les 15-34 ans, les femmes
en général, etc. Il y a souvent une contradiction entre vouloir être le plus puissant possible
et le plus performant possible sur des cibles particulières. C'est un peu la quadrature du
cercle. On regarde d'abord et avant tout les résultats sur les cibles publicitaires puisque c'est
là on l'on fait la recette. Mais on sait que si on veut faire une télévision ciblée, on perdra sur
les deux tableaux: on perdra sur la puissance et un jour, sur les cibles visées, parce que ce
sont des cibles très mal définies.
Qu'est ce qu'une «ménagère de moins de 50 ans»? C'est à la fois une assistante de
direction d'une agence de publicité à Paris, qui a 26 ans, pas d'enfant, et une femme
d'agriculteur de 48 ans ayant quatre enfants, habitant dans le massif central. Entre ces deux
spectatrices, il y a d'énormes différences. J'ai déjà résumé ainsi cette hétérogénéité de la
catégorie par cette boutade: «J'ai souvent fait mon marché, j'ai jamais rencontré une
ménagère de moins de 50 ans. » Cela n'existe pas, c'est une abstraction. Aucune femme ne
se vit comme une ménagère de moins de 50 ans. Et on peut multiplier les exemples, c'est la
même chose avec les « CSP Plus »2 où l'on trouve aussi bien un contremaître d'une usine de
Sandouville qu'un professeur d'université, qui peuvent avoir des modes de vie, des
pratiques culturelles assez différentes. Ces cibles sont extrêmement hétérogènes et l'idée de
dire «je vais faire un programme pour les ménagères de moins de 50 ans ou pour les CSP
Plus» est absurde. Il est impossible d'élaborer, de concevoir un programme pour ces
catégories. On ne peut fonctionner que par cercles concentriques: essayer de rejoindre le
maximum de personnes et, du même coup, de toucher les cibles visées.
Concernant la définition des cibles, il y a incontestablement un conservatisme de
l'ensemble de la profession. Dans une société qui a beaucoup changé, dans ses
comportements, ses pratiques, on a une fixité des cibles qui pose problème. Par exemple, le

110 HERMÈS 37, 2003


La loi d'airain du médiamat

fait qu'on vit plus longtemps, qu'on ait des enfants plus tard, pourrait amener à considérer
que la cible des moins de 50 ans n'est plus pertinente et y intégrer les moins de 55 ou de
60 ans. Mais c'est très compliqué de mettre toute la profession d'accord là-dessus. Le
problème aussi, c'est que si on veut des cibles homogènes, on va descendre à un niveau de
spécialisation tel qu'il n'y aura plus 25 cibles mais 350 et ce ne sera plus viable.
On peut d'ailleurs se poser la question si le ciblage par âge, par sexe, par catégorie
socio-professionnelle ou par habitat est le bon découpage de la population. En matière de
programmation télévisuelle, ce n'est pas évident. Les cibles correspondent aux catégories de
population auquel un annonceur s'intéresse. Celui qui vend des produits d'alimentation ou
d'entretien dans les supermarchés est intéressé par les foyers où il y a beaucoup d'enfants,
où l'on consomme beaucoup de yaourts, de biscuits et de produits d'entretiens. C'est assez
grossier, assez rustique. Mais une trop grande sophistication serait inutile. Il faut bien
comprendre que ce sont des outils d'aide à la décision des publicitaires et qu'il n'y a pas la
recherche d'une représentation absolument exacte de la société française.

Quels que soient les biais qui existent, la mesure d'audience télévision est celle qui
mesure le plus finement les comportements des individus, si on compare avec celle de la
radio, de la presse magazine. Ce qui n'empêche pas de la contester, de s'interroger sur la
pertinence des cibles, sur le comportement des panélistes. Ce qui n'empêche pas de rêver à
une mesure totalement passive où il n'y aurait plus l'obligation du bouton-poussoir. On
l'améliore déjà en faisant évoluer le panel pour suivre l'augmentation du nombre des foyers
qui reçoivent l'offre élargie, par câble ou satellite. En même temps, l'instrument doit garder
une certaine stabilité pour permettre la comparaison.
La courbe que l'on obtient avec le médiamat, qui mesure seconde après seconde l'écoute
de chaque chaîne, est d'une certaine manière abstraite, artificielle, puisqu'elle prend en
compte des départs et des arrivées. Un chiffre moyen de 10 millions de téléspectateurs, c'est
beaucoup plus complexe que cela paraît, c'est le produit de ceux qui sont arrivés, restés et
partis. C'est une moyenne des audiences instantanées, c'est-à-dire une totale abstraction. J'en
reviens toujours au malheureux qui s'est noyé dans la rivière qui faisant 0, 80 mètre de
profondeur moyenne mais qui est tombé sur un endroit où il y avait 3 mètres de fond.
La somme des données fournies par le médiamat est considérable, avec la courbe
détaillée sur 24 cibles. On est loin de les utiliser toutes. On fait un focus détaillé sur les
mouvements d'audience quand on a une nouvelle émission, ou une émission qui commence
à avoir de moins bons résultats, ou quand un nouveau programme arrive chez le concurrent,
ce n'est pas un instrument que l'on utilise de manière permanente et exhaustive.
Quand vous voyez la batterie de chiffres qui sont disponibles, tout ce que je peux savoir
sur le public des Veux de l'amour3 (chiffres par cibles, historique, etc. ), la somme colossale
d'informations, c'est totalement inutilisable. On l'utilise de façon assez rustique. C'est

HERMÈS 37, 2003 111


Entretien avec Etienne Mougeotte

seulement quand on cherche quelque chose, quand on voudra travailler sur les Feux de
l'amour, dont l'audience est déclinante, on pourra essayer de comprendre ce qui s'est passé
depuis deux ans, sur les femmes, sur les femmes de moins de 50 ans. Et là, on a un outil
statistique monstrueusement sophistiqué.
On fait aussi des études qualitatives sur les nouvelles émissions, sur les animateurs, sur
les publics. Et on utilise aussi ce qui est disponible sur le marché, comme les études du
Crédoc4. Quand une étude confirme ce que vous pensez, c'est rassurant. C'est utile pour
saisir des climats, des tendances un peu lourdes, mais cela s'arrête là. Cela ne détermine pas
ce qu'il convient de faire. Il y a un équilibre entre un certain nombre d'informations qu'on
recueille et ensuite, l'intuition, le produit de l'expérience. C'est un mélange de tout ça. C'est
quand même très artisanal.

Question: Est-ce qu'un des problèmes essentiels de TFl n'est pas le renouvellement de
la grille ? Ayant une forte obligation de résultat, n'êtes-vous pas contraints à minimiser la prise
de risque, ce qui est contradictoire avec l'innovation ?

Il n'y a aucun renouvellement possible sans prise de risque. Si on ne prend pas de


risque, on ne change rien, et donc on meurt. Mais là, la mesure d'audience est d'une faible
utilité; elle permet de voir ce qui a bien (ou mal) fonctionné dans la dernière période, chez
nous, chez les autres; elle aide à se former un jugement. Mais cela ne va pas au-delà, cela
n'aide pas à concevoir quelque chose. Par contre, elle est décisive pour mesurer le degré
d'usure d'une émission, pour retracer l'historique, et notamment pour voir les tendances
lourdes. Il y a une règle: quand la descente arrive, elle est d'abord régulière puis ensuite elle
s'accélère. La difficulté est toujours de savoir à quel moment il faut arrêter. Il faut bien
savoir que quand on arrête une émission, on mécontente tous ceux qui la regardent encore
avec plaisir. La décision d'arrêter une émission qui est là depuis longtemps, mais qui perd
de l'audience, est une décision lourde, difficile. Je ne sais jamais si ce que je vais mettre va
mieux marcher et si je ne vais pas cumuler deux inconvénients, perdre ceux qui regardaient
la précédente et ne pas plaire à ceux qui sont ailleurs ou avaient cessé de regarder.
Il y a trois jours, Pierre Palmade est venu me voir pour me proposer une idée d'un
programme qu'il appelle Ma mère est une femme, où il jouerait son propre rôle et Sylvie Joly
celui de sa mère, en petits sketches de 3/4 minutes. J'ai trouvé cette idée très intéressante, mais
je lui ai demandé de plutôt essayer de travailler dans l'hypothèse d'une sitcom de 26 minutes.
Un gars, une fille. Caméra café5 marchent très bien, mais ce n'est pas ce que je cherche, parce
que j'aurais un programme d'un coût élevé qui ne remplacerait pas un autre programme et qui
représenterait une dépense supplémentaire. Si on parvient à un produit de 26 mn, cela va
coûter plus cher, mais si on réussit, ce sera plus rentable en recettes, en image, en innovation.
J'espère que Palmade va réussir, il a incontestablement le talent pour le faire, après il faut tenir

112 HERMÈS 37, 2003


La loi d'airain du médiamat

sur la durée, il a tellement de cordes à son arc (théâtre, etc. ), il est très sollicité. Et le succès
repose sur lui. On ne peut pas se dire qu'on va démarrer avec lui, mais qu'il peut partir au
bout d'un moment. On n'arrivera pas à le faire sans Palmade, on a besoin de lui.

Question: Dans un mouvement général de diversification des recettes, avec des


émissions comme Loft Story sur M6 ou Star Academy chez vous, qui génèrent des recettes
extrapublicitaires, peut-on imaginer qu'un jour on puisse programmer une émission pour
d'autres considérations socio-économiques que son résultat d'audience ?

Je me suis fixé la règle, en tout cas aujourd'hui, selon laquelle toute émission qui est
mise à l'antenne a pour vocation première, et absolument prioritaire, d'obtenir un résultat
d'audience et donc, une recette de publicité. Que, par ailleurs, cette émission par sa nature
permette de faire des recettes supplémentaires (téléphone6, disques, droits dérivés divers),
très bien, je prends, cela fait de la marge supplémentaire. Mais je pense que le jour où on
déciderait de mettre à l'antenne une émission, d'abord pour les recettes supplémentaires
engendrées, on prendrait un risque absolument monstrueux. C'est une de mes
responsabilités de toujours dire: «Ne faisons jamais un programme en considérant qu'il va
produire des recettes diversifiées. » Cela n'empêche pas d'avoir la préoccupation de ce type
de recettes, mais sans que cela prenne la priorité. Si on inverse la priorité, on met le doigt
dans un engrenage fatal, et même suicidaire.

Question: Quand on regarde l'audience des matchs de football de la Ligue des


champions, on voit bien que vous avez un problème. En même temps, vous êtes tenu par un
contrat pluri-annuel N'est-ce pas un dilemme ?

L'enjeu est double. Il y a d'abord le statut de la chaîne, qui fait qu'on n'abandonne pas
comme ça la Ligue des champions, qui partirait alors sur une chaîne concurrente. Même si
les résultats d'audience sont décevants depuis deux ou trois ans, ce n'est pas souhaitable.
Ensuite, on est aujourd'hui dans le creux de la vague, mais rien ne nous dit que, dans un an
ou deux, Lyon ou Marseille, ou même le PSG, n'aura pas une grande équipe européenne et,
tout-à-coup, cela ferait des audiences formidables. Quand on conjugue ces deux arguments,
et quand on ajoute que la Ligue des champions va changer de formule l'année prochaine,
avoir une formule beaucoup plus attrayante, cela nous amène à vouloir négocier pour la
garder. Mais c'est très cher, c'est trop cher par rapport à la recette, et donc on est prêt à
essayer de la garder à condition de la payer moins cher. C'est l'objet de la négociation
actuelle. On a réussi pour la Formule 1, on a diminué le prix de moitié; là aussi, il faut qu'on
parvienne à 30 ou 4 0 % de baisse, je ne suis pas sûr qu'on y arrivera. On ne peut pas
abandonner un produit comme ça, à cause du statut de la chaîne.

HERMÈS 37, 2003 113


Entretien avec Etienne Mougeotte

On peut faire le parallèle avec le cinéma, où on sait bien qu'il y a seulement 40 ou


50 films qui peuvent réaliser des audiences fortes. Au prime time, on commence à diminuer
le nombre de films, en deçà du quota des 104. Certains mardis, on programme une émission
de variétés à la place du film de cinéma. On est touché par l'usure du film français, dès lors
qu'il faut programmer 60 % de films français (théoriquement européens). C'est la limite des
obligations. La règle des 60/407, c'est très bien, mais les films français s'usent beaucoup plus
vite.

Question: Comment se redéfinit une grande chaîne généraliste au moment où se


développe le paysage de complément ?

À partir du moment où il y a une offre de plus en plus importante de chaînes


thématiques ou ciblées, il faut que nous gardions le plus possible notre vocation de chaîne
généraliste. La spécificité d'une chaîne généraliste c'est la place importante accordée au
direct et à l'événement. L'information garde une part importante sur la chaîne. Cela nous
incite aussi à créer ou retransmettre le plus possible d'événements, à faire une télévision
interactive, nous distinguant des chaînes qui sont un peu des robinets à images. Il y a deux
manières de considérer la fiction: elle peut être très événementielle, mais c'est relativement
rare et très cher, et puis elle est identitaire de la chaîne comme Julie Lescaut, Navarro,
Cordier (L'Instit pour France 2). Ce serait d'ailleurs un problème de retrouver un jour
Navarro ou Julie Lescaut en 5 e diffusion sur une chaîne du câble. L'identification de ces
héros à TF1 pourrait alors se dissoudre.
On est dans la position du leader, qui défend bec et ongles son leadership, même si les
conditions du marché évoluent et que ce leadership ne sera pas tout à fait le même dans
quelques années. Mon objectif, ma volonté, ma posture, c'est une posture de leader. Il peut
être plus difficile de faire 3 0 % de part d'audience aujourd'hui, dans l'univers de
concurrence actuel, que 38 % il y a dix ans quand il n'y avait pas d'offre élargie. Et dans
quelques années, il sera peut-être tout aussi difficile de faire 25 % comme le font environ la
BBC ou ITV aujourd'hui.

NOTES

1. L'émission de divertissement Les Niouzes, animée par Laurent RUQUIER, a été diffusée du lundi 28 août au
vendredi 1er septembre 1995, à 19h20. Sa part d'audience sur les téléspectateurs de 4 ans et plus est passée
de 23, 1 % le lundi à 17, 4 % le vendredi, à comparer avec la part d'audience globale de la chaîne qui était de
37, 3 % sur l'année 1995.

114 HERMÈS 37, 2003


La loi d'airain du médiamat

2. CSP Plus: regroupement des catégories socio-professionnelles supérieures, comprenant celle des artisans,
commerçants et chefs d'entreprise, celle des cadres et professions intellectuelles supérieures et celle des
professions intermédiaires, selon la nomenclature de l'INSEE.
3. Les Feux de l'amour: feuilleton nord-américain diffusé tous les jours de semaine sur TF1 à 14h 10.
4. Crédoc: Centre de recherche pour l'étude et l'observation des conditions de vie.
5. Un Gars, une fille et Caméra café sont des sitcoms (comédies de situation) d'un format nouveau (épisodes de
6/7 minutes), la première programmée vers 19h50 sur France 2 (depuis octobre 1999), et la seconde sur M6
vers 20 h 45 (depuis septembre 2001).
6. Les appels téléphoniques et SMS générés par certaines émissions comme Loft Story ou Star Academy, surtaxés,
donnent lieu à un partage des recettes entre l'opérateur téléphonique France Télécom, la chaîne et le
producteur.
7. Les œuvres cinématographiques diffusées par les chaînes de télévision doivent pour 6 0 % minimum être
originaires d'États membres de la CEE et pour 4 0 % minimum être d'expression originale française (EOF).
Étant donnée la faiblesse de la production des autres pays européens, cette règle revient pour les chaînes à
respecter un quota de presque 60 % de films français. Il existe par ailleurs un plafonnement du nombre de
films diffusés, avec notamment un maximum de 104 films diffusés entre 20h30 et 22h30.

HERMÈS 37, 2003 115


Entretien avec Jean-Pierre Cottet
France 3

IL N'Y A PAS DE SERVICE PUBLIC


SANS PUBLIC

Propos recueillis par Régine Chaniac et Jean-Pierre Jézéquel le 19 février 2003.

Question: Vous avez été successivement directeur de l'antenne et des programmes de


France 3 (à partir de fin 1993), directeur général en charge de l'antenne de France 2 (juin 1996)
et, depuis septembre 2000, vous dirigez France 5. Cela vous donne un parcours unique en
matière de télévision publique. A travers cette expérience de trois chaînes publiques bien
différentes, comment dessineriez-vous le lien entre mesure d'audience et décisions de
programme ?

Votre question est au centre de la complexité du service public. Elle est souvent posée
avec l'a priori pessimiste que qualité des programmes et force de l'audience s'excluent. En
fait, je la formulerais ainsi: «Est-ce que l'Etat actionnaire est préoccupé par la mesure
d'audience? Est-ce que les conseils d'administration sont préoccupés par le résultat
quantitatif des programmes de la télévision publique, soucieux du rendement social de
l'investissement?» Et je répondrais oui. Au fil des années, je n'ai pas connu de tutelle qui
ne fasse pas attention aux scores d'audience. Les tutelles publiques attendent de nous que
nous obtenions les meilleurs résultats quantitatifs et qualitatifs, eu égard à l'importance des
investissements publics dans le secteur. Cette décision n'est pas laissée au libre-arbitre des
directeurs des antennes. Il apparaît naturel que le gouvernement et les élus, principaux
responsables des chaînes publiques, représentants des citoyens, exigent de ces entreprises
qu'elles soient socialement rentables et, donc, que les programmes soient vus par le plus

HERMÈS 37, 2003 117


Entretien avec Jean-Pierre Cottet

grand nombre. Il n'y a pas de service public sans public. C'est une pression qui n'est pas
violente mais, quand l'audience d'une chaîne publique chute de manière sensible, les
premiers à s'en préoccuper, et légitimement, sont les tutelles et l'opinion publique.
L'audience est un critère important et il y a même une fierté des salariés de ces entreprises
à afficher de bons résultats: c'est la reconnaissance de ceux pour qui nous travaillons. Les
chaînes sont utiles quand elles font éclore les talents et l'importance du service se mesure
par la fréquentation.

Question: Etant donnée cette préoccupation de toucher le public le plus large possible,
qu'est-ce qui différencie une chaîne publique d'une chaîne commerciale ?

Les objectifs de l'Etat sont exprimés de façon explicite, à travers des cahiers des
missions et des charges qui sont la colonne vertébrale des chaînes publiques. Dans le
dispositif de régulation, s'est ajouté aujourd'hui un outil supplémentaire qui est le Contrat
d'Objectifs et de Moyens, plus précis dans les résultats à atteindre. La responsabilité des
patrons des chaînes les conduit à une lecture attentive de ces textes qui laissent une part
importante d'initiatives et d'interprétations. Ce ne sont pas des diktats. Ils communiquent
un état d'esprit, une ligne éditoriale, à charge pour les responsables des chaînes de s'en
imprégner et de concevoir grilles et programmes. Ils sont en général le produit d'une
concertation, parfois d'une négociation entre les dirigeants des chaînes publiques et les
services de l'Etat qui représentent les tutelles. Ces textes traduisent le point de vue des élus
sur le rôle de la télévision publique. Il peut être fait reproche à une émission ou à une autre
de ne pas refléter fidèlement l'esprit du texte mais globalement les grilles sont la mise en
musique de la partition juridique.
Les orientations de la 2, de la 3 et de la 5 sont complémentaires et on ne peut
comprendre le paysage audiovisuel public ou les choix éditoriaux de chaque chaîne
publique que si on considère la cohérence du tout. Les trois chaînes de France Télévisions
et Arte sont les pièces d'un même puzzle. Chacune doit occuper sa place et il ne faut pas
attendre de l'une ce que doit faire l'autre. On ne peut donc exiger les mêmes résultats
d'audience de chaînes dont les rôles sont parfois aussi différents, mais aucune n'est
exonérée du résultat optimal. Je crois que les résultats d'audience parfois très modestes de
certains programmes ne sont acceptables que parce que les émissions du groupe public
réunissent tous les jours 4 0 % des téléspectateurs. Cette consommation de masse est
essentielle à la bonne santé du secteur public.
En bref, pour construire les grilles, les responsables des chaînes publiques doivent
coller aux missions qui leur sont confiées, concevoir des programmes en complémentarité
avec ceux des autres chaînes publiques et, sur ces bases, rechercher la plus forte audience.
Le directeur de l'antenne est l'exécutant plus ou moins talentueux d'une volonté collective.

118 HERMÈS 37, 2003


Il n'y a pas de service public sans public

Question: A travers tout ce que vous dites, il apparaît que ce n'est pas le résultat
d'audience qui vous permet de choisir, d'arrêter telle émission, d'en essayer telle autre. Et en
même temps, vous insistez sur l'importance du résultat d'audience. N'y a-t-il pas là un
paradoxe ?

Je crois que ce métier est beaucoup plus difficile à exercer dans le public que dans le
privé. On gère des paradoxes. Il faut savoir faire danser l'eau avec le feu.
L'audience est une récompense, être vu par le plus grand nombre procure un sentiment
de jubilation. La programmation est un acte généreux, attentif aux autres. Il faut offrir. On
ne peut pas penser à la place du public, je déteste les formules qui donnent à croire que le
public serait une masse grégaire aux réactions répétitives et prévisibles et qu'un
programmateur serait la pythonisse électronique destinée à guider les décisions. Les
entreprises en général, et en particulier les entreprises de communication, pour s'épanouir,
doivent produire du sens. La gestion et la programmation peuvent souffrir des mêmes
symptômes, une sorte d'insuffisance respiratoire. Les ficelles, les trucs, les astuces de
programmation ne conduisent pas bien loin. Une grille besogneuse, roublarde ou
pusillanime évite parfois le pire, mais ne provoque pas le meilleur. Certains programmes
sont caricaturaux, c'est l'addition de pièges à audience; elle est parfois au rendez-vous, mais
ces émissions sont comme les malheureux clones de brebis, elles ne vivent pas longtemps.
En contrepartie de ce refus des recettes, il faut savoir digérer l'échec pour avoir le
courage de faire. C'est un métier de prise de risque et on ne peut pas rechercher l'audience
a priori sous peine de la faire fuir, le racolage passe rarement la rampe.
Si une grille doit être au service d'un projet ambitieux et lisible, elle nécessite aussi des
petits gestes régulateurs, des mesures de réajustements, des adaptations faites dans la
précipitation, une sorte de travail de marqueterie pour la finesse du geste et de plombier en
cas de fuite.

Par exemple, sur France 3 début 1994, nous avons bien sûr d'abord lu les textes qui
fixent la règle du jeu mais nous avons aussi pris en compte l'existence d'un important outil
technique de production et pour définir la relation particulière de la chaîne avec le public,
nous avons énoncé un couple de mots qui a ensuite fait florès: la proximité et la curiosité.
Dans son rôle d'accompagnement et de proximité culturelle et géographique, France 3
devait en effet développer une relation douce avec le public avec des liens affectifs forts. Il
apparaissait évident que des émissions tapageuses, comme l'élection de Miss France ou La
Classe, ne correspondaient pas à l'identité de la chaîne. Nous les avons arrêtées malgré les
inquiétudes de l'entourage qui craignait la disparition de ces deux gisements d'audience. Si
Miss France s'était trouvée sur France 2, j'aurais peut-être agi différemment, mais ce n'était
pas la couleur de France 3. En ce qui concerne La Classe, nous n'avions rien sous la main

HERMÈS 37, 2003 119


Entretien avec Jean-Pierre Cottet

pour remplacer l'émission. Nous avons donc programmé un dessin animé, pendant une
demi-saison. Il a obtenu un faible résultat. L'auditoire de ce type de programme est étroit
pour cet horaire. Mais le succès d'estime a compensé le problème d'audience. En effet, nous
avons remplacé une émission encore robuste en audience par une offre unique pour les
enfants. Ceux qui jouent aux échecs savent que le gambit, quand il marche, est une
manœuvre jubilaire.
Dans le même mouvement, nous avons lancé Un Siècle d'Écrivains, c'est-à-dire une série
documentaire de 260 épisodes d'une heure sur 5 ans. Nous pensions que, pour promouvoir
la lecture, il fallait faire aimer les écrivains et qu'en montrant la vie, on pourrait faire aimer
les livres. C'était une utopie un peu provocatrice, mais j'avoue que nous avions un espoir sur
le résultat de la programmation. Hélas, certains écrivains ont bien marché, beaucoup non.
Mais quel beau symbole pour France 3, la grande chaîne du documentaire ambitieux !
Nous avons aussi massivement renforcé l'offre de programmes pour la jeunesse,
spécialement à destination des tout-petits, ce qui a contribué à encore améliorer la qualité
de l'offre de la chaîne et, bien évidemment, à rajeunir son public.
La question de la fiction était aussi essentielle. France 3 n'apportait alors que des
investissements complémentaires. Il fallait qu'elle se fasse entendre, qu'elle ait sa propre
ligne de production. Nous avons donc annoncé que nous allions produire moins, mais que
nous produirions mieux. Les syndicats de producteurs ont accepté la proposition. Au lieu
d'émietter nos financements en seconde voire troisième position sur des téléfilms dont la
ligne éditoriale était conçue ailleurs, nous avons décidé d'investir avec plus de discernement,
en limitant le nombre de films financés et en donnant l'argent suffisant pour impulser de
nouveaux projets et permettre aux producteurs d'exercer leur savoir-faire dans de
meilleures conditions. Nous pouvions ainsi faire des choix et imposer nos orientations.
Comme France 3 dispose d'équipes de tournage en régions, nous avons imaginé une
nouvelle ligne de développement qui rassemblait nos préoccupations économiques et
éditoriales: «la fiction de terroir». Pas de flics, pas de gyrophares, mais des héros
provinciaux de la vie civile, dans les campagnes et les petites villes..., le succès a été tel
qu'aujourd'hui c'est devenu un running gag !
La grille de France 3 était un peu hypotonique, il fallait lui donner des couleurs et des
contrastes. On a fait aussi un travail d'horloger, une besogne d'artisan, en prenant des
décisions parfois sans grand prestige mais néanmoins efficaces sur le plan de la gestion
comme, par exemple, l'installation de deux Derrick le dimanche soir. La série européenne a
permis, à moindres frais, de doubler l'audience du dimanche soir et à la chaîne d'exister face
aux films de TFl et France 2. En renforçant l'image, la qualité des programmes, en veillant
à contrôler l'évolution des coûts de grille et en affirmant la personnalité de France 3, nous
avons, en 2 ans, provoqué la plus forte progression de son histoire, en passant de 14, 6 % de
part d'audience à 17, 7 %. Le résultat quantitatif a récompensé la volonté qualitative.

120 HERMÈS 37, 2003


Il n'y a pas de service public sans public

Une chaîne n'est pas un terrain vierge et ne se soumet pas à tous les projets. Elle est
corsetée dans un cadre légal, elle repose sur un gisement de public, elle dispose de structures
techniques spécifiques et ses équipes forment une personnalité collective. En bref, une chaîne
a une histoire qu'il faut connaître, aimer et respecter pour permettre un changement sans
déperdition. Il faut de l'humilité et une capacité d'écoute et d'enthousiasme. La marge de
manœuvre est essentiellement déterminée par l'existant. Il n'y a pas de génies providentiels.
Les dirigeants de TFl ont eu l'habileté de garder la chaîne, une fois privatisée, sur le gisement
de la télévision publique. Ils ont su positionner la, chaîne commerciale en valorisant son image
précédente. D'ailleurs l'origine du malaise de la société française à l'égard de France 2, est en
partie liée à ce trouble schizoide que jette TFl, privée-publique, dans le paysage national.

Pour France 2 aussi, la mission est claire. Il m'arrive de dire en plaisantant que la télévision
a deux fonctions essentielles: vider et remplir la tête. Il y a mille façons de purger et remplir qui
vont de l'élégant au crapuleux. Mais faire oublier, c'est un joli rôle, un beau métier, c'est la
fonction extatique de la télévision. Aider à faire voyager dans la tête, à oublier les soucis, les
tracas, à rire et à s'émouvoir. C'est tout le projet du spectacle. La télévision publique a un rôle
essentiel dans le domaine de la distraction, elle ne doit pas être confinée aux missions de service
ou aux tâches d'apprentissage. Elle ne peut être cantonnée à des fonctions subsidiaires, à faire
ce que le privé ne souhaite pas faire car il estime que certains types de programmes ne sont pas
rentables. Le divertissement, pour le plus grand bénéfice des téléspectateurs, doit être soumis
à la concurrence privé/public. C'est aussi dans cet affrontement que la télévision publique doit
manifester le plus de personnalité, d'inventivité et d'audace et c'est là que le métier public est
le plus dur à exercer car c'est là aussi que l'image est la plus floue et les critiques les plus
violentes. Il y a beaucoup à faire et il faut encourager la prise de risque et accepter l'échec ou
la transgression. Je suis convaincu qu'il n'y a pas de création sans transgression ni iconoclasme,
sans au moins bousculer les habitudes, les idées acquises.
France 2 remplit la tête quand elle nourrit l'opinion par les magazines, les débats ou les
rendez-vous d'information, elle divertit aussi, elle nourrit l'émotion et les rêves: L'Instit,
Napoléon, etc.
J'ai un jour entendu Umberto Ecco dire: «La télévision cultive ceux qui ont un métier
abrutissant, tant pis si elle abrutit ceux qui ont un métier cultivant. » J'adhère sans nuance
à ce propos.
J'ai été privé du confort des résultats de France 3 et parachuté à France 2 en
juillet 1996, à la demande du nouveau Président, dans une situation de crise car la chaîne
était en conflit avec ses animateurs producteurs. Il a fallu bâtir la grille dans des conditions
acrobatiques et faire en 6 semaines ce qui se fait d'habitude en un an. C'était de la chirurgie
de champs de bataille, je crois que nous avons préservé l'essentiel mais je n'ai connu à
France 2 que le temps de la cicatrisation.

HERMÈS 37, 2003 121


Entretien avec Jean-Pierre Cottet

Pour rester dans la métaphore médicale, il faut rappeler que c'est dans ces conditions
que nous avons programmé Urgences pour la première fois en première partie de soirée, il
y a maintenant 7 ans et ça dure encore aujourd'hui ! Les meilleures décisions sont parfois
celles qui n'ont pas le temps de mûrir.
D'ailleurs, à France 2 nous avons essentiellement travaillé sur la place de la fiction.
Notre équipe a pris des initiatives qui ont eu des bonheurs différents. Par exemple, la
programmation du Grand Bâtre le dimanche soir à la place du film a été un échec et a fait
couler un peu d'encre et des flots de salive. Je revendique par contre la victoire des
52 minutes. Le succès d'Urgences a contribué à me convaincre de l'intérêt de produire des
52 minutes pour la soirée, ce que ne faisait aucune chaîne française. Nous avons dû lutter
contre toutes les résistances, à l'extérieur comme à l'intérieur de la chaîne, pour imposer ces
nouveaux formats d'une heure.
Je ne pensais pas qu'une initiative qui m'apparaissait évidente puisse susciter de telles
passions. Pourtant, il était flagrant que la seule façon de donner de la force aux fictions
françaises dans ce format était de leur attribuer les moyens financiers accordés aux oeuvres
de premières parties de soirée. Jusque-là, les séries d'une heure n'étaient programmées
qu'aux alentours de 18 heures et ne jouissaient que du maigre budget alloué à ces tranches
horaires. La qualité de création s'en ressentait forcément. Il fallait donc avoir le courage de
limiter les formats de 90 ou 100 minutes hérités du cinéma pour recomposer des premières
parties de soirée plus souples basées sur des formats d'une heure.
Aujourd'hui, ces séries sont un des points forts de la grille de France 2, le public y est
plus jeune et plus important que sur les autres types de fiction. J'ai appris, ces jours-ci, que
les autres chaînes notamment privées s'étaient maintenant lancées dans l'aventure du
52 minutes de «prime time». C'est une bonne nouvelle pour l'industrie française des
programmes. En effet, de telles décisions peuvent apparaître secondaires, mais elles ont
pourtant des conséquences économiques et culturelles très importantes. Grâce à ce
chantier ouvert par France 2, les auteurs, les producteurs, les comédiens français ont pu
révéler leur compétence et nos séries longues en format d'une heure partent à
l'exportation.
L'étape suivante aurait été la programmation à 20h50 de séries courtes (26 minutes). Il
faut aussi donner aux sitcoms les moyens financiers qui permettent de faire appel aux
comédiens, aux réalisateurs les plus talentueux. La fiction a besoin de temps pour être
conçue, pour être tournée. Il faut pouvoir assumer le coût de l'expérimentation, des essais,
des pilotes, et favoriser l'émergence de nouveaux talents. Je crois qu'il faut pour ça se
rapprocher du monde du théâtre.
Une telle politique de création nécessite une forte capacité d'investissement. Seuls les
budgets de la première partie de soirée et l'importance du public à ces heures permettent
de soutenir le poids de l'effort.

122 HERMÈS 37, 2003


Il n'y a pas de service public sans public

Je n'ai pas pu franchir les obstacles et vaincre les résistances, je n'ai peut-être pas été
assez convaincant, j'ai un peu manqué de temps. La rotation des dirigeants des chaînes
publiques est un facteur d'affaiblissement. Les savoirs ne s'élaborent pas et ne se
transmettent pas. Ce sont des entreprises un peu amnésiques. Le successeur s'empresse
souvent d'effacer les traces du prédécesseur.
Je demeure persuadé que la télévision doit faire de la télévision, notamment en matière
de fiction. Il est urgent qu'elle arrête de singer le cinéma. Que chacun fasse son métier et
tout ira mieux. L'énergie principale de la télévision est dans «le direct» et dans le «à
suivre». C'est une force qui permet le pire et le meilleur. C'est d'un côté Loft Story, une
poignée de jeunes gens dont on suit l'ennui, en direct, et d'un autre côté 24 heures Chrono,
Friends, Un gars, une fille... Il est agaçant que les principales références de formats courts
soient encore américaines ou australiennes ou des formats exportés et revisités en France.
Pendant l'été 1997, nous avons programmé trois épisodes de Friends en première partie
de soirée. Nous avions envoyé une équipe aux Etats-Unis pour suivre les tournages et nous
avions, alors, consacré une soirée complète à la série. Le résultat était prometteur. Je regrette
de ne pas avoir pu poursuivre ce type d'expérience avec des talents français.

Les créateurs fourmillent d'idées, mais, pour leur donner corps, il faut faire de la place
dans les grilles et le plus difficile est souvent de savoir, ou pouvoir, arrêter une émission
existante. Cette difficulté conduit parfois à un immobilisme délétère. Les tensions
économiques ou égotiques sont parfois tellement violentes que la tentation de ne pas bouger
est permanente. Il faut aussi témoigner du respect à l'égard de ceux qui font ces métiers
fragiles et dont l'avenir dépend de la décision de la chaîne de faire ou pas une émission. La
vitalité des grilles et de la création est donc liée au courage du programmateur, à sa capacité
à résister aux pressions, à rompre avec les habitudes, les émissions trop longtemps installées
et les contrats répétitifs. C'est un métier dur, très dur.
Une grille qui marche bien est un piège potentiel. La trop longue stabilité provoque
paradoxalement des effondrements d'image et d'audience brutaux. Le dosage du
renouvellement est un art qui doit conjuguer intuitions et audace. En ce sens les
directeurs d'antenne sont aussi des créatifs qu'il faut agiter ! On est rarement intelligent
tout seul, la gestion d'une grille est un travail collectif, un échange et un mélange de
sensibilité.
À France 3, tous ces problèmes sont démultipliés car nous ne disposons que d'une
demi-chaîne. Les questions d'arrêt et de création de nouveaux programmes sont rapidement
insolubles.

Question: Vous raisonnez beaucoup en termes de cibles et, pourtant, la télévision n'(est-
elle pas un média grand public qui cible peu ?

HERMÈS 37, 2003 123


Entretien avec Jean-Pierre Cottet

Derrière ce terme un peu militaire, il y a un problème sociologique réel, c'est le


déséquilibre des populations jeunes dans les structures d'audience de la télévision publique.
Il semblerait que la volonté de donner du contenu aux programmes fasse fuir les plus
jeunes. Je crois en effet que si on n'y prend garde, la culture agit comme un filtre, comme
un système de codage. Dès que le niveau culturel d'un programme s'élève, l'âge de
l'auditoire augmente ! Ceux qui regardent sont ceux qui ont les clés de décodage. C'est un
vrai problème politique. Le grand œuvre en matière de télévision publique, c'est la
résolution de l'équation qui permettra d'attirer les jeunes et les jeunes adultes avec des
émissions de contenu. C'est notre travail, essayer de partager du savoir. La notion de cible
n'est que l'expression de la prise en compte de cet écart entre jeunes et moins jeunes. C'est
une ligne de démarcation préoccupante. Si on souhaite que la télévision publique contribue
à nourrir les liens sociaux et favorise la vie collective, notamment entre les générations, il
faut que toutes les tranches d'âges soient représentées devant nos écrans et ce n'est surtout
pas en niant la mesure de cette réalité qu'on règlera le problème. La tentation est toujours
forte de casser les thermomètres quand ils révèlent les dysfonctionnements. Notre équipe a
plutôt tendance à multiplier les indicateurs pour surveiller l'évolution du phénomène et le
traiter efficacement.
Doit-on renoncer à rajeunir l'audience ? Certains sont irrités par la démarche et n'y
voient qu'un jeunisme un peu névrotique, d'autres pensent que la télévision est un média
vieillissant, qu'il faut l'admettre, que les jeunes ont autre chose à faire, que les seniors nés
du baby-boom sont puissants et riches et qu'ils sont le public captif de la télévision
traditionnelle. Est-ce que cette télévision n'a pas été faite par eux et finalement pour eux ?
C'est-à-dire pour les gens stabilisés, mieux intégrés socialement ? Ainsi la télévision serait un
cercle nostalgique. Les plus âgés reviennent y voir des choses qu'ils savent, qu'ils ont vécues,
dont ils viennent vérifier l'importance. C'est le bonheur de revenir sur la vie avec un angle
différent, un recul, une explication. La suite du grand feuilleton individuel et interactif de
l'existence. La question mérite d'être posée, mais le propos ne nous convainc pas.
Nous essayons donc d'endiguer la tendance. Comment rajeunir une antenne sans
bêtifier ? Nous ne sommes pas contraints au pire. Il y a des pistes. Par exemple sur France
5 on essaie de produire des documentaires pédagogiques, réactifs, peu importe le style ! Ce
qui importe, c'est que ce soit généreux, lisible, avec un contenu linéaire qui permette
d'expliquer. Je préfère un document maladroit, mais fort en contenu et lisible, qu'un
document esthétique et hermétique. La recherche formelle est tout à fait honorable, mais ce
n'est pas la priorité. La démarche est toute différente. Comment faire pour amener devant
des programmes, qui apportent un petit quelque chose à la vie de tous les jours, des gens
dont on peut penser qu'ils y ont intérêt ?
Une autre réponse à ce problème est de ne plus travailler sur un seul écran, placer la
télévision au centre d'un système de réseaux (Internet, SMS, etc. ), avec toutes les

124 HERMÈS 37, 2003


Il n'y a pas de service public sans public

déclinaisons possibles. Permettre le partage de la parole, le détournement du système. Ainsi


on est en train de concevoir un studio interactif relié à des réseaux ADSL, et à des
ordinateurs équipés de Webcams. Le premier noyau composé d'une centaine d'ordinateurs,
appelé Le club, doit servir de masse critique au centre d'un réseau qui, sans cesse, est appelé
à s'élargir.
On peut aussi offrir des services ciblés, veiller à faire une télévision utile à ceux dont
on souhaite attirer l'attention. Commençons par être attentif à leurs besoins, on peut ensuite
imaginer qu'ils seront attentifs à nous.
C'est ainsi que nous avons conçu les Maternelles, magazine diffusé le matin, pendant
une heure et demie, à l'heure où les femmes sont présentes, parfois un peu socialement
isolées, du fait de leur statut, de leur grossesse ou de leur maternité. On parle des règles
d'hygiène, de nutrition, du développement de l'enfant, de l'école, des lois, de la vie de
couple, etc. Nous abordons des sujets graves, tendres, simples ou complexes et il y a
beaucoup de femmes jeunes qui regardent, qui se relaient, il y a un phénomène de bouche-
à-oreille, les sujets sont repris sur Internet, avec des bibliographies, avec les bonnes adresses.
Cela a créé un petit mouvement qui contribue à féminiser le public de France 5. Il m'arrive
de penser que le rajeunissement est un corollaire de la féminisation. La télévision est
d'autant plus regardée qu'elle véhicule des valeurs féminines. La télévision est une femme.
Je ne sais pas encore pourquoi mais j'en suis convaincu.
Nous avons mille idées comme cela, pour peu qu'il y ait un peu d'espace, d'argent,
d'envie de faire et c'est le cas à France 5.
Pour les chaînes du service public aussi, le vieillissement de l'auditoire peut avoir des
conséquences sur la commercialisation des espaces publicitaires, et donc sur les recettes.
France 3 est un peu en dehors de ces batailles, mais tous les responsables des chaînes
doivent garder un œil sur ces indicateurs utilisés par le monde de la publicité. L'audience et
la recette publicitaire arrivent quand on a bien fait son travail. Là aussi il y a une hiérarchie
du mouvement.

Question: Feut-on imaginer qu'à terme, France 5 devienne un lieu d'innovation pour
les deux autres ?

Lorsque La Cinquième a été intégrée au groupe France Télévisions, le président l'a


qualifiée de chaîne laboratoire. J'en accepte le terme et la liberté qui va avec, mais je ne crois
pas que l'on puisse contribuer au renouvellement des programmes de nos deux aînées. Ce
que nous faisons n'a de sens que pour cette chaîne. Tout au plus, certaines de nos idées
pourront peut-être être exploitées en étant transposées ailleurs. Mais cela restera marginal.
Comme je le disais en préambule de notre entretien, chaque chaîne a son territoire et ses
objectifs. Nous sommes bien en étant côte à côte.

HERMÈS 37, 2003 125


Éríc Macé
Centre d'analyse et d'intervention sociologiques (Cadis), EHESS, CNRS
Université Paris III, Sorbonne nouvelle

LE CONFORMISME PROVISOIRE
DE LA PROGRAMMATION

Dès lors que la culture n'est pas produite par une institution en situation de monopole
et de pouvoir mais à travers les mécanismes du marché, le principal problème qui se pose
est de savoir ce qui intéresse les gens, ou, tout du moins, de savoir comment les intéresser.
S'agissant de la télévision généraliste, le débat oppose classiquement les défenseurs et les
dénonciateurs de «l'audimat», c'est-à-dire de l'introduction des mesures d'audience dans
les choix de programmation. D'un côté, l'audimat serait une entrave à la créativité des
professionnels et l'expression d'une «tyrannie de la majorité» sur la diversité des attentes
de publics eux-mêmes divers. D'un autre côté, l'audimat permettrait de remettre le public
réel de la télévision (plutôt familial, populaire et féminin) et ses goûts au centre d'une
programmation jusque-là monopolisée par les prétentions «populicultrices» de
professionnels et de «non-publics» (mais prescripteurs de bon goût culturel) de la
télévision.
L'objet de cet article est de montrer que l'audimat n'est pas la chose dont parlent à la
fois ceux qui le défendent et ceux qui le critiquent: d'un côté il ne représente pas le public
et ses goûts, d'un autre côté il n'est pas le facteur central et déterminant de la
programmation. Il est, bien au contraire, une des médiations parmi d'autres qui font de la
culture de masse l'expression d'un conformisme instable, lui-même à la fois nécessairement
l'objet d'une critique sociale généralisé et objet sociologique passionnante

HERMES 37, 2003 127


Éric Macé

L'audience n'est pas le public

L'audience n'est pas une «chose» qu'il s'agirait d'engranger, ni un «public» réel qu'il
suffirait de compter, elle est un construit qui désigne à la fois un processus relationnel
complexe entre les individus et la télévision, et la traduction simplifiée, standardisée et
abstraite de cette relation.
Si on se place du point de vue de «l'audience» mesurée par «l'audimat», il est tout à
fait juste d'en parler comme d'un opérateur de marché. En effet, à la différence des autres
industries, les chaînes de télévision ne vendent pas leurs produits aux consommateurs, mais
vendent leurs consommateurs aux annonceurs publicitaires, en proportion des «parts de
marché» que chaque chaîne occupe dans le partage de l'audience totale de la télévision.
Ceci étant, les mesures d'audience permettent-elles de savoir ce qui intéresse les gens qui
regardent la télévision afin de mieux organiser, voire de mieux «programmer» la réception ?
Rien n'est moins sûr, et il apparaît rapidement que si «l'audience» est un étalon de
transaction efficace sur le marché de l'industrie de la communication, elle est une source
d'information très approximative sur les modes de réception de la télévision. Comme nous
allons le montrer, le rapport entre «l'audience», telle qu'elle est construite par le système
médiatique, et les pratiques sociales « réelles » de la télévision est aussi lâche que le rapport
entre le cours en Bourse des titres d'une entreprise et la «réalité» matérielle,
organisationnelle et humaine de cette entreprise2.
Ce n'est pas ici la représentativité et la fiabilité de la mesure qui est en cause: on ne
connaît pas de pratique sociale qui soit autant mesurée, et dans les règles de l'art statistique,
que l'usage de la télévision. Cependant, pour les programmateurs, les indicateurs
d'audience ainsi collectés ne rendent pas nécessairement compte des «goûts» du public.
D'abord parce que l'audimat ne rend pas compte d'une «demande» d'émissions de
télévision, mais de préférences (sans qu'on sache si elles sont positives ou par défaut) au sein
d'une offre nécessairement limitée. Ce ne sont pas ainsi les «goûts» qui sont mesurés par
les «parts d'audience», mais la rencontre à un moment donné entre un volume limité
d'offre d'émissions, et les formes variables de disponibilité sociales et mentales des individus
du panel Médiamétrie qui se trouvent avoir leur poste allumé à ce moment précis. On peut
ainsi regarder des «bêtises» ou «s'autoriser à être con» sans que cela engage en quoi que
ce soit l'expression de «goûts» personnels, mais tout simplement parce qu'à ce moment
précis la télévision est la seule activité désirable en raison précisément de la licence et du
«relâchement» de l'esprit et des corps qu'elle accorde3. Bien souvent en effet, la télévision
est allumée sans être regardée, comme une radio (télévision de compagnie, automatisme
matinal), regardée en faisant autre chose (tâches domestiques, repas) ou bien regardée sans
intérêt pour ses contenus propres, mais parce qu'elle permet de «décompresser» et de se

128 HERMÈS 37, 2003


Le conformisme provisoire de la programmation

«relâcher» de retour du travail ou de l'école (quitte à s'endormir devant), d'échapper à la


vie familiale (ses mésententes, son ennui) ou à toutes contraintes {zapping en continu). Ceci
relativise radicalement l'idée d'une télévision regardée de façon attentive telle qu'elle est
implicitement contenue dans les indicateurs « d'audience» et les critiques qui lui sont faites:
ainsi, loin d'être ce «bon public» formé de téléspectateurs civiques et rationnels, ou bien ce
public «zombie» fasciné par l'écran, le public de la télévision est un «mauvais public» tout
à la fois distrait, distant, lunatique, passionné, indifférent, critique, et inscrit dans un
contexte domestique, conjugal et familial complexe qui interfère en permanence avec le
poste, les émissions et le choix des programmes (souvent issu d'un compromis au sein du
foyer, ce qui fait que bien souvent une part de «l'audience» ne fait «qu'accompagner»
l'autre part ayant eu - provisoirement - gain de cause)4.
Par ailleurs, «l'audience» d'une émission n'est pas nécessairement liée à son contenu
propre, mais à la chaîne qui la diffuse. C'est ainsi qu'un film diffusé sur une chaîne
dominante aura généralement l'audience moyenne des films diffusés sur cette chaîne, tandis
que le même film diffusé sur une chaîne outsider aura l'audience moyenne des films diffusés
sur cette chaîne. De même, lorsqu'en 1987 la chaîne privée «La 5» a débauché des
animateurs de TFl et leurs concepts d'émission, l'audience de ces mêmes émissions s'est
ajustée à la baisse sur celle de «La 5» 5 . Cet «effet chaîne» est lié pour l'essentiel aux
stratégies de fidélisation des chaînes dominantes, qui offrent plus que des émissions, mais la
continuité d'une relation avec le «public» parfois établie depuis des dizaines d'années.
De plus, les indicateurs utilisés par les industries culturelles sont trompeurs. Le «taux
d'audience» annoncé est un taux moyen qui confond les personnes qui ont regardé
l'émission en entier ou presque, et ceux qui n'ont fait que «zapper» quelques secondes ou
quelques minutes, qui sont partis avant la fin ou arrivés en cours de route. Autrement dit,
tout comme les parts d'audience ne mesurent pas les «goûts» du public, les taux d'audience
ne renvoient pas à des publics « réels » mais à des agrégats statistiques masquant une grande
mobilité des téléspectateurs face à l'offre disponible d'émissions6.

L'audimat n'est pas la «loi d'airain» de la programmation

C'est la raison pour laquelle l'analyse de la place de l'audimat dans les stratégies de
programmation doit distinguer ce qui ressort d'une logique de «marché» et ce qui ressort
d'une logique culturelle. À l'évidence, «l'audimat» est un élément central de la dimension
commerciale de la télévision, mais ces indicateurs, on l'a vu, ont peu à voir avec les «vrais
gens»: en d'autres termes, «l'audience» n'est pas le «public»7. C'est d'ailleurs bien la raison

HERMÈS 37, 2003 129


Éric Macé

pour laquelle, concernant les transactions sur le marché publicitaire, l'exactitude du


«référent» que seraient les véritables pratiques sociales et les représentations culturelles du
«public» importe moins que l'efficacité conventionnelle de l'unité de mesure et de ses
fluctuations. C'est parce que «ça marche», indépendamment de l'arbitraire et des biais de la
mesure, que l'ensemble de la mécanique commerciale de l'économie publicitaire se satisfait
d'un indicateur simple et unique, et que toutes les tentatives d'introduction de la complexité
ou de double mesure ont été repoussées par les acteurs dominants de ce marché8.
Les données a posteriori de l'audimat n'ont ainsi qu'une faible valeur prédictive.
D'autant plus que les décisions de programme se font le plus souvent plusieurs mois à
l'avance en raison des délais de production, de sorte que les facteurs qui font qu'une
émission a «marché» dans un contexte de diffusion précis (dynamique de la chaîne, offre
de la concurrence, événements sociétaux) ne sont en général plus les mêmes entre le
moment de sa conception et le moment de sa diffusion. Les données de «l'audimat» n'ont
par ailleurs qu'une relative valeur de sanction. D'abord parce que la baisse d'audience d'une
émission peut être liée à la baisse d'audience générale de la chaîne ou à la baisse d'audience
de l'émission précédente. Ensuite parce qu'une bonne ou une moins bonne audience est
toujours rapportée à l'image globale de la chaîne: la bonne audience persistante d'une
émission faisant l'objet de critiques telles que l'image globale de la chaîne en pâtisse peut ne
pas la protéger d'une déprogrammation ou d'une non-reconduction; tout comme
l'audience plutôt confidentielle d'une émission peut ne pas avoir d'incidence sur un choix
de programmation considéré comme avantageux pour l'image de marque de la chaîne ou
d'un de ses animateurs-vedette. De la sorte, la sanction de l'audimat peut d'abord être
analysée dans les termes d'une sociologie des organisations. «L'audience» est alors pour les
dirigeants de la télévision un indicateur «objectif» permettant de maîtriser les négociations
avec les professionnels de la télévision dès lors qu'il y a litige ou redéfinition des objectifs.
L'audimat apparaît ainsi comme un facteur peu déterminant des logiques de programmation
dont le processus se situe en amont de ce qui n'est que la mesure de l'échec ou du succès
des stratégies développées par les programmateurs de chaque chaîne.

La programmation de la télévision
est un conformisme provisoire

Le problème des industries culturelles est qu'elles sont confrontées, plus que les autres, à
un système de contraintes et de tensions9. Des tensions liées tout d'abord à l'instabilité de la
production de la culture de masse, première forme de culture collective produite non par une

130 HERMÈS 37, 2003


Le conformisme provisoire de la programmation

institution mais à travers l'opérateur par nature instable qu'est le marché. Par ailleurs, la
prétention de la culture de masse à s'adresser au plus grand nombre l'expose à devoir prendre
en compte la diversité des populations et des publics hétérogènes qui constituent le «grand
public». Enfin, dernier élément de tension, l'incertitude dans laquelle les professionnels des
industries culturelles se trouvent concernant le succès de produits coûteux dans un régime de
concurrence élevé entre diffuseurs10. Les industries culturelles sont ainsi confrontées à une
situation paradoxale où, comme le souligne Edgar Morin, «le standard bénéficie du succès
passé» et où «l'original est le gage de succès nouveau», tandis que dans le même temps «le déjà
connu risque de lasser» et «le nouveau risque déplaire»11. C'est d'ailleurs cette instabilité de sa
production qui fait de la culture de masse l'objet d'une critique sociale permanente et
généralisée (et cette critique est d'autant plus forte et partagée qu'elle concerne le média de
masse le plus central: aujourd'hui la télévision, hier le cinéma et la radio): s'adressant
structurellement au plus grand nombre, elle ne satisfait nécessairement personne en particulier.

Si on considère ainsi l'audience de la télévision, non comme une «donnée» mais


comme une «obtenue» des stratégies de programmation, on aborde alors l'extrême
complexité des relations entre la télévision et les individus. Car si l'audimat est bien cet
indicateur de l'audience produite, la production de cette audience n'est quant à elle pas si
simple: il faut pour cela non seulement que les gens regardent la télévision en général, mais
surtout qu'ils regardent telle chaîne plutôt que celles de la concurrence, et c'est bien là le
problème12. C'est pourquoi la production de l'audience renvoie à «l'art de la rencontre»
qu'est la programmation de la télévision13: il s'agit pour chaque chaîne de télévision
d'organiser la rencontre entre «l'offre» de ses programmes et les individus en fonction de
leurs disponibilités sociales et de leur réceptivité culturelle, afin d'obtenir, à force de
familiarité et de « rendez-vous », une fidélisation satisfaisante des individus.
Cet «art de la rencontre» qu'est la programmation recouvre classiquement deux
dimensions relatives à la disponibilité et à la réceptivité des individus. La première, que je
ne développe pas ici, est la disponibilité temporelle, qui renvoie à la construction d'une
«grille» de programmes ajustée au «métabolisme» socio-temporel des individus (tel que
l'indique les taux d'audience, c'est-à-dire la mesure des personnes qui ont pour activité de
regarder la télévision, quelque soit la chaîne) selon leur âge, leur sexe, leur activité, leur lieu
de résidence. Mais cette définition temporelle de la programmation n'est pas suffisante car
elle néglige ce qui fait le cœur de la programmation: une construction culturelle et
symbolique de la relation entre la télévision et les individus, où la télévision parle
simultanément du monde et d'elle-même comme médiatrice entre ce monde et son public.
En effet, même si tous les individus sont dorénavant des téléspectateurs en puissance,
la télévision n'est pas regardée par tous uniformément et indistinctement. Parce qu'elle est
un média de masse gratuitement offert (en apparence), la télévision est un média populaire,

HERMÈS 37, 2003 131


Éric Macé

c'est-à-dire dont la majorité du public reflète la majorité de la population globale qu'est


cette «classe moyenne modeste» composée des ménages d'ouvriers et d'employés
faiblement diplômés. Outre cet effet mécanique de démographie sociale, l'analyse de la
structure de l'audience de la télévision (toutes chaînes confondues) montre que ces
populations «modestes» sont sur-représentées parmi le «public» de la télévision. On
observe ainsi que la moitié des téléspectateurs consomment à eux seuls les trois quarts de
l'offre de télévision, et que cette moitié a un profil encore plus populaire que la majorité du
public de télévision: moins diplômés, plus âgés, moins actifs14. Mais si le partage entre
«grands» et «petits» consommateurs de télévision trace une frontière socioculturelle, cela
ne signifie pas que les «grands» consommateurs de télévision ne regardent que les
émissions à forte audience et que les «petits» consommateurs ne regardent que des
émissions «confidentielles»: c'est même le contraire puisque, d'une part la structure de
consommation des «petits» est la même que celle des «grands» (c'est-à-dire d'abord des
films, du divertissement et de l'information «grand public»), d'autre part le public
populaire est toujours majoritaire même pour les émissions les plus « confidentielles » (dites
«culturelles»)15. Par ailleurs, une forte consommation de télévision expose à la routine,
voire à la lassitude, et conduit à développer une importante « culture télé » maîtrisant l'offre
globale de programmes, ainsi qu'à diversifier les canaux et les contenus {via les équipements
techniques et les abonnements ad hoc). De la sorte, si tout le monde la regarde, la télévision
est d'abord faite pour ceux qui la regardent vraiment, c'est-à-dire le public populaire, celui
de Télé 7 jours et de Télé Ζ plutôt que celui de Télérama ou du supplément du Monde16.

C'est pourquoi l'observation montre que la relation complexe qui s'établit entre
«l'offre» de programme de télévision et la «réceptivité» des individus se fonde moins sur
l'audimat que sur des «théories» du social et du rôle de médiation de la télévision, théories
développées par les programmateurs de chaque chaîne de télévision, qui tentent ainsi de
définir «ce qui intéresse les gens»: «les Français sont plus soucieux d'environnement»;
« nous passons de l'époque du strass à celle du stress »; « il existe un vieux fond gaulois de
la culture française»; «la télé-réalité, répond au besoin d'authenticité»... etc. L'objectif
étant de rassembler le plus de personnes autour de l'offre de programme proposée, la
programmation est ainsi avant tout le «pari» que telle offre télévisuelle rencontre une
sensibilité commune virtuelle au sein du public.
Pour réduire les risques de chacun de ces « paris » et pour fonder ces « théories », les
programmateurs de télévision rassemblent de nombreuses données les informant des
tendances socioculturelles générales et des tendances de consommation télévisuelle: articles
de presse, études marketing qualitatives, données socioculturelles quantitatives, enquêtes
sociologiques, succès d'outsiders dans l'édition, le cinéma, la télévision (dans le pays ou à
l'étranger), «ratissage» de l'ensemble des autres médias de masse (presse, radio, Internet),

132 HERMÈS 37, 2003


Le conformisme provisoire de la programmation

sensibilités et sociabilités personnelles des responsables de programmation, mémoire des


programmations précédentes, stratégies des autres chaînes, logiques propres à la chaîne, en
un «mix marketing-doigt mouillé» dont parle Etienne Mougeotte, directeur des
programmes de TF1 17 . De nombreuses «théories» sur les «besoins», les «demandes» et les
« attentes » des individus vis-à-vis de la télévision, compte tenu de leur expérience sociale et
des «tendances» socioculturelles, sont ainsi élaborées, qui justifient par la suite le choix de
telle série, la commande de telle thématique déclinée dans les téléfilms ou les débats, le
«concept» de telle nouvelle émission... etc. 18
Or que sont ces «théories» sinon l'écho, au fond, des débats en cours au sein de
l'espace public politique et médiatique ? Il est en effet possible, ainsi que cela a été fait à de
nombreuses reprises par les cultural studies, de montrer les échos télévisuels des
controverses idéologiques, des luttes politiques et des conflits de représentations
concernant des questions aussi majeures que les rapports sociaux de sexe, de classe et
d'ethnicité ou concernant les sensibilités diverses touchant aux questions éthiques et
écologiques. C'est pourquoi il me semble que la télévision a moins à voir avec le débat sur
la qualité de la «culture» (populaire vs cultivée, de masse vs d'élite, commerciale vs
artistique, marchande vs citoyenne) qu'avec celui des enjeux politiques des représentations
du monde construits par les diverses médiations culturelles et politiques, y compris la
médiation médiatique qu'est celle de la télévision. De la sorte, ce qui commande la
programmation de la télévision, c'est ce qui apparaît aux programmateurs comme étant
commun, légitime et recevable pour la plupart à un moment donné.

C'est pourquoi la programmation de la télévision ne peut être ni tout à fait progressiste,


ni tout à fait conservatrice: elle est fondamentalement et nécessairement conformiste, mais
d'un conformisme provisoire et réversible en fonction des modes, de plus ou moins grande
stabilisation idéologique et institutionnelle, des compromis issus des conflits symboliques et
politiques entre acteurs sociaux. Ainsi, modulé selon les «genres» télévisuels (avec les
stéréotypes et les ambivalences propres à chaque «conventions narratives» de chacun de ces
genres: informations, débats, jeux, fictions, talk-shows... etc. 19) d'un média à public
populaire et selon l'amplitude des contraintes commerciales d'un consensus plus ou moins
large (variable selon le mode de financement de la chaîne et l'heure de programmation), ce
nécessaire conformisme instable (car bien plus sujet à la réversibilité que les compromis
inscrits dans la loi et les institutions) de la programmation de la télévision est tout ce qui lui
donne sa valeur d'objet d'étude sociologique: analyser les contenus de la télévision comme
les produits faiblement stabilisés des conflits de définition concernant le monde dans lequel
nous vivons, c'est accéder à la manière dont chaque société nationale, à un moment donné,
se représente elle-même, à travers ses compromis provisoires et contestés, ses idéaux, ses
non-dits, ses stéréotypes, ses normativités et ses mythes20.

HERMÈS 37, 2003 133


Éric Macé

NOTES

1. Je développe ici une partie des analyses présentées dans Eric MACÉ, «Qu'est-ce qu'une sociologie de la
télévision?», Réseaux, n° 104, 2000.
2. Sabine CHALVON-DEMERSAY, «La mesure du public. Approche généalogique de l'audience télévisuelle»,
Quaderni, n° 35, 1998.
3. Véronique LE GOAZIOU, «Le corps des téléspectateurs», Réseaux, n° 92-93, 1999.
4. James LULL, Inside Family Vieving, Londres, Routledge, 1990; D. GAUNTLETT, A. HILL, TV Living, Londres,
Routledge, 1999; Josiane JOUET, Dominique PASQUIER «Les jeunes et la culture de l'écran», Réseaux, n° 92-
93, 1999.
5. Rapporté dans Eve CHAMARD, Alain KIEFFER, La Télé. Dix ans d'histoires secrètes, Paris, Flammarion, 1992,
p. 459.
6. Sabine CHALVON-DEMERSAY, Paul-André ROSENTAL, «Une démographie des comportements volatils?»,
Quaderni, n° 35, 1998.
7. Ien ANG, Living Room Wars, Londres, Routledge, 1996.
8. Dominique PASQUIER, «Une télévision sur mesure», Réseaux, n° 39, 1990.
9. Éric MACÉ, «Éléments d'une sociologie contemporaine de la culture de masse», Hermès, n° 31, 2001.
10. Comme le souligne David HESMONDHALG, The Cultural Industries, Londres, Sage, 2002, p. 19, citant des
producteurs qui décrivent de façon imagée leur méthode pour compenser les risques des « paris » que sont
chaque lancement de nouveau produit de la culture de masse: il s'agit de «balancer la sauce sur le mur et
attendre de voir ce qui reste collé» (throwing mug against the wall and seing what stiks).
11. Edgar MORIN, L'Esprit du temps, 1, Névrose, Paris, Grasset, 1975, p. 35.
12. D'où le titre de Ien ANG, Desperately Seeking the Audience, Londres, Routledge, 1991.
13. Michel SOUCHON, «Les programmateurs et leurs représentations du public», Réseaux, n° 39, 1990.
14. Michel SOUCHON, «L'apport des méthodes quantitatives à la connaissance du public de la télévision»,
Hermès, n° 11-12, 1993.
15. Nathalie COSTE-CERDAN, Alain LE DIBERDER, La Télévision, Paris, La Découverte, 1986, p. 73.
16. Éric MACÉ, «La télévision du pauvre», Hermès, n° 11-12, 1993.
17. Cité par P. PEAN, C. NICK, op. cit., p. 478.
18. Todd GITLIN, Inside Prime Time, Berkeley, University of California Press, 1983.
19. François JOST, «La promesse des genres», Réseaux, n° 81, 1997.
20. Eric MACÉ, «Sociologie de la culture de masse: avatars du social et vertigo de la méthode», Cahiers
internationaux de sociologie, vol. CXII, 2002.

134 HERMES 37, 2003


Le conformisme provisoire de la programmation

RÉFÉRENCES BIBLIOGRAPHIQUES

ANG, I., Desperately Seeking the Audience, Londres, Routledge, 1991.


ANG, L, Living Room Wars. Rethinking Media Audiences for a Postmodern World, Londres, Routledge, 1996.
CHALVON-DEMERSAY, S., «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni,
n° 35, 1998.
CHALVON-DEMERSAY, S., ROSENTAL, P-A., «Une démographie des comportements volatils? L'émergence de la
micro-analyse dans la mesure de l'audience», Quaderni, n° 35, 1998.
CHAMARD, Ε., KIEFFER, Α., La Télé. Dix ans d'histoires secrètes, Paris, Flammarion, 1992.
COSTE-CERDAN, N., LE DIBERDER, Α., La Télévision, Paris, La Découverte, 1986.
Eco, U., La Guerre du faux, Paris, Grasset, 1985.
GAUNTLETT, D., HILL, Α., TV Living, Londres, Routledge, 1999.
GITLIN, T., Inside Prime Time, Berkeley, University of California Press, 1983.
HESMONDHALG, D., The Cultural Industries, Londres, Sage, 2002.
JOST, F., «La promesse des genres», Réseaux, n° 81, 1997.
JOUET, J., PASQUIER, D., «Les jeunes et la culture de l'écran», Réseaux, n° 92-93, 1999.
LE GOAZIOU, V., «Le corps des téléspectateurs», Réseaux, n° 92-93, 1999.
LULL, J., Inside Family Vieving. Ethnographic Research on Television's Audience, Londres, Routledge, 1990.
MACÉ, Ε., «La télévision du pauvre. Sociologie du public participant», Hermès, n° 11-12, 1993.
MACÉ, Ε., «Qu'est-ce qu'une sociologie de la télévision? », Réseaux, n° 104, 2000.
MACÉ, Ε., «Éléments d'une sociologie contemporaine de la culture de masse. À partir d'une relecture de l'Esprit
du temps d'Edgar Morin», Hermès, n° 31, 2001.
MACÉ, Ε., «Sociologie de la culture de masse: avatars du social et vertigo de la méthode», Cahiers internationaux
de sociologie, vol. CXII, 2002.
MORIN, E., L'Esprit du temps, 1, Névrose, Paris, Grasset, 1975.
MORLEY, D., Family Television: Cultural Power and Domestic Leisure, Londres, Comedia, 1986.
PASQUIER, D., «Une télévision sur mesure: les données d'audience dans le système américain», Réseaux, n° 39,
1990.
PEANT, P., NICK, C , TF1, un pouvoir, Paris, Fayard, 1997.
SOUCHON, M., «Les programmateurs et leurs représentations du public», Réseaux, n° 39, 1990.
SOUCHON, M., «L'apport des méthodes quantitatives à la connaissance du public de la télévision», Hermès, n° 11-
12, 1993.

HERMÈS 37, 2003 135


Patrick Champagne
Institut national de la recherche agronomique (Inra)
Centre de sociologie européenne (EHESS)

L'AUDIMÉTRIE: UNE CENSURE


POLITIQUE CACHÉE

Texte, remanié et revu, à partir de


«La loi des grands nombres»,
Actes de la recherche en sciences sociales,
mars 1994, n° 101-102, pages 17-19

Ce n'est pas un hasard si, très vite après l'instauration de la mesure d'audience par le
dispositif dit de «l'audimat», certains journalistes de télévision ont été amenés à parler de
la «dictature de l'audimat» qui, selon eux, pèserait désormais sur les programmes. La
métaphore politique, en raison même du succès qu'elle a immédiatement remporté, doit
être prise au sérieux car, contrairement à ce qui a été très largement perçu à l'époque,
l'instauration de ce système de mesure de l'audience en continu, inspiré par et pour les
publicitaires, loin de signifier la fin de la censure politique sur l'audiovisuel et sur
l'information, a marqué en fait une politisation accrue quoique masquée. Il est, en effet, très
superficiel de penser que l'audimat aurait marqué l'avènement du téléspectateur-
consommateur pouvant désormais choisir librement de regarder ce qu'il souhaite regarder.
Cette vision, qui semble faire du marché économique l'arbitre des choix en matière de
programmation, occulte le fait que la mise en place de l'audimat, en 1982, qui s'inscrivait
dans une transformation qui était déjà largement engagée a cependant marqué une rupture
majeure dans le fonctionnement même du média télévision. La logique économique qui a
progressivement investi ce média et la concurrence pour l'audience entre les chaînes

HERMÈS 37, 2003 137


Patrick Champagne

généralistes, loin de favoriser une diversification de l'offre de programmes afin de satisfaire


la diversité des demandes d'un public lui-même très divers socialement et culturellement
ont conduit, à l'inverse, à une uniformisation de l'offre, chaque chaîne cherchant à chaque
instant, pour des raisons économiques, à rassembler un maximum de gens, c'est-à-dire le
seul public populaire. Tout se passe comme si les programmes étaient soumis au vote
majoritaire, comme en démocratie, seuls ceux qui recueillent une majorité de suffrages
dûment mesurée par l'audimat ayant désormais droit de cité sur les écrans.
L'audimat n'est pas seulement un instrument qui mesure l'audience. Il est aussi la
concrétisation matérielle d'une philosophie politique qui implique une certaine
représentation du public de télévision, celle-ci étant parfaitement homologue de celle qui
s'est instaurée au même moment en politique avec la généralisation de la pratique des
sondages d'opinion. Ce n'est d'ailleurs pas un hasard si cette mesure de l'audience qui n'a
rien à voir, techniquement, avec les sondages d'opinion est cependant confondue avec cette
pratique. C'est que la vision politique de la télévision qu'elle implique n'est pas sans évoquer
celle qui, durant la même période, a affecté le métier d'homme politique à mesure que la
politique était médiatisée et passait de plus en plus par les sondages d'opinion. Ce que la
pratique des sondages ou de l'audimat impose, c'est un nouveau principe de légitimité
universel fondé sur l'audience majoritaire ou maximum, sur l'approbation populaire, sur
l'applaudimètre (la présence d'un public qui, dans les émissions, applaudit sur commande
en permanence n'est sans doute pas sans lien avec cette logique politique). La rapidité
croissante des techniques de mesure qui permet de disposer presque instantanément des
résultats a eu, sur la télévision, des effets analogues à ceux que l'on a pu constater en
politique avec les sondages1. Depuis 1967, la télévision s'était dotée d'un panel postal qui lui
permettait de connaître, sans doute de manière encore très approximative, l'audience des
émissions. Mais les résultats n'étaient disponibles qu'une semaine au moins après le passage
à l'antenne et étaient destinés aux seuls responsables. Cette enquête permanente de l'ORTF
était en effet à usage interne, les résultats, considérés comme hautement «confidentiels»,
n'en étant pas communiqués aux publicitaires et même aux chercheurs comme s'il s'agissait
de préserver une certaine autonomie de la télévision, s'agissant de décider de ce qui est bon
ou non pour les téléspectateurs. La vocation de la télévision, telle que l'Etat l'avait décrétée,
n'était-elle pas, selon la formule maintes fois invoquée par les responsables de la télévision
qui voulaient par là marquer la spécificité de la télévision publique «à la française» par
rapport aux télévisions commerciales étrangères (notamment la télévision américaine, qui
jouait le rôle de véritable repoussoir), «d'informer, d'éduquer et de distraire»? Quant aux
publicitaires, ils n'étaient pas intéressés par ces enquêtes parce que les spots de publicité
étaient, au moins initialement, limités en nombre, en emplacements. Ils avaient leur propre
enquête, réalisée par le Centre des études des supports de publicité (CESP)2, qui suffisait à
leurs demandes. Toutes ces enquêtes, celles de l'ORTF comme celles des publicitaires,

138 HERMÈS 31, 2003


L'audimétrie: une censure politique cachée

avaient en commun d'être un regard sur les audiences passées (plus exactement sur les
comportements déclarés). La multiplication des écrans de publicité, le fait qu'ils s'insèrent
progressivement avant et après toutes les émissions, la négociation avec les régies
publicitaires pour fixer, pour chaque spot, un tarif qui est fonction de l'audience générée par
l'émission ont conduit les publicitaires à s'intéresser aux audiences qu'ils souhaitent
connaître à la fois le plus rapidement possible et le plus exactement possible. C'est eux qui
veulent mettre au point un instrument de mesure qui permettra de constater le plus
rapidement et le plus objectivement possible, émission par émission, minute par minute, les
audiences afin de disposer d'une base indiscutable pour fixer les tarifs et pour affiner leurs
stratégies de diffusion des spots (choisir en fonction des publics et des audiences). Or,
l'audimat, qui est la technologie adaptée à cette attente, s'apparente à une sorte de
referendum permanent sur les programmes et exerce, du même coup, un puissant effet de
verdict, à la fois techniquement et politiquement parce que scientifiquement constaté et
surtout parce qu'il s'agit d'un verdict «objectif» au sens de «collectif» et «anonyme» par
opposition à «individuel» et à «subjectif». Les courbes d'audience sont analysées en détail
tous les jours par l'ensemble des professionnels intéressés à l'économie de la télévision, qu'il
s'agisse des annonceurs qui veulent rentabiliser au mieux leurs investissements publicitaires,
des responsables des régies qui veulent remplir leurs écrans publicitaires, des
programmateurs des chaînes qui cherchent à tout moment le programme qui rassemblera le
public maximum et des producteurs qui recherchent des recettes afin de financer leurs
émissions. Tous ces professionnels sont pris dans la logique de la recherche du programme
«qui cartonne», «qui nique la concurrence» et savent par expérience le type d'émission qui
attire ou, à l'inverse, risque de faire fuir le «grand public» (c'est-à-dire en fait le public
populaire qui est le public majoritaire sur lequel se concentrent les stratégies de captation)
et même, à l'intérieur de chaque émission, ce qui entraîne un relâchement de l'intérêt (tel
chanteur, tel type de débat, etc. ). L'audimat conduit, comme les cotes de popularité et les
sondages préélectoraux en politique, à fixer l'attention sociale moins sur les contenus que
sur les courbes qui deviennent une fin en soi.
S'il est vrai que le téléspectateur dispose, en regardant certains programmes, d'une
sorte de droit de vote permanent étant donné l'économie générale de ce média, on ne peut
que suivre Michel Souchon lorsqu'il remarque qu'il s'agit d'une sorte de droit de vote
censitaire à l'envers puisque, étant donné le type de programme qui est diffusé sur la quasi-
totalité des chaînes, les milieux populaires qui sont de gros consommateurs de télévision,
«votent» ainsi quatre à cinq fois plus que les autres milieux sociaux.
Ainsi, paradoxalement, la télévision s'est en réalité politisée plus encore que par le passé
lorsque le parti au pouvoir entendait contrôler étroitement les programmes, veillant
directement à la «bonne moralité» des programmes. ainsi qu'aux prises de position
politiques qui pouvaient s'exprimer. Le fait que le pouvoir ait dû progressivement renoncer

HERMÈS 37, 2003 139


Patrick Champagne

à son rôle de censeur pointilleux n'a pas signifié le retrait du politique mais seulement
l'instauration d'une forme plus démocratique de contrôle politique. En dépit du sentiment
- aussi indiscutable qu'éphémère - de libération éprouvé par la plupart des journalistes de
télévision qui se sont retrouvés à l'abri des pressions exercées directement par le pouvoir
politique en place et qui même ont pu à leur tour s'imposer aux hommes politiques, la
télévision est en réalité quasi totalement investie par la logique politique. L'absence de
contraintes politiques ouvertes ne signifie pas l'absence de toutes contraintes. Les
contraintes politiques ont simplement pris la forme d'impératifs économiques symbolisés
entre autres par le rappel à l'ordre que représente l'affichage quotidien, dans les locaux des
chaînes, des «scores» des émissions de la veille. Forme transfigurée et euphémisée du
pouvoir politique, le pouvoir économique est en fait beaucoup plus efficace puisqu'il passe
par les mécanismes anonymes du marché et met, dans la tête même de chaque producteur
de télévision, actuel ou potentiel, comme principe régulateur et comme critère de jugement
dominant qui mesure la valeur de tout programme, le nombre de téléspectateurs qui le
regardent. Ceux qui ne sont pas capables de «faire de l'audience» sont d'emblée exclus, ou
mieux s'excluent eux-mêmes. Aujourd'hui, c'est toute l'entreprise de production de biens
culturels qui tend à être soumise à la «loi de la majorité» d'une population en fait
politiquement définie.
Les producteurs culturels de ces médias grand public sont placés dans une position
proche de celle qu'occupent les hommes politiques, les présentateurs sollicitant en
permanence les suffrages des téléspectateurs. La politisation du champ de production des
biens culturels réside moins dans la décision - politique - de placer l'ensemble de la
télévision dans une logique commerciale3 que dans le libéralisme économique qui impose et
traduit indissociablement une vision politique du monde social qui est située aux antipodes
de la logique du champ de production des biens culturels.
Lire, comme on tend à le faire aujourd'hui, le jeu politique démocratique à travers les
concepts de l'économie capitaliste (on parle d'«offre», de «demande» et de «marché»
politiques), c'est, par une inversion faussement éclairante, encourager une naturalisation du
champ politique derrière les mécanismes collectifs et anonymes de l'économie de marché
sans voir que cette économie-là repose précisément sur la philosophie politique qu'elle
prétend analyser4. S'il n'est donc pas faux de dire que la recherche de l'audience obéit à une
logique proprement économique, il convient d'ajouter qu'elle n'est si bien acceptée par
ceux qui font les programmes que parce qu'elle s'accorde plus ou moins inconsciemment
avec une vision politique implicite, c'est-à-dire avec une représentation politique du public:
la télévision est globalement perçue comme instrument de « démocratisation » qui doit donc
«démocratiquement» plaire au plus grand nombre possible de téléspectateurs, cette
représentation étant de surcroît en affinité avec le fonctionnement économique de ce média.
Comme le livre ou le cinéma, la télévision n'est en soi qu'un moyen de diffusion qui aurait

140 HERMÈS 37, 2003


L'audimétrie: une censure politique cachée

pu faire l'objet d'usages sociaux beaucoup plus diversifiés. Si la logique de l'audience


maximum a investi l'instrument dans sa quasi-totalité c'est entre autre parce que l'État s'est
en partie économiquement désengagé de cette entreprise coûteuse5.
L'instauration, par décision politique, d'une chaîne à visée culturelle comme La Sept,
convertie depuis septembre 1992 en Arte constitue à cet égard une véritable
expérimentation sociale qui permet de voir les propriétés spécifiques de cet espace public
singulier que les usages sociaux de la télévision ont construit. Le zapping, qui peut être
pratiqué par l'ensemble des téléspectateurs, peut mettre momentanément en présence des
émissions un public qui ne dispose pas du capital culturel nécessaire pour se les approprier.
Le discours élitiste des intellectuels qui fustigent la télévision «abêtissante», celle des jeux,
des sitcoms, des feuilletons et de la télé-réalité, fait couple avec les réactions de dérision et
de rejet (sous forme de plaisanteries rituelles dissimulant à peine un anti-intellectualisme
rampant) qu'une chaîne comme Arte suscite en permanence, notamment de la part de ceux
qui peuvent s'exprimer dans les grands médias ou qui y travaillent. Ces réactions de rejet
réciproques ne font que traduire l'inadéquation, qui peut s'instaurer dans les sociétés
socialement et culturellement différenciées, entre un public et un bien culturel. Au-delà des
fausses alternatives («culture de masse» contre «ghetto culturel»), la transformation sans
doute la plus importante que la télévision a engendrée est l'affaiblissement de la coupure
entre la culture savante et la culture de grande consommation. La publication quasi
quotidienne, dans la presse, des scores réalisés par les émissions contribue à faire tomber les
frontières entre les genres, mélangeant dans un même palmarès qui privilégie l'audience
numérique instantanée, les documentaires et les magazines d'information, les émissions de
jeux et les émissions culturelles, etc.6 Durant la deuxième moitié du XIXe siècle,
l'instauration du suffrage universel et le laisser-faire économique avaient eu des effets
analogues, la logique politique exerçant déjà son action au-delà même de la politique, en
particulier dans le monde de la culture qui connaissait alors, à cette époque, le
développement important d'une littérature et d'une presse populaires. Flaubert, un témoin
perspicace de cette transformation majeure, dénonçait déjà ce qu'il appelait la toute
nouvelle « tyrannie sacerdotale » qui est exercée par le suffrage universel: « L'infaillibilité du
suffrage universel, écrit-il dans une de ses lettres à Louise Collet, est prête à devenir un
dogme qui va succéder à celui de l'infaillibilité du pape. La force du bras, du nombre, le
respect de la foule a succédé à l'autorité du nom, au droit divin, à la suprématie de
l'Esprit. »7
Les animateurs ou producteurs d'émissions populaires peuvent, plus que par le passé,
et de manière plus indiscutable, invoquer comme principe de légitimité, le nombre de
téléspectateurs qui les regardent et, de leur point de vue, les approuvent surtout lorsque cela
se traduit matériellement par des rentrées financières importantes pour les chaînes. La
raison du plus grand nombre surtout lorsqu'elle est surdéterminée économiquement, tend

HERMÈS 37, 2003 141


Patrick Champagne

à s'imposer, même dans les espaces sociaux qui, historiquement, se sont constitués contre
l'opinion commune ou ordinaire8, le critère de qualité intrinsèque de ce type d'émissions,
qui prête nécessairement à discussion étant donnée la dispersion culturelle du public, étant
remplacé comme en politique, par un critère statistique apparemment plus simple à mesurer
et surtout plus en affinité avec la logique économico-politique qui a investi ces médias.
Au-delà de cet univers culturel dominé par les sondages d'audience, la logique du
nombre tend ainsi à devenir un principe de jugement universel: ceux qui critiquent la
chaîne Arte dénoncent en réalité une certaine culture en se fondant principalement sur les
indices d'audience, jugés ridiculement faibles par rapport à ceux des chaînes populaires
(bien qu'ils soient en réalité très élevés par rapport aux programmes diffusés) et sur le
supposé caractère abscons et ennuyeux des émissions9.

NOTES

1. Sur l'usage des sondages dans les débats politiques à la télévision, voir P. CHAMPAGNE, « Qui a gagné ? Analyse
interne et analyse externe des débats politiques à la télévision», Mots, n° 20, septembre 1989, p. 5-22.
2. Deux vagues d'enquêtes étaient réalisées chaque année auprès d'échantillons de population très importants,
3. Plutôt que, comme c'est le cas par exemple pour la recherche fondamentale ou la musique contemporaine ou
encore la radio publique par exemple, dans une logique de mécénat public.
4. J. SCHUMPETER, qui fut l'un des premiers à mettre systématiquement en relation les systèmes politique et
économique, comparait de façon plus juste la logique économique de marché à la logique démocratique, l'acte
d'achat étant considéré comme un vote (et non l'inverse). Voir notamment Capitalisme, socialisme, et
démocratie, Paris, Payot (première édition en anglais en 1942).
5. Cela ne signifie pas que les chaînes privées soient gratuites pour le téléspectateur: il les paie, de façon moins
visible qu'avec la redevance, en tant que consommateur à travers la publicité qui est intégrée dans le prix des
produits.
6. C'est une philosophie analogue qui est au principe de tous les palmarès par sondage que font réaliser les
journaux. Voir P. Bourdieu, «Le hit-parade des intellectuels français, ou qui sera juge de la légitimité des
juges ?», Actes de la recherche en sciences sociales, n° 52-53, juin 1984, p. 95-100.
7. Gustave FLAUBERT, Correspondance, II, Paris, Gallimard, Bibliothèque de la Pléiade, 1980, p. 90.
8. Notamment le champ intellectuel. Sur ce point, voir P. BOURDIEU, Les Règles de l'art, Paris, Le Seuil, 1992.
9. L'audimat a pour objectif de compter le nombre de gens qui sont susceptibles de voir les spots publicitaires
(pour en fixer les tarifs) plus que les émissions elles-mêmes. Or, la qualité d'une émission peut la rendre re-
diffusable, ce qui peut faire à moyen terme une audience cumulée bien supérieure à celle des émissions très
liées à l'actualité, sans grande valeur interne, qui peuvent faire en une seule fois une forte audience (la seule
qui est prise en compte et publiée) mais ne sont guère rediffusables. Or, la logique économique tend à ne
(re)connaître que les produits à rendement immédiat.

142 HERMÈS 37, 2003


Yves Jeanneret
Université de Paris 4 Sorbonne,
Ecole des hautes études en sciences de l'information
et de la communication (Celsa)
Laboratoire langages, logiques, informatique,
communication, cognition (LaLICC), CNRS

Valérie Patrin-Leclère
Université de Paris 4 Sorbonne,
Ecole des hautes études en sciences de l'information
et de la communication (Celsa)
Laboratoire langages, logiques, informatique,
communication, cognition (LaLICC), CNRS

LOFT STORY 1 OU LA CRITIQUE


PRISE AU PIÈGE DE L'AUDIENCE

Tout n'a-t-il pas été dit sur Loft Story? L'arrivée en France de la «télévision du réel» 1
a suscité une avalanche de commentaires: n'y avait-il pas là une rupture dans la télévision
nationale, un bouleversement des règles ?
Pour répondre à cette question, on peut scruter la signification sociale de l'émission,
par exemple son rapport emblématique ou caricatural avec la culture des jeunes. Nous ne
prendrons pas ici position dans ce débat. Notre point de vue est différent, il concerne la
mise en place d'un programme télévisuel particulier, en rapport avec ses conditions
d'évaluation et de succès économiques. De ce point de vue, nous ne considérons pas cette
émission comme une rupture, mais comme l'aboutissement d'un système fondé sur la mesure
de l'audience2, un système dont les concepteurs de Loft Story (désormais: LS) ont tiré toutes
les conséquences. C'est ce qui fait de ce programme un objet d'analyse révélateur à l'égard
des évolutions actuelles de la télévision.

HERMÈS 37, 2003 143


Yves Jeanneret et Valérie Patrin-Leclère

La plupart des émissions de télévision sont désormais conçues de façon à maximiser le


rapport entre ressources publicitaires et coût des programmes. LS, qui s'inscrit dans la
continuité de cette logique use - et en l'occurrence profite - de tous les ressorts de la logique
audimétrique. C'est parce qu'elle pousse cette logique à ses limites, jusqu'à modifier
profondément le rapport entre le spectacle et sa critique, que l'expérience est intéressante.

Pur produit d'une logique poussée à ses limites

Quand les diffuseurs parlent d'audience, ils cultivent une ambiguïté bien commode: un
bon résultat d'audience serait la preuve que la chaîne a su offrir aux téléspectateurs le
programme qui leur plaît, voire la garantie qu'une mission de service public a été accomplie.
Argument séduisant mais trompeur. Il est plus glorieux de faire passer les résultats
d'audience pour un indice de satisfaction des téléspectateurs que pour des mesures de la
pression publicitaire; ce qu'ils sont en réalité, dans une logique économique qui ne
s'encombre guère de quelque mission que ce soit.
Dès lors qu'une chaîne de télévision dépend des revenus publicitaires, sa politique de
programmation vise des consommateurs susceptibles d'intéresser les annonceurs.
L'« audience »3 est un concept inventé dans ce cadre par et pour les professionnels de la
publicité sur un marché dans lequel les prix dépendent du nombre et des caractéristiques
socio-économiques des personnes touchées mais aussi de la capacité qu'a le média-support
de prouver son aptitude à valoriser les messages. Dans cette logique, la satisfaction du
public est un moyen et non une fin. Comme on va le voir, le lien entre satisfaction et
audience est conjoncturel et non nécessaire.
C'est à cet égard que LS offre un terrain d'analyse passionnant. En effet, c'est un
produit audimétrique «parfait». Un cas d'école. Tout à la fois symbole et symptôme:
symbole d'une stratégie audimétrique inédite dans son parachèvement et symptôme du
régime dans lequel s'inscrivent la plupart des chaînes de télévision. Tout y est conçu pour
maximiser l'audience -télévisuelle (toucher le plus de téléspectateurs possible) et l'optimiser
(vendre cher l'espace publicitaire à beaucoup d'annonceurs).

Maximisation de l'audience

LS a permis à M6 de toucher nombre de téléspectateurs, mais aussi de les toucher à de


multiples reprises au moindre coût, puisque le même programme a été décliné en plusieurs

144 HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

formats. LS a fidélisé les téléspectateurs de la chaîne hertzienne dans deux rendez-vous


quotidiens4 et un rendez-vous hebdomadaire5 pendant dix semaines en 2001 et douze semaines
en 2002, réalisant là un exploit sans commune mesure avec les audiences très élevées mais
ponctuelles d'un film comme Titanic ou d'une finale de la Coupe du monde de football ! Les
pics d'audience à plus de 10 millions de téléspectateurs, atteints aux moments les plus cruciaux,
comptent moins que le taux d'audience moyen de 13, 1 % pour les onze jeudis de la saison 2001.
Sans oublier qu'au quantitatif vient s'ajouter le qualitatif: la petite chaîne musicale pour jeunes
a élargi l'éventail de ses cibles, empiétant sur les plates-bandes du leader généraliste TFl.

Optimisation de l'audience

LS est le programme audimétrique par excellence. Il multiplie les coupures


publicitaires et leur offre un contexte favorable (univers aseptisé et consumériste). Il
présente un scénario malléable, qui a toutes les qualités requises pour servir d'écrin
publicitaire aux annonceurs, ayant les avantages d'un film (suspense, captation) sans en
avoir les inconvénients (la limitation à une seule coupure publicitaire, en vigueur pour la
fiction)6. Grâce aux « qualités » conjointes de son audience et de ses formats, US a permis à
M6 de tripler le prix de son espace publicitaire (de 11128 euros à 35368 euros, soit de 73
à 232 000 Francs, pour 30 secondes le jeudi en 2001) sans faire fuir les annonceurs et même
en parvenant à en séduire de nouveaux.

Démultiplication des supports

M6, groupe «multimédias», a décliné son concept: TV hertzienne, TV satellite (4 canaux


sur TPS), site Internet financé par la publicité [Loftstory. fr]7, magazine officiel vendu en
kiosque7, etc. Beaucoup de ces supports sont payants et tous rapportent des revenus
publicitaires. Il faut enfin prendre en compte ces revenus supplémentaires que sont les produits
dérivés: des tee-shirts aux produits de manucure, du single9 aux recettes téléphoniques10.

Une machine centrifuge

LS est donc une machine à produire de l'audience. Mais, pour ce faire, il ne suffit pas de
filmer tout simplement «X célibataires dans un loft de Y m2 avec Ζ caméras 7 jours sur 7 »11.

HERMÈS 37, 2003 145


Yves Jeanneret et Valérie Patrin-Leclère

Cette promesse crée l'événement; mais elle masque un dispositif très élaboré. Voir en LS
une télévision introvertie, dans un espace clos, ne résiste pas à l'examen. LS n'est pas
centripète mais centrifuge. La promesse (« deux heures de direct pour savoir ce qui se passe
dans le Loft, ça commence tout de suite») n'est que le premier ingrédient d'un programme
fait de bandes-annonces, de plateaux, de reportages, de micro-trottoirs.
L'émission brasse toutes les formes du commentaire, de la reprise, de la critique. C'est
logique: au pays de l'audimétrie, - et + s'additionnent. Les jugements, les postures et les
valeurs les plus différents se multiplient et se croisent, des plus favorables aux plus
dépréciatifs. La satisfaction et l'insatisfaction s'ajoutent, l'éloge et le blâme s'additionnent,
comme s'additionnent le spectateur qui apprécie, celui qui dénigre, celui qui ironise, celui
qui polémique. Pourvu qu'il regarde, chacun compte pour un.
C'est pourquoi la chaîne a fabriqué un objet polymorphe, condensant tous les
ingrédients de la télévision occidentale contemporaine, sans offrir l'innovation dont elle
s'est pourtant prévalue. LS cumule tous les formats télévisuels: feuilleton (rendez-vous
quotidiens scénarisés), sitcom (saynètes-cultes rediffusées), documentaire (sujets «pris sur le
vif»), talk-show (ex-lofteurs invités sur le plateau), débat de société (discussions-débats
amorcées par le psychiatre et la psychologue), jeu (votes des lofteurs et des téléspectateurs
pour éliminer un concurrent), et même roman-photo (images légendées). LS reprend les
trois « genres » traditionnels: fiction, information et divertissement. Enfin, LS est en parfaite
adéquation avec les modes de la TV contemporaine: direct, interactivité, authenticité,
dévoilement de l'intimité par l'image et par le discours. À l'arrivée, LS est donc à la fois
inclassable et archétypique12.
Il y a plus. L'émission est une machine de lancement et de dissémination des
commentaires. Elle organise la circulation incessante entre trois pôles: le pouvoir scopique
de la caméra (loft), le discours de la télévision sur elle-même (plateau) et l'influence sociale
des médias (sujets tournés sur tout le territoire). D'où les paradoxes de l'intériorité et de
l'extériorité: on entre dans l'univers médiatique en sortant du loft, scénario orchestré par
des êtres du dedans-dehors (animateurs, psys, anciens lofteurs) et théâtralisé par une logique
de sas.
Ces entrées et sorties imposent une mimésis du commentaire: l'émission est un
dictionnaire de conversation, un Bouvard et Pécuchet télévisuel. Tous les types d'acteurs,
toutes les situations de discours, tous les thèmes discutables entrent dans le dispositif
télévisuel, appareil à capturer et à rediffuser les matières à parler. Les «lofteurs» enfermés
anticipent le jugement de leurs actes; libérés, ils le commentent. Le programme atteste
l'existence d'une traînée de poudre communicationnelle dont il est en réalité le créateur.
Enfin, le vrai casting de l'émission est celui des acteurs du dialogue social: parents,
intellectuels, psys, experts (les anciens lofteurs), vrais jeunes, etc. Ce qui autorise les
interventions incessantes sur le même thème: parlez-en. «Loft Story est l'occasion d'entamer

146 HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

de nouveaux débats entre amis et en famille, alors n'hésitez pas» 13 . C'est la «spirale de la
parole», enserrant les lofteurs, les invités, les familles, les producteurs médiatiques,
l'animateur, réactivant inlassablement le contrat énonciatif à travers annonces, génériques
réitérés et détournés, relances. LS est moins un lieu de discussion qu'un espace de
manipulation de l'expression, d'accumulation des postures et points de vue.

Multiplicité des postures du téléspectateur

Polymorphe, l'émission s'adresse simultanément à une multiplicité de cibles. Jeunes qui


adhèrent à la modernité du concept ou s'en gaussent; parents qui regardent pour voir
comment vivent leurs enfants, pour voir ce que regardent leurs enfants, parce que tout le
monde en parle; intellectuels qui se sentent tenus d'avoir à prendre position et qui affirment
leur originalité. Aux téléspectateurs auxquels l'émission plaît (pour des motifs divers, il n'y
a pas de consensus y compris dans la satisfaction) il faut ajouter ici tous les téléspectateurs
auxquels elle ne plaît pas (les simples ironiques et les virulents dénonciateurs).

Multiplicité des couvertures événementielles

Pour permettre la prolifération des commentaires, il est nécessaire avant tout de retenir
l'attention des médias d'actualité. Ainsi un simple programme télévisuel peut-il se muer en
événement d'actualité. Les annonces, événements, provocations de M6 ainsi que le système
des fuites et révélations progressivement distillées ont permis de capter d'emblée l'attention
du journalisme d'actualité. Le ressort utilisé, c'est l'exploitation de la logique économique
propre à ces médias, qui est celle de la concurrence. Le bon journaliste d'actualité se doit
de parler de ce qui préoccupe les Français et de faire réagir les acteurs de la société civile
sur un problème qui prend du relief. Le risque essentiel consiste donc à ne pas parler de ce
dont les concurrents parlent, ou encore à en parler trop tard. On voit bien comment, pour
ne pas courir ce risque, les médias se sont tous retrouvés à promouvoir un programme en
événement social, ce qui libère le débat critique.

Multiplicité des points de vue critiques, partisans et surtout opposants

Chaque téléspectateur est incité à se transformer en moteur à audience: en fonction de


sa posture, chacun a un avis relativement tranché qu'il va pouvoir proférer. Cet avis est

HERMÈS 37, 2003 147


Yves Jeanneret et Valérie Patrin-Leclère

pré-formaté par les concepteurs de l'émission eux-mêmes et par les « intellectuels » qui se
sont empressés de mettre en mots les différents points de vue critiques adoptables
(«voyeurisme», «poujadisme intellectuel», «crise de la pensée», «spectacle totalitaire»,
«monde concentrationnaire», «monde répressif», «exhibitionnisme», «violence»,
«perversité»... et à l'autre pôle «modèle d'intégration», «création de lien social»,
«portrait collectif d'une génération», etc. ). Épiscopat, Medef14, hommes politiques,
chercheurs, tous les représentants de la société française y sont allés de leur petite saillie...
apportant du même coup de l'eau au moulin audimétrique et donc économique de M6.

Une nouvelle étape dans les rapports


entre économie et culture

Ces phénomènes sont peut-être le signe d'une tendance lourde qui ne concerne pas la
seule télévision. Toute la stratégie décrite ici témoigne d'une prise en compte plus
méthodique du fait qu'on est sorti du système de la critique, dans lequel le succès dépend
de discours promotionnels sur les productions culturelles, pour entrer dans celui de la
mesure d'audience, travail purement quantitatif sur l'exposition au média.
«Faire de l'audience» est avec LS une réalité ouvertement distincte de «plaire aux
téléspectateurs». L'argument habituel de la télévision commerciale («nous offrons aux
téléspectateurs ce qu'ils aiment ») ne vaut plus: M6 a offert aux téléspectateurs non pas ce
qu'ils aiment, mais au contraire ce que beaucoup se disaient près de détester. Autrement dit,
nous avons affaire là encore à une forme aboutie de la logique économique: la chaîne offre
non ce que les clients aiment mais ce que les clients regardent.
On peut aller plus loin. Des Illusions perdues aux Cahiers de la Quinzaine, on a
combattu pendant un siècle la «littérature industrielle», système dénoncé dans le champ
artistique, philosophique, musical comme une «Foire sur la place»15. On a pu penser que
le fait d'acheter ou de circonvenir les critiques afin de convaincre le public était le «stade
suprême» d'une industrialisation de la culture.
LS montre qu'il n'en est rien. Ce programme met en question un modèle de réussite
télévisuelle. Dans le modèle «classique», il s'agissait de réunir la meilleure audience
commerciale possible en proposant aux téléspectateurs un produit télévisuel qui les
satisfaisait, dans le but implicite de maximiser les recettes publicitaires. Dans ce qu'on
pourrait nommer le «modèle LS», on réunit la meilleure audience commerciale possible en
proposant aux téléspectateurs un produit télévisuel incontournable parce qu'il fait parler de

148 HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

lui - notamment parce qu'il prête le flanc à la suspicion et à la dénonciation - dans le but à
peine caché et même revendiqué de maximiser les recettes publicitaires16.
Le signe le plus sûr de ce changement - qui manifeste de la part de M6 une intelligence
des logiques actuelles des industries de la culture - est le statut conféré aux «bruits». Loin
d'être des parasites, ils sont initiés et orchestrés par la production elle-même. Celle-ci
organise des rumeurs, des scoops, des vrais-faux dérapages et trucages, etc., abondamment
commentés dans la presse TV (ainsi des couvertures de Télé Star du type «Loana et Jean-
Edouard: vrais ou faux inconnus?» ou «Coup de foudre ou coup de bluff?») mais aussi
dans la presse d'information généraliste recyclée un temps dans le scandale (Le Parisien,
France Soir, Le Monde, Libération, etc. ). Le principe est simple: faire parler de LS en
suscitant le doute sur la vérité de la procédure (les producteurs ne cessant de manifester leur
irrespect des règles qu'ils ont eux-mêmes instituées) et en nourrissant de nombreuses
polémiques (par exemple en ne payant les lofteurs que 2 euros (13 F)/heure).

La critique à contre-emploi

Il faut s'arrêter sur la redistribution très particulière des rôles de l'évaluation


économique (compter) et de l'évaluation culturelle (juger) dans ce système: en l'occurrence,
la critique a été pleinement intégrée dans le processus de conception du programme,
devenant un facteur déterminant de réussite. La critique ici n'est pas subie par les
producteurs, elle n'est pas un bruit avec lequel M6 doit composer. Au contraire, le discours
critique accompagne le programme comme une musique orchestrée, aussi dissonante soit-
elle. Elle n'est pas un contre-pouvoir qui nuirait à l'émission mais au contraire une alliée
malgré elle dans la maximisation de l'audience.
Citation éclairante: dans un supplément auto-promotionnel de 32 pages consacré à M6
et distribué gratuitement aux acheteurs au journal du Dimanche, le 7 avril 2002, un analyste
financier se félicite du fait que «la couverture médiatique de l'événement Loft Story [ait] été
telle que le chiffrage des pages, articles, émissions dédiés à Loft Story représenterait plus de
400 millions d'euros d'espaces publicitaires. Ce qui est tout de même équivalent à une année
de CA du groupe (2000) ». Dans le même cahier, on trouve une revue de presse intitulée
«Lofteurs up and down» dans laquelle sont repris des propos - pour la plupart négatifs,
quelques-uns positifs - tenus dans la presse française au printemps 2001 par des
intellectuels et des hommes politiques. La chaîne en fait une gloire: «d'entrée de jeu, fusa
l'anathème»...

HERMÈS 37, 2003 149


Yves Jeanneret et Valérie Patrin-Leclère

Il y a toute une production intermédiatique qui appartient pleinement au dispositif de


LS. On peut citer le «guide de conversation» produit par France-Soir17, le numéro «spécial»
de Libération qui reprend, sur 6 pages, les rubriques qui structurent l'émission et les types
de commentaires possibles18, le sondage commandité à Sofrès par Le Monde pour
comprendre pourquoi les Français parlent de LS19, le numéro des Cahiers du cinéma20
renvoyant de la conception du programme à l'attitude du spectateur.
LS a réussi d'emblée une industrialisation des voies critiques. Traditionnellement, le
critique est tout sauf complice; il a le pouvoir de dénoncer, il est extérieur au système de
production, ce qui fait dénoncer au besoin sa compromission. Sans la liberté de blâmer,
il n'y a pas d'éloge flatteur. Avec LS, c'est au contraire en usant pleinement de son
pouvoir de dénonciation que le critique se fait complice, qu'il devient un rouage à part
entière du système de production, un partenaire de la réussite audimétrique et
économique des sociétés Endemol et M6. Pourquoi partenaire ? Les voix critiques ont
donné à cette émission ce qui lui faisait défaut, du sens. Elles ont accrédité l'idée,
essentielle au projet, que quelque chose comme un espace public de discussion pouvait
être en jeu. Et ceci, qu'elles se rangent du côté de la «critique éclairée», qui interroge les
logiques télévisuelles, de la «démarche compréhensive», qui fait du programme
l'expression d'une société ou de l'«indignation apocalyptique» 21 - tout particulièrement
sans doute dans ce dernier cas. Libération a dénoncé le fait que les lofteurs soient de la
« chair à audimat ». La chair était fournie par M6, les critiques ont occupé le terrain de
l'esprit - un terrain d'autant plus facile à occuper qu'ils ont massivement dénoncé le vide
politique et culturel d'une société qui regarde LS. Ils se sont référés à de grands principes
éthiques, «valorisant» au sens propre une émission qui pour ses concepteurs et
diffuseurs avait pour objectif la rentabilité économique maximale. Ils se sont mis malgré
eux au service de l'audience 22 . Étrange renversement, car au moins, Steevy, Loana et les
autres savaient à quoi ils participaient et revendiquaient leur désir de notoriété et
d'argent.
Sans doute la dénonciation est-elle utile. Mais en l'occurrence elle n'a pas permis de
faire baisser l'audience, bien au contraire. Alors que la critique est censée être salvatrice, elle
a ici été dévastatrice. Il ne s'agit pas ici de désavouer l'exercice de la critique, mais de
souligner le type de paradoxe dans lequel toute voix critique se trouvait structurellement
prise: dénoncer le vide politique et culturel d'une société qui regarde LS équivalait à remplir
l'espace journalistique avec LS.
M6 a orchestré un débat qui a relégué au second plan sa stratégie économique, tout en
la confortant. Alors que l'audience se définit comme un ensemble de consommateurs, les
critiques ont glosé sur les effets du programme sur les téléspectateurs-citoyens. Ce faisant,
ils ont contribué à maximiser l'audience en incitant les Français à regarder le programme
pour s'en faire une idée, et à l'optimiser, en attirant vers le programme des CSP+, prisées

150 HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

par les annonceurs. Bref, ils ont participé à la production du programme, en conférant du
sens à une entreprise économique et en lui donnant la dimension d'un débat public23.

L'œil de M6 omniprésent

L'utilisation du logotype dans les médias est un indice flagrant du piège dans lequel
sont tombés beaucoup de ceux qui ont voulu faire entendre une voix critique. L'«œil» du
Loft a été massivement repris dans les médias, avec les codes-couleurs qui l'accompagnent.
Alors qu'habituellement un logotype est jalousement gardé par son propriétaire, ici il a
manifestement été gracieusement distribué... Ce qui a donné lieu à des paradoxes, comme
celui de, Marianne, dénonçant le fait que la France soit prise « en otage dans un bunker de
225 m 2 » 24 et livrant dans le même temps les indices visuels de sa propre sujétion, avec en
couverture les couleurs bleu et orange de l'émission et pas moins de 22 reprises du
logotype...
Pourquoi les médias ont-ils repris ainsi les marqueurs sémiotiques de Loft Story ? Sans
doute parce que l'œil choisi comme logo par M6 fait référence au Big Brother de 1984,
symbole de la terreur, du haïssable. M6 a choisi pour son émission un anti-logo, une contre-
publicité: la chaîne a fait d'un symbole du détestable son image de marque et un objet
d'adoration. D'où l'ambivalence des reprises: les médias critiques l'ont repris au nom de son
signifié «absolu» (hors-contexte LS), alors qu'en contexte (sur le marché médiatique) ils ne
faisaient que rendre service au programme stigmatisé. De l'espace des couvertures à
l'économie visuelle des kiosques à journaux, l'occupation du champ visuel par la signature
de LS a fait des critiques des partenaires économiques malgré eux - est-ce vraiment malgré
eux d'ailleurs, puisque les ventes ont connu une hausse non négligeable pendant la période
de diffusion du Loft ?

De l'instrumentalisation de la critique
à l'industrialisation de la trivialité

Une réflexion est nécessaire, par-delà le constat de cette «capture» de la fonction


critique, sur les transformations en jeu de l'économie médiatique, aux sens propre et figuré

HERMÈS 37, 2003 151


Yves Jeanneret et Valérie Patrin-Leclère

(ce qui est en jeu, c'est bien le rapport entre logiques communicationnelles et logiques
financières). À cet égard, plusieurs perspectives s'offrent à nous. La première consiste à
mettre LS en rapport avec un phénomène médiatique plus général, la montée d'une
«logistique de la trivialité» dont on a vu beaucoup de formes récemment. Les médias y
apparaissent comme producteurs, moins d'un discours sur le monde que d'un dispositif de
réactivation incessante du commentaire affectionnant, non le débat, mais la querelle. Pour
le dynamisme médiatique d'un tel dispositif, plus la question est porteuse de malentendus,
plus les commentaires prolifèrent25.
C'est peut-être l'un des aspects qui rassemblent le plus profondément - au plan des
logiques de dispositifs plus que de telle ou telle technologie - les dynamiques de la
télécommunication, celles de la presse et celles de l'audiovisuel. Dressant quelques
perspectives d'observation et d'analyse des «industries du contenu», Bernard Miège
souligne la complexité des rapports qui unissent aujourd'hui les industries de programme
proprement dites et la confection de dispositifs destinés à permettre l'activité
communicationnelle. Ces derniers visent à développer des potentialités de communication,
attendant des acteurs sociaux qu'ils les investissent et leur donnent toute leur rentabilité26.
Ce à quoi nous assistons, avec LS, c'est à une forme d'articulation très particulière de ces
deux logiques. L'entreprise médiatique crée des programmes en même temps que des
structures et des formes que les acteurs remplissent de leurs propres productions
communicationnelles. À cet égard, LS s'apparente d'une certaine façon à la série
messageries, forums, libre antenne, etc. La chaîne ne choisit pas entre média de programme
et média de relation, mais systématise une logistique de l'interdépendance entre ces deux
dimensions du travail médiatique. D'où la place tout à fait nouvelle occupée par la critique,
et plus généralement le débat, dans l'économie télévisuelle.
Enfin, la réflexion ici amorcée pourrait contribuer à «décrisper» quelque peu le débat
théorique au sein de la sociologie des médias. Il est très difficile de sortir d'une position du
problème qui obligerait à choisir entre des industries culturelles comprises comme
asservissement des esprits et une liberté souveraine du «récepteur». L'expérience de LS
suggère la solution imaginée par le capitalisme pour dépasser cette alternative: celui-ci n'a
nullement besoin de contrôler les jugements pour étendre sa capacité à industrialiser le
champ culturel. Il lui suffit d'assurer une industrialisation de la réception, ou plus
exactement de la trivialité. Du point de vue des experts de l'audience, quelle que soit la
posture du récepteur, qu'il collabore, dénonce ou négocie le code, pour reprendre les
termes de Stuart Hall27, tout est bon. Everything goes.

152 HERMES 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

NOTES

1. Terminologie évidemment idéologique (Jost, François, La Télévision du quotidien: entre réalité et fiction, INA
De Boeck, 2001).
2. Système qui s'est généralisé avec la domination de la télévision commerciale, déclenchée en France par la
privatisation de TFl en 1987.
3 II ne faut donc pas considérer comme synonymiques les expressions «l'audience d'une émission» et
«l'ensemble de ses téléspectateurs». C'est vrai pour tous les médias de masse: l'audience d'une émission de
radio, ce n'est pas la même chose que son auditoire; l'audience d'un titre de presse, ce n'est pas la même chose
que son lectorat. Ce n'est pas la même chose... alors que dans l'usage les concepts sont employés
indifféremment, sous prétexte que «l'ensemble des consommateurs» désigne les mêmes individus que
«l'ensemble des téléspectateurs», «des auditeurs» ou «des lecteurs»...
4. Émission quotidienne à 18 heures du 26 avril 2001 au 20 mai 2001, puis à 19 heures du 21 mai 2001 au 5 juillet
2001 et «best-of» de quelques minutes tous les jours à 20 h 45.
5. Chaque jeudi à 20 h 45.
6. «Loft Story prenant la succession du traditionnel film du jeudi limité par la loi à une seule interruption
publicitaire, M6 a pu insérer un écran de coupure supplémentaire et augmenter ainsi son temps de diffusion
publicitaire du jeudi soir sur la tranche 20h50-23h30. La conjugaison de la hausse des tarifs et de
l'augmentation du temps de publicité a permis à M6 de multiplier ses recettes brutes, qui ont plus que triplé
entre un jeudi moyen d'avant Loft et un jeudi moyen durant Loft Story. » (Communiqué de presse de l'Union
des annonceurs, 11 juillet 2001, «Les annonceurs français et la télévision-réalité»).
7. 570000 personnes se seraient connectées quotidiennement en moyenne en 2001. Elles seraient près de
700000 en mai 2002 (Le Parisien, 31 mai 2002).
8. 600 000 exemplaires vendus pour les trois numéros du magazine (Source: extraits d'analyse financière réalisée
par Crédit Lyonnais Securities Europe, supplément publicitaire au Journal du Dimanche, 1 avril 2002. Article
«Loft Story: le salaire de la peur»).
9. Disque des lofteurs vendu à plus de 1, 2 million d'exemplaires en 2001.
10. Estimées à 4 millions d'euros; même source que note 7.
11. Comme annoncé en voix off dans le jingle de présentation de l'émission.
12. Dominique Mehl voit dans ce programme l'apogée de la «néotélévision», marquée par la participation du
public, le jeu entre réalité et fiction, la dominante relationnelle du contrat de communication et la prétention
de la télévision à agir dans le social (Mehl, D., «La télévision relationnelle», Cahiers internationaux de
sociologie, vol. CXII, 2002, p. 63-95).
13. Benjamin Castaldi, 24 mai 2001.
14. Le Medef n'a pas pris une position morale, mais il s'est inquiété pour la productivité des entreprises
françaises, en raison du grand nombre de salariés connectés au Loft depuis leur lieu de travail.
15. Rolland, Romain, «Jean-Christophe: La Foire sur la place», Cahiers de la quinzaine, 9e série, 13e cahier, 1908.

HERMES 37, 2003 153


Yves Jeanneret et Valérie Patrin-Leclère

16. Les chiffres d'audience et les prix de vente de l'espace publicitaire ont été généreusement fournis par M6 aux
différents médias, notamment de presse écrite, qui les ont fait connaître au grand public. Or il est rare que les
médias-supports communiquent des chiffres relatifs à la vente de leur espace publicitaire: vis-à-vis des
destinataires, ils préfèrent généralement rester aussi discrets que possible sur le fait que la production et la
diffusion de programme ont pour but l'obtention de revenus publicitaires.
17. «Voici trois versions afin de savoir quoi dire dans le bus, au dîner de famille ou à vos enfants qui vous serinent
avec Aziz, Kenza, Jean-Edouard, Loana et les autres. » (France-Soir, 19 mai 2001).
18. Libération, 3 mai 2001.
19. «Le Monde a voulu connaître la façon dont les Français regardent ce programme, qui a suscité une abondante
polémique, notamment dans nos colonnes. » (Le Monde, 19 mai 2001).
20. «Pour Loft Story», Les Cahiers du cinéma, n° 558, juin 2001.
21. Les catégories sont empruntées à Dominique Mehl («Loft Story: la fracture culturelle», in L'État de l'opinion,
Sofrès, Paris, Seuil, 2002, p. 143-157).
22. Sur ce point, notre analyse se distingue nettement de celles qui défendent l'idée que l'émission aurait réussi
en dépit des critiques. Le dispositif LS est fabriqué pour tirer bénéfice de la critique et de la dénonciation, il a
été bâti pour les susciter et s'en nourrit. De ce point de vue, l'idée d'un succès contre la critique couronne la
création de sens en qualifiant le programme comme culture populaire authentique opposée à
l'intellectualisme, aux « gens d'en haut ».
23. Le moindre succès de Loft Story 2 nous semble confirmer cette analyse. Les voix critiques n'étant plus
présentes pour conférer du sens à l'entreprise, l'audience chute malgré le maintien et l'accentuation du
caractère exhibitionniste du programme et la chaîne se voit contrainte à dévoiler le dessous des cartes. M6
répond à cette difficulté d'exciter la réécriture par le cynisme, en parlant argent, en revendiquant sa réussite
économique et surtout en occupant elle-même le terrain critique laissé vacant (Le loft du samedi soir, Le
morning live, partenariat avec Fun radio, etc. ). LS 2 est moins une nouvelle émission identique qu'un élément
du processus de commentaire.
24. Marianne, n° 216, 11-17 juin 2002.
25. JEANNERET, Yves, L'Affaire Sokal ou la querelle des impostures, Paris, PUF, 1998.
26. MIÈGE, Bernard, Les Industries du contenu face à l'ordre informationnel, Grenoble, Presses Universitaires de
Grenoble, 2000.
27. HALL, Stuart, «Encoding/Decoding», Culture, Medias, Languages: Working Papers in Cultural Studies,
Londres, Hutchinson, 1980.

154 HERMES 37, 2003


III. L'AUDIENCE COMME OUTIL
DE CONNAISSANCE DU PUBLIC

Michel Souchon

Sophie Benoit

Dominique Boullier

Marc Tessier
Michel Souchon
Groupe Bayard

POUR UNE UTILISATION COMPLEXE


DE L'AUDIMÉTRIE

L'origine de la télévision en France correspond à la naissance de la méthode des


sondages. Jean Cazeneuve et Jean Oulif voyaient en cette concomitance «la grande chance
de la télévision»1. Conscients du caractère partiel des réactions exprimées par les lettres des
auditeurs et des téléspectateurs, les responsables de la radio et de la télévision ont eu recours
très vite aux consultations d'échantillons représentatifs pour recueillir des informations sur
le nombre et la satisfaction des publics de leurs émissions. Ces sondages commandés à
l'Ifop, voire à l'Insee, semblaient scientifiquement solides, et leur utilisation dans la
programmation ne paraissait pas scandaleuse, d'autant qu'elle était limitée: bien d'autres
critères pesaient davantage, les prescriptions des élites politiques et culturelles notamment.
Et, de toutes manières, tout le public à l'écoute se répartissait sur les deux ou trois chaînes
du service public.

L'audimat accusé

Lorsque les chaînes se multiplient et que la publicité joue un rôle grandissant dans le
financement des sociétés de programmes, la situation change totalement. Dans les années
1980, l'instrument audimétrique se met en place, alors que les chaînes commerciales font leur
apparition dans le paysage audiovisuel. Les observateurs et les critiques voient dans cette
nouvelle concomitance la grande malchance de la télévision. Et, depuis lors, la dénonciation

HERMÈS 37, 2003 157


Michel Souchon

de la «dictature de l'audimat» est un des thèmes récurrents des discours sur la télévision.
Avec un présupposé implicite: l'opposition de l'audience et de la qualité. On ne peut servir
deux maîtres, il faut choisir. D'où la nécessité de compléter la mesure de l'audience par
l'évaluation de la qualité, l'«audimat» par le «Qualimat». La première apparition du terme
est bien antérieure: elle date déjà de l'éclatement de l'ORTF, en 1975, lorsque le législateur
introduit la note « Q » dans l'équation de répartition de la redevance entre les sociétés issues
de PORTE Nouvelles manifestations en 1989 dans la bouche du premier «président
commun» de la télévision publique, Philippe Guilhaume, puis de Jean-Noël Jeanneney en
1991. Dans le même sens, on se souvient des déclarations de M. André Santini, lors de la
privatisation de TF1 en 1987 («On ne demande pas à Antenne 2 de faire de l'audience, on
lui demande de faire de la culture. ») et de celle de M. Jean-Jacques Aillagon, quinze ans plus
tard. Les nominations aux mêmes postes produisent les mêmes effets de discours.

Injonctions contradictoires

Ainsi, tout au long de son histoire, le service public de la télévision a été invité à remplir
une mission présentée, de manière drôle et très juste, par Françoise Giroud à la fin des
années 1980: «On demande à Antenne 2 d'avoir l'audience de TF1 avec les programmes
d'Arte. » C'est enfermer les responsables de la télévision publique dans ce «double bind»
dont nous ont beaucoup parlé les psychologues de l'école de Palo Alto. «Faites bien ce que
vous voudrez, de toute façon, ce sera mal. Votre audience est faible: c'est mal; certes vous
avez de bons programmes, mais vous êtes incapables de rassembler les foules dans les
grandes célébrations joyeuses de la culture. Votre audience est forte: c'est mal; vous racolez
le public avec des émissions qui ne présentent pas suffisamment de différence par rapport
à celles des télévisions commerciales. »2 Je vais essayer de montrer que les travaux sur le
public de la télévision, sur l'audience de la télévision peuvent aider à sortir de cet
enfermement dans des injonctions contradictoires.

Un instrument nécessaire aux sociétés de programmes

Entendons-nous bien: l'objectif de ce texte n'est pas de faire l'apologie d'une politique
de programmes médiocre. Il est bien clair que la recherche obsessionnelle de l'audience

158 HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

maximale conduit à la démagogie. Mon but est différent: il est de montrer qu'il est possible
de faire une utilisation intelligente et féconde de l'instrument audimétrique, y compris pour
des télévisions du service public. Pour enseigner les mathématiques à John, dit la vieille
sagesse des pédagogues, il faut connaître les mathématiques et John. Pour faire une bonne
politique de programmes, il faut connaître le public, dans la diversité de ses attentes et de
ses comportements. À quoi l'instrument audimétrique contribue. Il n'est assurément pas le
seul. Dans la mesure où le public de la télévision est coextensif à la société française, tous
les travaux économiques ou sociologiques et toutes les études de prospective sont utiles
pour connaître les téléspectateurs. Les sociétés de programmes ont encore recours à des
réunions de groupe, à des entretiens non directifs, à des tests de «pilotes», etc. Mais,
compte tenu du coût de l'instrument audimétrique, il serait malheureux qu'il ne soit pas
utilisé aussi intelligemment que possible par les responsables des sociétés de programmes.
Pendant les premières années de son existence, les audimètres ne mesuraient que l'audience
des foyers. En 1988-1989, l'addition des boîtiers comportant des touches individuelles a
permis des tris beaucoup plus intéressants et le suivi des comportements personnels. À
partir des données ainsi collectées, une utilisation intelligente suppose la construction
d'indicateurs, car l'audience est une réalité complexe que l'on ne peut appréhender par un
seul indicateur.

Un détour: l'audience, c'est des « heures-spectateurs »

Pour construire des indicateurs d'audience et les bien comprendre, il me semble


utile de passer par une idée simple: l'audience de la télévision ne s'exprime et ne devrait
à peu près jamais s'exprimer en nombre de personnes, mais en nombre d'heures-
spectateurs. L'audience de la télévision, c'est des gens qui passent du temps devant la
télévision. Non pas des spectateurs seulement. Non pas des heures abstraitement. Des
heures-spectateurs, comme on parle de kilomètres-voyageurs en économie des transports.
Pour parler de l'audience d'une émission de télévision, on ne peut utiliser seulement un
nombre de gens; on ne peut utiliser seulement une durée pour parler de l'audience d'une
chaîne. Les seuls cas où on puisse parler en nombre de gens, c'est au sujet de l'audience
instantanée (à tel moment précis, telle chaîne ou telle émission avait tant de spectateurs)
et de l'audience cumulée (pendant la diffusion de telle émission ou pendant telle période
de temps, tant de personnes ont regardé au moins une partie de cette émission ou de
cette tranche horaire). Dans les autres cas, l'audience de la télévision doit être exprimée
en heures-spectateurs3.

HERMÈS 37, 2003 159


Michel Souchon

Un exemple: Tannée 2001

Le volume L'Année TV 2001, publié par Médiamétrie, nous apprend que la part
d'audience de TF1 sur l'ensemble de l'année a été de 32, 7 % , celle de France 2 de
21, 1 %, celle de France 3 de 17, 1 %, celle de M6 de 13, 5 %, etc. Pour comprendre ces
chiffres, il faut passer par un volume total d'écoute de la télévision additionnant toutes
les heures passées devant le petit écran par les 7 240 personnes « de quatre ans et plus
vivant dans un foyer équipé au moins d'un téléviseur» qui font partie du panel
audimétrique de Médiamétrie et qui représentent (au sens des sondages) la population
de référence (53 millions). Ce volume d'écoute se chiffre en heures par individu (en
2001, 3 heures 17 minutes en moyenne journalière; 1 054 heures 32 minutes en volume
annuel) ou mieux en heures-spectateurs (55, 89 milliards sur l'année). Pourquoi
privilégier cette dernière approche? Parce que le chiffre par individu est un chiffre
moyen qui conduit à penser que les différences entre les individus sont peu
importantes. On dira couramment que les Français regardent la télévision pendant plus
de mille heures par an. Ce qui est faux: certains regardent pendant beaucoup plus de
temps et d'autres pendant beaucoup moins. Le volume d'écoute exprimé en heures-
spectateurs n'induit rien de tel. De plus, je montrerai plus loin que cette manière de
présenter le volume d'écoute permet des analyses nombreuses et révélatrices des
comportements différenciés des spectateurs.

Multiplicité des indicateurs de « l'audience »

À partir des banques de données constituées par les relevés audimétriques, on peut
construire des indicateurs très nombreux. Citons en quelques-uns:
- l'audience instantanée (Instant Audience) est le plus simple: c'est l'ensemble des
personnes présentes devant la télévision ou telle chaîne à un moment précis;
- l'audience cumulée (Reach ou Cumulative Audience) est l'ensemble des personnes qui
ont vu au moins un fragment de la période étudiée (émission ou tranche horaire);
- l'audience en entier {Programme Total Audience) est l'ensemble des personnes qui ont
vu toute la période étudiée (émission ou tranche horaire);
- l'audience moyenne {Rating ou Average Audience) est le nombre de personnes
présentes, en moyenne, pendant la durée d'une émission ou d'une tranche horaire
(autrement dit, c'est la moyenne de toutes les audiences instantanées);

160 HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

- la part d'audience ou part de marché (Share) est le rapport de l'audience moyenne


d'une émission ou d'une tranche horaire à l'audience moyenne de la télévision pendant le
même laps de temps;
- le volume d'écoute (Viewing Time) est le temps passé devant la télévision (ou telle
chaîne) pendant une période de temps donnée par l'ensemble des individus d'une
population;
- etc.

On ne peut mesurer «l'audience d'une émission»


par un seul chiffre

De ce qui précède, on peut déduire que «l'audience d'une émission» ne peut être
mesurée par un seul chiffre. Ou plutôt, l'audience d'une émission ne devrait pas être
mesurée par un seul chiffre, car le plus souvent on entend ou on lit des phrases comme:
«Telle émission a eu 10 % d'audience, ce qui, compte tenu de la valeur du point, représente
5, 3 millions de spectateurs. » C'est réduire la notion d'audience à un seul indicateur,
l'audience moyenne. Donnons deux exemples qui montreront que la réalité de l'audience
est bien différente. Deux films ont été diffusés par la télévision publique pendant la semaine
du 11 au 17 mai 1992: Les Liaisons dangereuses (mardi 12 mai, France 2, 20h56,
115 minutes) et Le Guépard (jeudi 14 mai, France 3, 20h47, 171 minutes). Les indicateurs
utilisés ici sont assez faciles à saisir. Disons seulement que le pourcentage de fidélité répond
à la question: sur 100 personnes présentes au début de l'émission, combien l'ont vue en
entier ?

Les Liaisons dangereuses Le Guépard

Audience cumulée 36, 2 % = 18, 6 millions 30, 4 % = 15, 6 millions


Audience initiale 7, 3 % = 3 , 6 millions 5, 8 % = 2 , 9 millions
Audience moyenne 7, 8 % = 3 , 9 millions 4, 5 % = 2, 2 millions
Audience finale 6, 9 % = 3 , 4 millions 2, 7 % = 1, 3 million
Audience intégrale 4, 8 % = 2 , 4 millions 1, 5 % = 0 , 7 million

Heures-spectateurs 7, 475 millions 6, 270 millions


Pourcentage de fidélité 62% 23%

HERMÈS 37, 2003 161


Michel Souchon

On voit bien, sur ces deux exemples, que le public d'une émission est à la fois
beaucoup plus et beaucoup moins important que le chiffre de l'audience moyenne.
Beaucoup plus important, parce que, presque toujours, le nombre de ceux qui voient un
fragment d'une émission donnée est plus grand que celui qui est exprimé par le chiffre de
l'audience moyenne de cette émission: beaucoup de gens entrent et sortent, passent
quelques instants. Beaucoup moins important, si on ne retient comme «spectateurs» de
l'émission que ceux qui l'ont vue en entier (à la manière des spectateurs d'une salle de
cinéma)4. Autrement dit, l'audience d'une émission et de la télévision en général ne peut être
analysée uniquement avec la métaphore de la salle de spectacle, une partie relève de la
métaphore de la salle des pas perdus.

Des usages différents

Les utilisateurs de l'audimétrie ont des manières de faire différentes et privilégient tel
indicateur plutôt que tel autre. Les publicitaires, par exemple, construisent des indicateurs
tels que le «GRP» (c'est-à-dire l'addition des pourcentages d'audience moyenne obtenus
par un message publicitaire lors de ses différents passages à l'antenne), la «couverture» (le
nombre total de personnes ayant vu un message publicitaire au moins une fois lors de ses
différents passages à l'antenne) ou le «taux de répétition» (le nombre moyen d'expositions
à un message publicitaires pour les personnes figurant dans la «couverture»). Les
programmes de média planning sont destinés à chercher l'utilisation optimale du budget
d'un annonceur en déterminant les emplacements les plus favorables, en termes de GRP, de
couverture ou de répétition, en fonction de la cible des messages. Il faut ajouter à ces calculs
permettant de déterminer le «coût au mille» le plus faible possible, des facteurs moins
facilement pondérables comme la «prime au leader», la notoriété et le prestige d'un
programme, etc. Ici peuvent intervenir une bonne politique de communication et l'accent
mis sur un indicateur de la «force globale» de la chaîne: sa part de marché.

L'obsession des parts de marché

Autre exemple, moins savant et plus anecdotique, d'un usage des données
audimétriques. Cet exemple illustre la surévaluation d'un seul indicateur, la «part de

162 HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

marché», dans les télévisions commerciales. J'étais responsable des études à TF1 au moment
de la privatisation, en 1987. Les nouveaux responsables de la chaîne disaient: «Nous n'avons
acheté rien d'autre que 40 % de part de marché. Et nous les avons payés très cher {le plus
gros chèque jamais signé par un Auvergnat, a dit Francis Bouygues dans une interview). On
annonce que nous descendrons à 33 % en 1992. Il faut éviter cette baisse. » La barre des 40 %
devint la ligne bleue des Vosges. Pendant l'été, une note de service me demanda de faire
chaque semaine un document qui porterait, sur la grille de programmes hebdomadaire, pour
chaque émission de la chaîne, l'objectif d'audience correspondant à 40 % de part de marché
et l'audience réalisée, «afin qu'on voie rapidement les émissions viables et celles qui n'ont
plus leur place dans la grille». L'utilisation de stabilos rouge et vert rendait le document
rapidement lisible!5 Ayant surtout travaillé dans le secteur du service public, je souhaite
montrer que l'instrument audimétrique présente beaucoup d'intérêt pour évaluer les
télévisions de ce secteur, lorsqu'on dépasse cette manière simpliste de l'utiliser.

L'étude de la structure du volume d'écoute par genre

Revenons au volume d'écoute exprimé en heures-spectateurs. Il peut être analysé dans


des directions très variées. Donnons quelques exemples. Il est possible de chercher quelle
est la part tenue par les différentes catégories d'émission dans le volume d'écoute de la
télévision. En 2001, les journaux télévisés représentaient 15, 3 % des heures-spectateurs; les
films 7 % ; les fictions télévisées 24, 8 % ; les magazines et documentaires 20, 4 %; les jeux
8, 5 % ; les variétés 4, 3 % ; les émissions sportives 4, 8 % ; les émissions pour la jeunesse
2, 7 % ; la publicité 8, 2 % . . . La comparaison de la structure du temps d'antenne (des
programmes diffusés) et de la structure du volume d'écoute (des programmes reçus) permet
des analyses utiles des comportements des spectateurs. Une autre comparaison, celle de la
part des genres dans les programmes diffusés et dans le volume d'écoute des différentes
chaînes, est un instrument performant pour l'étude du paysage télévisuel.

Le téléspectateur moyen n'existe pas

Pour sortir de la fiction simplificatrice du «téléspectateur moyen», il est indispensable


d'étudier la structure du volume d'écoute par genre de programmes dans les groupes de la

HERMÈS 37, 2003 163


Michel Souchon

population classée par âge, sexe, type d'activités socioprofessionnelles ou catégorie


d'habitat. J'ai pratiqué des études comparées de la télévision reçue par des groupes
constitués en fonction de l'importance de leur durée d'écoute de la télévision6. Ces études
ont permis de découvrir que les téléspectateurs les plus assidus ont un éventail de choix plus
ouvert que les petits spectateurs, faisant aux émissions de découverte et d'ouverture sur le
monde une place importante, alors que bien des essayistes croient qu'une forte durée
d'écoute s'accompagne de la consommation boulimique des fictions et des divertissements.
Exemple: la part relative de la fiction télévisée et surtout des films est beaucoup plus élevée
dans la «télévision reçue» des «petits consommateurs» que dans celle des «gros
consommateurs» 7 . Ces derniers se servent beaucoup du petit écran parce que, n'ayant pas
de nombreux moyens d'information, de distraction, de loisirs et de spectacles, ils font de la
télévision un «média utile à toutes fins» (un all-purpose media, disaient dès les années 1970
des sociologues anglais)8.

Une variable complexe

J'aime bien le mot de Jean Paulhan: «C'est le langage qui a besoin d'être simple, et les
opinions un peu compliquées. »... Pour compliquer un peu les analyses, il m'a semblé utile,
à plusieurs reprises, de croiser les variables d'âge, de niveau d'instruction et de sexe pour
obtenir une «variable complexe» que j'ai appelée - pas très finement - Anis. À partir de
deux niveaux d'instruction (relativement bas et relativement élevé), de trois classes d'âge
(jeunes, personnes d'âge moyen et personnes âgées) et des deux sexes, on obtient une
typologie en douze groupes construite a priori9.

La fidélité à un programme comme indicateur d'intérêt

Encore un autre souvenir d'ancien combattant. Lorsque je travaillais dans le secteur des
études de la télévision publique, la demande m'a été adressée à plusieurs reprises de
construire des «indicateurs de la qualité» qui compenseraient le poids jugé excessif de
l'audience. L'utilisation des sondages à cet effet se heurtant à des difficultés de méthode qui
me semblaient - et qui me semblent toujours - insurmontables, j'ai toujours plaidé pour la
recherche d'indicateurs basés sur le comportement objectif des responsables des chaînes,

164 HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

suivant la règle énoncée par Maria Casarès dans un vieux film de Bresson: «Il n'y a pas
d'amour, Hélène, il n'y a que des preuves d'amour. » Quelles preuves d'amour de la qualité ?
Par exemple: le nombre d'heures de documentaires diffusés; la nature des émissions placées
dans le prime time (ouvrent-elles vraiment les choix des téléspectateurs aux heures de plus
grande écoute?); la part du budget consacrée aux créations dans le domaine de la fiction et
des programmes caractérisant le service public, etc. Mais il est possible d'emprunter une
autre voie qui s'appuie à contre-courant sur les chiffres de l'audimétrie. Par exemple, il est
possible de calculer le nombre de personnes ayant suivi la totalité d'une émission, et de
produire des «pourcentages de fidélité» répondant à la question: «Sur 100 personnes
présentes au début de l'émission, combien l'ont suivie jusqu'au bout ? ». Il est clair que cet
indicateur apporte des informations sur la capacité des émissions à intéresser leur public.

Des « preuves » de la qualité

L'utilisation des indicateurs que nous avons énumérés et définis ci-dessus permet
d'apporter encore d'autres preuves de la qualité d'une chaîne de service public... à
condition évidemment que ses résultats soient probants !
Exemples:
- Les chiffres d'audience cumulée sur une semaine (en retenant une durée minimale
significative, de l'ordre du quart d'heure en continu) montrent que beaucoup de gens
utilisent la chaîne, la jugent «utile»: malgré l'extrême diversité des publics et malgré les
exigences contradictoires des spectateurs, la proportion est très faible de ceux qui, au cours
d'une semaine, ne trouvent absolument rien d'intéressant sur cette chaîne; ce qui apporte
la preuve qu'elle est authentiquement «généraliste».
- Dans la structure du volume d'écoute de la chaîne, les émissions de la curiosité, de
l'intelligence et de l'information tiennent une place importante: les spectateurs manifestent
qu'ils ont besoin de cette chaîne pour ce type de programmes qu'ils trouvent plus
difficilement ailleurs (plus rarement ou à des heures de moins forte écoute).
- La part d'audience de la chaîne est élevée dans tel groupe de la population, négligé
par les télévisions commerciales, alors que ce groupe, pour diverses raisons, compte
beaucoup sur la télévision pour son information, son divertissement et sa culture.
- P o u r ce qui est des émissions caractéristiques d'une télévision publique (les
documentaires, les magazines d'information ou de reportages), les parts d'audience de la
chaîne sont supérieures à la part d'audience moyenne, ce qui prouve la différence de ses
productions et de sa politique de programmation.

HERMÈS 37, 2003 165


Michel Souchon

Une utilisation intelligente ?

Au moment de terminer ce texte, je rencontre un ami dans un ascenseur. Il me


demande si je m'occupe encore un peu du paysage télévisuel. Pas beaucoup, mais en ce
moment, justement, j'écris un texte sur la possibilité d'utiliser intelligemment l'audimat. Il
s'étonne: Est-ce possible ? J'allais essayer de lui répondre, mais les portes de l'ascenseur se
sont refermées. Je lui enverrai ce texte. Réussirai-je à vaincre son scepticisme ?

NOTES

1. Voir le livre qu'ils ont publié sous ce titre chez Calmann-Lévy, en 1963.
2. J'ai raconté cette histoire dans un essai de «sociologie narrative»: «Télévision et culture. Jalons et anecdotes
pour servir à l'histoire d'un malentendu», Revue de l'Institut de sociologie, Université libre de Bruxelles, 1995,
1-2, p. 155-170.
3. Voir «L'audience de la télévision: plaidoyer pour la notion d'heures-spectateurs», Médias Pouvoirs, 4 e
trimestre 1994, p. 11-20.
4. Le pourcentage de fidélité nettement plus faible obtenu par Le Guépard peut s'expliquer par deux facteurs:
sa plus grande longueur (une heure de plus que Les Liaisons dangereuses), qui a favorisé l'instabilité des
téléspectateurs (abandon pour certains, report en fin des programmes concurrents pour d'autres); son rang
de passage élevé (7e diffusion) qui en faisait un film déjà connu pour une bonne part de son auditoire, alors
que le film de Stephen FREARS, datant de 1988, était inédit à la télévision.
5. Dans le même temps, les responsables du budget recevaient commande d'un document analogue: sur la grille
des programmes de la semaine précédente, étaient portés le coût de chaque émission et la recette publicitaire
qu'elle avait générée.
6. Rappelons au passage que les durées d'écoute sont très différentes: 20 % des spectateurs réalisent près de la
moitié du volume total d'écoute, un peu plus de la moitié des heures-spectateurs étant assurée par les 80 %
restants. Une autre expression simple de cette inégalité est la loi paradoxale «1/3 = 2/3»: un tiers des
spectateurs est responsable des deux tiers des heures-spectateurs, etc.
7. Voir Les Structures du temps d'écoute: une nouvelle classification, Exposé aux journées de l'Irep (1990); Le
Public de la télévision, des comportements différents, Institut national de l'audiovisuel-Médiamétrie
(mai 1991); Régine CHANIAC et Jean-Pierre JÉZÉQUEL, Télévision et cinéma. Le désenchantement, Nathan et
Institut national de l'audiovisuel, 1998 (chapitre 4, «Public du cinéma et public de la télévision»).
8. Denis McQUAIL (dir. ), Sociology of Mass Communications, Penguin Books, p. 163.
9. On trouvera des résultats anciens des études Anis dans Petit écran grand public (La Documentation française,
1980, p. 38-60) et dans «Le vieux canon de 75. L'apport des méthodes quantitatives à la connaissance du
public de la télévision» (Hermès 11-12, 1992, p. 187-199).

166 HERMES 31, 2003


Sophie Benoit
France 2

UNE DIRECTION DES ÉTUDES


DANS UNE CHAÎNE
DE TÉLÉVISION PUBLIQUE

Toutes les chaînes de télévisions, publiques ou privées, à péage ou câblées, disposent


d'un certain nombre d'outils et les utilisent pour connaître le public qui les regarde. Ce qui
paraît à la fois normal et rassurant, pour qui fabrique des programmes et les diffuse, à
l'attention de 95 % de foyers français équipés d'au moins un téléviseur.
Le groupe Francetélévisions, qui totalise en moyenne sur une journée 27 millions de
personnes1 et plus de 40 % de part d'audience, serait bien méprisant de se tenir à l'écart de
ses téléspectateurs, de leur adhésion, de leur intérêt à regarder tel ou tel programme, de leur
plaisir ou... leurs infidélités (!). Une direction d'Etudes commune aux chaînes du groupe et
trois directions affiliées à chaque chaîne sont chargées de regrouper et d'analyser l'ensemble
des données disponibles sur l'auditoire de la télévision.
Combien de téléspectateurs, où, quand, comment, pourquoi... ? Questions
perpétuelles auxquelles la direction des Études tente de répondre afin de permettre à
France 2, chaîne généraliste de service public, de ne pas se couper de son public.
Pour trouver les réponses, les Études disposent d'outils divers et variés, allant du
traitement des données brutes d'audience aux études qualitatives en passant par l'analyse
des comportements de certaines catégories de la population française. Reste à bien cerner
les demandes de chacun, direction des programmes et de la programmation, unités de
programmes, et définir au mieux les problématiques pour sélectionner les outils les plus
adéquats.

HERMÈS 37, 2003 167


Sophie Benoit

À ce titre le rôle des responsables et des chargés d'études est primordial. C'est à eux
que revient le choix et la pertinence de la méthode, l'observation, l'analyse et la synthèse et
enfin la présentation et la diffusion des résultats.

Mesures et indicateurs d'audience

Il se passe beaucoup de choses dans un service d'études. Dès 9 heures du matin, les
coups de téléphone affluent, responsables d'émissions, directeurs, attachés de presse,
animateurs, tous préoccupés par leur taux d'audience de la veille. Mais le rôle des Études
ne se résume pas à sa capacité à répondre au téléphone. D'ailleurs, la diffusion des résultats
bruts, taux de pénétration, part d'audience, est depuis longtemps automatisée, proposée
sous forme de grille que chacun peut consulter dans la chaîne. Même si quelques confusions
peuvent perdurer, entre part d'audience et audience moyenne (sic), aujourd'hui, les
principaux acteurs de la chaîne percutent immédiatement à la lecture des résultats, soucieux
d'avoir touché leur public.
L'outil primordial et le plus performant pour quantifier l'écoute des téléspectateurs des
chaînes hertziennes reste le Médiamat. Les résultats issus du panel de Médiamétrie
fournissent les audiences de chaque chaîne, minute par minute et sur 27 cibles standard.
La première cible observée est celle qui comptabilise l'ensemble des téléspectateurs de
plus de 4 ans. Mais toutes les cibles sont passées à la loupe, des enfants de 4 à 10 ans aux
seniors de plus de 60 ans en passant par les CSP+ (catégorie socio-professionnelle élevée).
Dernière cible, mise en avant et exploitée par France Télévisions Publicité: les 25-59 ans.
En effet, pendant longtemps on a séparé de manière un peu systématique les moins de
50 ans, jeunes adultes et les plus de 50 ans, les vieux... Aujourd'hui, même si la ménagère
de 15 à 49 ans reste la cible privilégiée des annonceurs, certains regroupements collent
mieux avec la réalité démographique et économique de la société.
Médiamétrie met à la disposition des chaînes les données d'audience agrégées et
individuelles. Chaque service d'études peut, à partir de là, créer ses propres
«assemblages» (comme, par exemple, la cible des lecteurs de Télérama qui possèdent
deux voitures ! ! !).
De nombreux logiciels sont utilisés pour «triturer» au mieux les données du panel, afin
de fournir des résultats fiables et affinés. Ainsi presque chaque programmation aura sa
radiographie après diffusion: audience de l'émission et de sa concurrence, profil de public,
courbe minute à minute, audience cumulée, flux des téléspectateurs... On peut même
aujourd'hui observer ces données d'audience minute à minute en visionnant les

168 HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

programmes en même temps. Un outil qui permet une analyse très fine des flux de public,
des reports d'audience d'une chaîne à l'autre.
Toutes ces données n'ont finalement qu'un seul but: permettre aux «faiseurs» de
programmes et à leurs programmateurs de rencontrer leur public. Ainsi les premiers
interlocuteurs des Etudes sont les Directions des programmes et de la programmation.
Quoi de plus normal, en effet, pour la programmation d'une chaîne, de s'interroger,
avant la mise en place d'émissions pour enfants par exemple, des moments où ceux-ci sont
devant le petit écran, ou au contraire quand leur maman se retrouve seule au foyer, au cœur
de la matinée par exemple, et à qui la chaîne pourra proposer une émission
d'accompagnement.
L'art de la programmation réside donc, en fonction des observations de l'audience, à
capter le public majoritaire à un instant donné, ou bien en fonction de la concurrence, se
placer en offre complémentaire. Ainsi un étudiant rentré trop tôt de son université pourra
s'étonner, en allumant son poste, de la diffusion d'épisodes un peu vieillots de polars
allemands, mais qui font toujours recette auprès des téléspectateurs de plus de 50 ans,
majoritairement présents à cette heure-là de la journée.

Études qualitatives

Les résultats d'audience seuls ne sont pas suffisants pour analyser l'impact d'un
programme. Il importe à la chaîne de connaître plus finement les réactions de son public
afin d'ajuster au mieux ses programmes: l'habitude de regarder Derrick chaque jour cache
peut-être un énorme ras le bol, qui ne peut être immédiatement décelé dans le taux
d'écoute. Les études qualitatives vont permettre d'anticiper les lassitudes ou les envies de
nouveautés et nuancer ainsi les données chiffrées. C'est à partir de ces études, que l'on peut
comprendre les atouts ou les écueils d'un programme et de sa programmation. Elles sont
réalisées auprès de groupes de téléspectateurs, recrutés en fonction des objectifs de la
recherche (focus groupes), ou à partir d'entretiens individuels.
La conduite à bien de ces études est tout aussi fondamentale dans une direction
d'Etudes que l'analyse des données du panel.
Elles sont multiples et variées, traitent d'une émission en particulier ou d'un genre
télévisuel dans son ensemble (la fiction, le documentaire, le sport etc. ), servent à tester un
nouveau concept ou les réglages d'un nouveau jeu. Toutes donnent la Parole au
téléspectateur, seul ou en groupe, sélectionné en fonction du champ de l'étude et à qui l'on
demandera de «plancher» quelques heures sur un programme.

HERMÈS 37, 2003 169


Sophie Benoit

Les résultats mis à plat et analysés par des experts (psychologues, sémiologues,
sociologues, ethnologues ou tout cela à la fois ! ) sont présentés aux directions concernées et
la plupart du temps débouchent sur des mesures concrètes: ajustement du programme,
nouveau décor, changement de créneau de programmation, promotion plus ou moins forte.
Après la mise à l'antenne d'une nouvelle émission, l'audience peut paraître décevante.
On lance alors une étude qualitative qui permettra d'évaluer les résultats plus finement, de
recadrer éventuellement le format de l'émission et d'évaluer son potentiel. Un certain
nombre d'émission de «marque», quelques semaines après leur lancement et avec des
résultats d'audience moindres, Ça se discute, Donkey kong, Tout le monde en parle, Union
libre pour citer les plus emblématiques, ont récolté les faveurs des téléspectateurs, jeunes ou
plus âgés, lors de réunions de groupe. Et ces études qualitatives ont permis à la fois de
rassurer la direction de programme sur ses choix et de renforcer la communication.
Quelques mois plus tard, on pouvait retrouver ces mêmes programmes en tête des palmarès
d'audience et d'image.
Un gars, une fille, petit programme décapant et ne répondant pas aux normes
habituelles de la chaîne: format court (7 minutes), mi-fiction mi-sketch divertissant, humour
grinçant, générique à l'américaine..., autant de points très controversés au sein même de la
chaîne à la lecture des premiers résultats d'audience. Mais que fallait-il véritablement penser
de ces chiffres: le programme était-il définitivement rejeté ou n'était-il pas encore repéré...
notamment auprès d'un public peu fidèle à la chaîne ? Fallait-il le programmer à un autre
endroit dans la grille ? L'étude qualitative menée assez rapidement après sa mise à l'antenne
a montré des résultats extrêmement intéressants qui ont encouragé la programmation à
maintenir le programme à sa place. La réaction des plus jeunes téléspectateurs était
enthousiaste, s'amusant de se voir à l'avance dans les travers d'un couple, les plus âgés s'y
retrouvant avec nostalgie, et ceux du même âge, les « trentenaires », un peu gênés par ce
miroir tendu, mais prêts à en rire. Tous reconnaissant un programme culte qu'ils n'avaient
pas encore repéré à cet horaire sur une chaîne un peu traditionnelle.
Forte de ces résultats, la direction de la chaîne a tenu bon, remportant quelques
semaines plus tard les fruits en termes d'audience (programme de France 2 le plus regardé
chez les moins de 50 ans), en terme d'image (l'émission est systématiquement citée comme
source de renouvellement et modernisation de la chaîne), en vente de cassettes et de
disques. Chouchou et Loulou au rayon des produits cultes.
Dans un autre genre, mais tout aussi emblématique pour le public, le magazine
d'information Envoyé spécial occupait les jeudis de France 2 depuis plus de dix ans quand
ses deux présentateurs-fondateurs-producteurs ont laissé la place à un nouveau couple de
femmes, reporters de terrain. En même temps, apparaissaient le jeudi sur une chaîne privée,
Loft story, le Big Brother français qui allait déchaîner les passions et quelque peu bouleverser
les parts d'audience. Là aussi, les études qualitatives allaient pouvoir aider à repositionner

170 HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

le magazine et confirmer le bon accueil des fidèles du magazine à l'égard des nouvelles
présentatrices avant que l'audience se redresse.
Dans tous les cas, il s'agit d'avoir l'aval du public en termes de satisfaction. Et au fil de
l'existence de la télévision, le téléspectateur est devenu de plus en plus exigeant, voire quasi-
professionnel. Il sait dire quand il s'ennuie, quand les sujets du journal sont confus ou s'il
adore la soirée de polars du vendredi. L'amateur de jeux n'aime pas quand les règles sont
trop faciles dans un cas, ou cafouilleuses dans un autre. Et il aime aussi que les décors soient
«à la hauteur» et que l'animateur soit clair et chaleureux !
Ainsi plusieurs fois par an, les téléspectateurs sont sondés sur la qualité des
programmes, sur leur satisfaction par rapport à la chaîne. Et les verbatim résonnent parfois
comme des slogans: «France 2, la seule chaîne que l'on est fier de regarder ! »
Mais ces études n'ont pas valeur de représentativité (30 à 60 personnes interviewées).
Il convient de les croiser avec les résultats du Médiamat et d'autres sondages.

Baromètres quantitatifs

Il existe en effet un certain nombre de baromètres, montés avec des instituts d'études
reconnus sur le marché, qui permettent également de sonder le public sur ses habitudes
d'écoute, ses goûts et ses attentes. À partir d'échantillons représentatifs de la population
française, ces sondages nous renseignent sur l'image de la chaîne, son positionnement par
rapport à la concurrence, les genres les mieux traités. Certains sont publiés dans la presse
média, notamment le sondage Ipsos-Stratégie qui, par exemple, plaçait encore cette année
France 2 comme la meilleure chaîne de débats.
Leur fréquence d'interrogation permet de surveiller étroitement les positionnements
des chaînes. Les items sont construits de manière à répondre aux préoccupations des
chaînes de service public. Exemple: la chaîne « qui correspond le mieux à l'idée que je me
fais du service public», «qui éveille ma curiosité», «proche de mes préoccupations», «qui
divertit le mieux», «qui informe le mieux» etc. Ces baromètres sont d'ailleurs, dans la
plupart des cas, pilotés par la direction des études du groupe.
Ils sont utilisés également pour les émissions et pour les animateurs. France 2 comme
les autres, plus que les autres (?), a le souci de mettre en avant sur son antenne des
présentateurs proche de ceux qui les regardent. Que ce soit pour la présentation d'un jeu
d'été ou d'un magazine de société.
Il existe également des baromètres sur des « cibles » particulières, bien vilain mot pour
désigner une catégorie de personnes fédérées à partir de leur âge ou de leur particularité.

HERMÈS 37, 2003 171


Sophie Benoit

Ce sont dans la plupart des cas des études par souscription, accessibles à de nombreux
clients qui vont des chaînes de télé aux vendeurs de yaourts. Les plus jeunes, enfants et
adolescents sont régulièrement interrogés sur leurs goûts alimentaires, musicaux,
vestimentaires. Les responsables des programmes «jeunesse» de la chaîne peuvent, grâce à
ces indicateurs réguliers, garder un œil sur les exigences de leurs jeunes téléspectateurs qui
aiment le hip hop, Djamel et KD2A.

Les études comportementales et sociologiques

Mais que font-ils, qui sont-ils, ces téléspectateurs qui regardent souvent ou peu la
télévision. Bien connaître la société française, son évolution, va permettre de nourrir les
unités de programmes qui réfléchissent à l'évolution de leurs émissions mais aussi à la
création de nouveaux formats. Du responsable de la fiction à celui des magazines,
chacun s'intéresse à la façon dont les Français appréhendent la vie, le travail, les loisirs,
la famille.
Nous ne sommes plus là sur les relations entre les publics et les programmes de
télévision, mais sur l'analyse plus globale des comportements. Plusieurs types d'études vont
permettre d'observer les tendances de la société. Chaque année, un grand Institut de
sociologie (Sociovision-Cofremca) fournit les résultats d'un long et passionnant sondage qui
s'intéresse autant à l'humeur des Français qu'à leur relation à autrui ou à la politique.
Ainsi, l'on peut mieux comprendre, entre autres, l'énorme succès du magazine Ça se
discute qui traite des grands thèmes de société à travers le témoignage de l'individu. Ou le
succès fulgurant du film Le Fabuleux Destin d'Amélie Poulain. On le comprend mais
difficile de le prévoir. Le rêve de chacun serait de pouvoir augurer de ce que sera demain
afin de précéder la demande... Les études peuvent parler de tendance, comme dans les
cahiers de tendance de la mode, mais ne prédisent pas les choix, les décisions ultimes qui
feront le succès de tel produit ou de tel film. D'autant plus qu'aujourd'hui l'individu
revendique ses choix... paradoxaux! ! !
Autre institut, autre outil: l'étude «Budget-temps» (Sofrès) offre une approche très
concrète des téléspectateurs. Il s'agit de connaître sur une semaine type, quart d'heure par
quart d'heure, l'emploi du temps de l'ensemble de la population.
Depuis des années, sur les deux premières chaînes nationales, les journaux du soir
démarrent à 20 heures. La réussite de ces éditions (environ 13 millions de téléspectateurs
pour TF1 et France 2 réunies, soit presque les trois quarts du public disponible) va de pair
avec un horaire de programmation adapté aux habitudes de vie des Français.

172 HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

Avec les enquêtes Budget-Temps on peut tout savoir, ou presque, sur les horaires et les
activités principales des individus: l'heure du réveil, du petit-déjeuner, du dîner, du
coucher... travail, bricolage, jardinage, révision avec les enfants, lecture, etc. À 20 heures, la
plupart des gens sont rentrés chez eux, ont terminé de dîner... et ont déjà allumé leur TV.
Mais c'est à 21 heures que la majorité du public est réellement disponible, les jeunes parents
ayant couché leurs enfants. Si la direction des programmes décidait de démarrer les
programmes de premières parties de soirées à 20h30 pile, elle contenterait les plus âgés au
détriment de la population jeune et active.

Observation des programmes étrangers et promotion

Au-delà du travail d'observation et d'analyse des publics, les Études participent


pleinement à la vie de l'antenne en collaborant activement avec de nombreux services
comme les Achats de programmes étrangers, les directions artistiques et de communication.
La direction commune aux trois chaînes concentre l'ensemble des données concernant
les chaînes et les programmes étrangers. Du simple profil d'audience de The Weakest link
sur la BBC {Le Maillon faible) à l'étude des soaps ou à celle des sitcoms en Europe menées
par l'Ina, rien de ce qui se passe ailleurs, ou presque, n'est laissé de côté. Cela permet de
repérer de nouveaux formats ou de se préparer à les affronter dans le cas de Loft Story ! ! !
C'est grâce à la disposition des chiffres de la BBC que France 2 a pu décider d'une
programmation et d'un plan marketing efficace pour la série de dix épisodes de Spielberg
Band of brothers, rebaptisée Frères d'armes sur France 2.
Ses connaissances affinées des téléspectateurs ont amené la direction des Études de
France 2 à jouer un rôle dans l'auto-promotion de la chaîne. Le média planning des bandes
annonces des programmes est établi en collaboration avec la direction des programmes et la
direction artistique, en fonction des objectifs décidés en amont. Des bilans sont
régulièrement effectués et des études plus spécifiques réalisées, notamment sur l'efficacité
de Γ auto-promotion.
Dans le cas de Band of brothers2, le média planning a démarré sept semaines à
l'avance avec, dans un premier temps la programmation de teasers5, puis de bandes-
annonces mettant l'accent sur la notoriété des producteurs (Hanks/Spielberg), la vérité
historique et sur les personnages difficilement repérables. Les résultats, tant en terme
d'audience (meilleur taux d'écoute de l'été) qu'en terme d'image, sont venus
récompenser cette association de la direction artistique avec celles des Achats, des
Programmes et des Études.

HERMÈS 37, 2003 173


Sophie Benoit

Conclusion:
la connaissance du public au service du public

Dans le fond, une direction des études à France 2 dispose sensiblement des mêmes
outils que n'importe quel autre département marketing. Nous retrouvons d'ailleurs assez
souvent lors de séminaires en France ou à l'étranger nos homologues de Channel 4, BBC,
Prisma, ou Mac Donald.
Mais comparer un programme de France 2 à un gros hamburger fait frémir, quoique !
Que cherche-t-on avant tout? Que la deuxième chaîne nationale et première du service
public soit regardée, par des téléspectateurs fidèles; que la chaîne puisse toucher tous les
publics mais pas forcément à la même heure; qu'elle cultive, informe, distraie sous des
formes variées, modernes ou plus classiques. Qu'elle innove aussi sans bousculer les
habitudes, qu'elle donne la parole aux individus et aux institutions. Qu'elle soit le reflet de
la société actuelle et enfin, comme ils disent, «que ses téléspectateurs soient fiers de la
regarder».

NOTES

1. Soit 54% d'audience cumulée, calculée à partir d'un seuil de vision de 15 minutes d'écoute consécutives
(Source Telereport).
2. Band of brothers est une série américaine de dix épisodes d'environ une heure chacun, produite par Tom
Hanks et Steven Spielberg à partir de l'ouvrage de l'historien Stephen Ambrose. Elle retrace l'épopée de
l'Easy Company du 506e régiment de l'armée américaine lors de la Seconde Guerre mondiale en Europe,
chaque volet démarrant par des témoignages de vétérans. France 2 l'a diffusée chaque lundi soir, du 22 juillet
au 19 août 2002, à raison de deux épisodes à la suite.
3. Le teasing désigne une campagne de publicité construite autour de deux messages au moins, véhiculés
successivement par le même média (affichage, radio, télévision). Le premier message ou teaser, destiné à créer
un effet d'appel, d'attente, est très court (10 secondes dans le cas de Band of brothers).

174 HERMES 37, 2003


Dominique Boullier
Université de technologie de Compiègne,
Connaissance, organisation et systèmes techniques (Costech)

DU TELESPECTATEUR
CONSOMMATEUR
AU TÉLÉSPECTATEUR CITOYEN

La recherche de nouvelles formes de représentation du téléspectateur plus adaptées


aux enjeux civiques portés par le service public est une question récurrente, comme Ta
souligné à plusieurs reprises Michel Souchon1 pour en montrer les présupposés élitistes.
Une mesure civique serait ainsi faite par et pour des gens qui de toute façon ne regardent
pas la télévision et la dévalorisent par rapport à la culture cultivée. Malgré notre accord avec
lui, nous voulons décliner ces questions différemment selon un modèle pluraliste des
principes de jugement2:
- Peut-on réellement utiliser la mesure d'audience actuelle comme un outil de mise en
scène civique du téléspectateur (une majorité), grâce à ce suffrage censitaire qui donne une
voix à celui qui regarde une heure, et quatre à celui qui regarde quatre heures ? Le service
public doit-il se contenter d'améliorer le système de mesure ou, même, doit-il tenter de faire
de meilleurs résultats dans le cadre de ce système ? C'est ce que nous observons aujourd'hui,
une concurrence dans la même « grandeur », le service public reconnaissant les vertus de ces
méthodes de représentation des téléspectateurs. Les débats sur les techniques de mesure
montrent que l'on peut faire varier ces méthodes de représentation, sans pour autant
remettre en cause le principe de jugement et la qualité des êtres ainsi construits par la
méthode (des «téléspectateurs-consommateurs»). C'est une des stratégies possibles du
service public: ne pas créer une controverse sur les principes mêmes de la représentation
mais seulement participer à l'amélioration des techniques en sachant qu'actuellement elles
«profitent» toujours aux annonceurs.

HERMÈS 37, 2003 175


Dominique Boullier

- Autre stratégie possible: dénoncer le modèle existant et engager la critique sur le


principe dominant de la représentation du téléspectateur, en montrant que ce montage de
l'audience est entièrement aligné sur un principe marchand pour fournir uniquement des
équivalences dans le calcul des tarifs des espaces publicitaires. On ne pourra jamais faire
dire autre chose à la mesure d'audience: l'outil formate la connaissance3. Ce n'est donc pas
simplement une amélioration ou un simple déplacement qu'il conviendrait de faire pour
passer à une mesure selon d'autres principes. Mais admettons aussitôt que tout autre
montage demeurerait lui aussi partiel, qu'il ne dirait rien d'une supposée « audience vraie »
ou d'une totalité nouvelle, supérieure aux autres modes de jugement, et qu'il n'invaliderait
donc pas la mesure d'audience marchande. Notre monde est fait de principes pluriels de
jugement (Walzer, Boltanski et Thévenot) et c'est de ce pluralisme qu'il faut partir pour faire
cohabiter des montages différents, sans contester la justification marchande propre à la
mesure d'audience. C'est pourquoi il sera difficile de faire appel, comme le proposait
B. Cache4, à des principes de justice supérieurs, indépendants des contextes et des
communautés, à la mode de Rawls5, pour justifier une politique de programmation au-
dessus des autres: il doit en exister plusieurs. Toute la question tient dans la qualité du
montage et dans la cohérence des choix effectués.

De nouvelles questions surgissent cependant:


- Le service public a-t-il les moyens de prétendre imposer un nouveau critère à tous
les partenaires de la diffusion télévisuelle ? On peut douter de la capacité du service public
à faire participer les sociétés privées de télévision à un modèle qui ne soit pas directement
lié à leurs intérêts, à moins de mobiliser des armes institutionnelles et juridiques (un décret
quelconque de plus) qui, on le sait, ne valent que lorsque le soutien des acteurs concernés
a été assuré par avance. Avoir un «bon» critère d'évaluation ne suffit donc pas, il faut
pouvoir le faire reconnaître autrement que par la force. Ces nouveaux montages doivent
compenser le poids excessif de la seule mesure d'audience. Car c'est uniquement cette
domination absolue, comme le montre Walzer, qui constitue un déni de démocratie par
extension abusive d'un principe au-delà de sa sphère d'application. On peut donc
considérer comme injuste l'absence de méthodes pour évaluer la qualité artistique ou la
qualité citoyenne des programmes audio-visuels, et leur écrasement par la mesure
marchande de l'audience. Pour explorer cela, nous tiendrons compte des dispositifs qui
préfigurent déjà ces méthodes.
- Le service public doit-il disposer d'un autre système de «retour», de représentation
des téléspectateurs, qui serait simplement juxtaposé aux autres et qui répondrait à d'autres
objectifs, pour d'autres demandeurs, avec d'autres sanctions et d'autres techniques? Il
faudrait alors s'appuyer aussi sur un autre état du téléspectateur, celui de «contribuable-
citoyen» par exemple.

176 HERMÈS 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Cette première étape peut être la base d'une future épreuve avec tous les autres acteurs
de l'univers audiovisuel pour leur imposer aussi ce cadre de référence. Mais elle peut aussi
se résumer à une cohabitation de principes différents pour des sociétés de télévision à
statuts différents, cohabitation qui peut tourner à la partition complète si le service public
renonçait à émarger aux recettes publicitaires par exemple, ce qui semble exclu à moyen
terme mais qui est le cas ailleurs (BBC). Il faut en effet admettre que tant que la sanction
des recettes publicitaires demeure essentielle à la survie de toutes les chaînes de télévision,
il est hors de question de substituer un autre mode de représentation des téléspectateurs à
celui qui intéresse les annonceurs. Dans ces conditions, considérer que l'on peut interpréter
la mesure d'audience marchande comme un mode de représentation civique, démocratique,
comme un vote, c'est sans doute faire seulement contre mauvaise fortune bon cœur et
admettre que, pour avoir le pouvoir de changer les règles, il faut au moins faire ses preuves
avec les règles existantes.
- Il existe aussi une autre forme de stratégie, la plus forte mais aussi la plus difficile, qui
consiste à produire un mode de représentation du téléspectateur qui gère la diversité des
principes selon lesquels on le représente. Ce méta-positionnement est bien entendu le plus
incontestable. D'une certaine façon, il s'agit là aussi de fédérer divers principes mais à un
niveau beaucoup plus général, en donnant à chaque acteur la possibilité de décliner le
téléspectateur selon ses intérêts propres. Nous ne voyons pas pour l'instant les ressources,
ni même les modèles, qui pourraient servir de préfiguration à un tel dispositif.

Quels biens publics désirables par les plus défavorisés ?

Notons pour mémoire que les questions d'évaluation spécifique au service public
dépassent le cadre de la télévision6. Le principe industriel et marchand (performance et
prix) a gagné le secteur public de l'audiovisuel sans qu'il ait pu réellement trouver le
compromis avec le principe civique qui le conduit encore à «assumer des missions» ni
performantes ni «vendables».
Il existe cependant une différence de taille entre les missions du service public du
transport ou de l'éducation, par exemple, et celui de la télévision: les deux premiers peuvent
prétendre agir dans le sens de la justice. Pour cela, ils peuvent contredire, de plus en plus
difficilement, une logique marchande ou industrielle (on subventionne des petites lignes, on
offre une école gratuite pour tous, etc. ). Le transport et l'éducation offrent en effet des
produits désirables dont seraient effectivement privés certains si le seul principe marchand
dirigeait la fourniture de ces services. Or, pour la télévision, c'est la fourniture marchande

HERMÈS 37, 2003 177


Dominique Boullier

des services qui aboutit à satisfaire les « demandes » de ceux que l'on classe habituellement
comme défavorisés: l'offre standard actuelle de programmes labellisés «culturels» par
exemple, n'est pas réellement désirable pour ces téléspectateurs (semble-t-il, et selon les
formes actuelles de construction de la demande, précisons-le, d'où les recherches et les
enthousiasmes pour les programmes nobles-et-pourtant-populaires, dits «de qualité»!!).
On aboutit alors à cette situation étrange où ceux qui sont effectivement « privés » d'un type
de service (une télévision «noble» culturellement) sont par ailleurs les plus pourvus dans
tous les autres biens (les groupes sociaux les plus cultivés et les plus aisés). La mission du
service public pour la «justice» consisterait alors, pour caricaturer, à préserver l'accès des
élites intellectuelles à des programmes télévisés qui leur conviennent et qu'en tout état de
cause, elles ne regarderaient pas !
La désirabilité des programmes est dans tous les cas difficile à apprécier puisque le
système de mesure d'audience permet d'éviter l'épreuve marchande directe, client par
client, pour la trancher de façon agrégée à un niveau institutionnel: la consommation de
programmes télévisés est proche de la gratuité et, en tout cas, non indexée sur le temps de
consommation ou sur le type de programme consommé (qu'il soit coûteux ou non). On
aboutit ainsi à une situation où:
- le principe marchand gouverne l'offre de programmes et parvient à satisfaire ainsi
(disent les programmateurs à l'aide de leurs indices) le plus grand nombre;
- aucune épreuve marchande réelle n'est pourtant organisée (pas de consommation
payante, c'est un marché construit en l'absence du consommateur final, entre institutions);
- les biens qui pourraient être proposés au nom d'un principe civique par le service
public ne satisfont pour l'instant que les plus privilégiés par ailleurs, qui, de plus, ne sont
pas réellement demandeurs de télévision.

Le service public peut dès lors difficilement argumenter son statut particulier sur la
base d'une mission vis-à-vis des plus défavorisés (ou alors en maintenant un modèle de
l'acculturation - éduquer les masses - qui ne marche même plus dans le cas de l'école laïque
et obligatoire).
Il faudrait sans doute qu'il puisse construire une demande d'un autre ordre et non
seulement un principe de jugement différent: il est en effet à peu près certain que les
supposés «besoins» sont encore à créer, et que la répétition des stéréotypes ne peut à elle
seule assurer une stratégie commerciale gagnante. Les chaînes privées auront d'ailleurs beau
jeu de souligner que c'est précisément grâce à la pression d'un principe de gestion
commercial qu'elles se trouvent dans l'obligation d'innover, alors qu'elles continuent aussi
d'assurer la fourniture du «less objectionable programme».

178 HERMES 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Les modes classiques de représentation civique


sont-ils adaptés ?

Pour sortir de l'audience marchande strictement liée à un programme, nous devons


prendre en compte les modes plus classiques de représentation civique.
- Les associations de téléspectateurs. De groupes de pression, ces associations pourraient
prétendre devenir de véritables espaces d'élaboration d'une opinion de «téléspectateur», ce
qui fait aussi penser à l'idée parfois évoquée du «parlement des téléspectateurs». Ce serait
entrer alors dans une sphère délibérément civique de la représentation du téléspectateur,
calquée entièrement sur le mode parlementaire. On voit cependant rapidement les limites
d'un modèle strictement électif, représentatif d'une population circonscrite uniquement par
l'usage d'un bien commun. Tous les biens fournis par le service public (au moins)
justifieraient la même structure, de l'éducation au transport en passant par la santé. Des
associations d'usagers existent d'ailleurs dans ces domaines, mais elles restent marginales
dans l'élaboration des politiques, sans parler des techniques elles-mêmes.
- Le Conseil supérieur de l'audiovisuel se trouve en fait en charge officiellement de ce
bien commun «audiovisuel», sans distinction cependant entre service public et sociétés
privées. Sa fonction de régulation prend en compte tous les types de fournisseurs de
service. Ses règles de désignation le lient à la représentation nationale et à l'exécutif issu
des élections, tout en lui donnant une certaine autonomie. On voit bien cependant que ses
interventions se limitent au cadre général des activités audiovisuelles et ne concernent
guère le contenu même des émissions ni spécifiquement le service public. Il doit faire
appliquer les règles fixées par le législateur sur la publicité, la violence, la pornographie,
la représentation politique équilibrée, les quotas de films, de musique française à la radio,
etc. Son travail de surveillance a posteriori, si limité soit-il, pourrait fournir une base au
questionnement public sur les principes qui gouvernent la diffusion audio-visuelle en
allant au-delà des règles établies ou en proposant de les faire évoluer (ce qu'il fait
régulièrement, par exemple pour la violence et la pornographie récemment). Ses deux
faiblesses majeures viennent d'une part de son lien inexistant avec les mondes des
téléspectateurs ordinaires et d'autre part de sa difficulté à produire des indices aussi
simples que la mesure d'audience, lisibles, servant de garde-fous, de repères pour les
téléspectateurs. Le CSA dépend donc pour la régulation de l'audiovisuel de ses propres
services de suivi mais, sur un plan quantitatif plus fin, de l'objectivation du public réalisée
par la seule mesure d'audience marchande. Le pouvoir d'une autorité qui ne peut pas
faire exister par la mesure son propre domaine est toujours très fragile et les catégories et
présupposés encapsulés dans la mesure d'audience marchande sont hors du champ de la
mission actuelle du CSA.

HERMÈS 37, 2003 179


Dominique Boullier

Dans les deux cas, la représentation civique par les associations de téléspectateurs ou
par le CSA, le principe marchand peut en fait rester dominant, lorsque le groupe de
pression agit comme groupe consumériste, revendiquant de meilleurs produits, ou lorsque
le CSA veut garantir la qualité du produit annoncé (respect des horaires, par exemple).
Dans le cas de la télévision, le problème n'est pas simple dans la mesure où la controverse
porte précisément en permanence sur ce que pourrait être un «bon produit». Lorsque le
service public produit de sa propre initiative un porte-parole des téléspectateurs à travers
l'émission du médiateur, il prétend explicitement recréer un lien de type à la fois marchand
(vos critiques, le service après-vente en quelque sorte) comme l'avait fait Canal +, même s'il
prétend lui donner une dimension civique.
- Le paiement d'une redevance, s'il renvoie à un statut de contribuable, dit clairement
que la télévision dépasse les affaires de goût privé ou même de « public culturel » et qu'elle
concerne la collectivité, «l'intérêt général». On ne paye pas de redevance pour le théâtre ou
pour le livre, on achète une place ou un ouvrage. Mais la redevance télé ne définit pas de
bien commun, elle tend à devenir soit un impôt forfaitaire sans motivation (cf. l'ex-vignette)
soit un prix pour un service selon un principe marchand.
Dans tous les cas, le paiement est un lien très significatif et la façon dont il s'effectue
fait varier le principe même de la représentation du téléspectateur: on peut en effet
considérer que dans le cas du paiement à l'émission (pay-per-view), le téléspectateur est
strictement représenté comme consommateur de produit télévisuel. Sa participation à
l'univers télévisuel passe par ce paiement et sa décision peut dès lors être éventuellement
interprétée comme une forme de représentation marchande du public (ils payent, donc ils
aiment), en dehors de tout mode de représentation de type civique. Le paiement est
essentiel dans tous les cas parce qu'il permet de dénombrer et d'analyser la population de
téléspectateurs le plus exactement possible à partir de ses pratiques.
- Soulignons enfin l'importance des autres médiateurs dans les liens existants avec la
télévision et dans la production de la représentation des téléspectateurs: les journaux de
télévision, qui sont les entreprises de presse les plus profitables, fournissent, à travers leurs
courriers des lecteurs notamment, une occasion unique d'expression publique à des
«téléspectateurs anonymes». Le lien qui se crée avec la télévision peut aussi passer par ces
médiateurs qui préforment des opinions. Il serait aisé de rabattre le jugement de qualité
civique sur un critère de notoriété, sur le monde de l'opinion, à l'aide de ces journaux et par
la nature même de média de masse qu'est la télévision, machine extraordinaire à faire et
défaire les réputations. Pourtant, cela ne dirait rien encore de la qualité artistique ou de la
qualité citoyenne de la programmation ou d'un programme en particulier.

180 HERMES 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Explorer des formes de représentations civiques


du téléspectateur

Résumons l'argument:
- nous avons admis l'impossibilité d'exploiter la mesure d'audience pour autre chose
que la fixation des prix du marché publicitaire;
- nous cherchons à construire cependant un dispositif d'objectivation des propriétés
des programmes télévisés aussi performante que l'audience mais basée sur d'autres
principes;
- les liens actuels avec les téléspectateurs relèvent plutôt de l'opinion et du quasi-
marchand;
- l'émergence d'un principe civique de jugement des programmes télévisés ne peut
calquer directement les procédures démocratiques de débat et de représentation sous peine
de lourdeur et d'extension infinie à tous les biens communs;
- de plus, la construction de repères communs et la définition des sanctions doivent
être effectuées en même temps, de façon à assurer à ces instances autre chose qu'un rôle
consultatif où se confronteraient les opinions politiques déjà constituées a priori (un pur
décalque des partis ou syndicats reconnus). Nous sommes plus proches en fait des situations
de controverses, centrées sur un problème donné, dont les formes de représentation des
membres doivent être adaptées au cas par cas7;
- les bases fournies par le rôle central du CSA doivent pouvoir être exploitées et ses
deux faiblesses corrigées.
Le CSA peut fort bien se doter lui-même d'une instance de consultation qui serait triple
(et qui irait au-delà de la Loi d'août 2000 qui instituait un Conseil consultatif des
programmes, composé de téléspectateurs8):
- les représentants auto-déclarés des téléspectateurs (les associations sous réserve de
vérification de leur activité réelle et de leur poids en termes d'adhérents);
- les «correspondants du CSA», téléspectateurs ordinaires constitués en panels reliés
par des techniques spécifiques, différentes de celles adoptées par la mesure d'audience;
- des intervenants ad hoc, constitués provisoirement selon le type de problème mis en
débat (ex: la présentation de telle minorité dans les émissions de télévision en général).
Cette troisième partie assure l'ouverture constante des membres de l'instance pour éviter un
monopole de la parole citoyenne, soit de la part des associations, soit de la part des
techniques de représentation à base de panels.
Ces trois méthodes de représentation combinées permettent de délibérer sur tout
problème émergent et de proposer des cadres réglementaires nouveaux sur des thèmes
encore non encadrés. De ce fait, par le pouvoir de suivi du CSA, le respect des principes

HERMÈS 37, 2003 181


Dominique Boullier

civiques qui sont dégagés par ces assemblées peut être contrôlé. Le pouvoir de sanction est
aussi indispensable dans les termes actuels (ou même étendus), avec en point de mire, le
renouvellement ou non des attributions de chaînes et de fréquences. La représentation
civique ainsi instituée doit se doter de moyens de sanction aussi puissants que ceux fournis
par les recettes publicitaires pour la mesure d'audience. Comme c'est le cas pour l'audience
marchande qui applique ses règles à tout l'audiovisuel, le CSA pourrait prétendre porter le
principe de qualité civique en l'étendant à tout l'audiovisuel, puisque son domaine de
compétence est général. Nous sortons ainsi d'une séparation de sphères (à la Walzer) entre
service public et sociétés marchandes pour adopter une approche en termes de principes
supérieurs communs (à la Boltanski et Thévenot) qui s'appliquent tous à tout l'audiovisuel,
selon des compromis différents cependant. Les chaînes privées ont aussi des obligations
civiques (et elles le clament souvent, d'ailleurs) et les chaînes publiques continuent pour
l'instant à vivre de la publicité.
Les formes délibératives de cette instance de consultation que nous proposons
dépassent les formes classiques dans le monde civique car nous introduisons un système de
panel de citoyens, «correspondants du CSA», équipés techniquement pour pouvoir donner
des avis ou recueillir des données les concernant en permanence. C'est ici que les leçons de
la mesure marchande de l'audience peuvent être largement exploitées de façon à rendre
opérationnels les principes de jugement civique9. Une objectivation de l'avis du citoyen doit
être aussi performante et exploitable que la mesure marchande si elle veut prétendre jouer
un rôle dans les stratégies et décisions de programmation. La constitution d'un panel
statistiquement représentatif de la population (et de segments de population selon les
objectifs) ne pose guère de problèmes. La connexion technique est déjà mise en œuvre par
les techniques de l'audience. Tout le problème réside dans les indicateurs qui peuvent
constituer un «indice agrégé de qualité civique» et dans l'état dans lequel on place le
téléspectateur pour fournir les éléments d'information. Le critère du «je regarde» ne
répond pas à nos objectifs puisque nous prétendons demander explicitement au
téléspectateur de fournir un jugement. Nous avons longuement étudié la façon dont
s'exprimaient les jugements des téléspectateurs dans des situations d'enquête et nous savons
à quel point ils peuvent être différents des goûts et des pratiques10. Nous pouvons faire le
pari cependant que des méthodes anonymes, régulières, de fourniture de jugement peuvent
réduire ces écarts. Il est possible de demander explicitement à des téléspectateurs de se
prononcer sur certains critères de qualité, encore à construire. Les déclarations seront
nécessairement fermées de façon à permettre le calcul.
C'est ici que la différence avec les formes traditionnelles de la représentation civique
apparaît: il faut parvenir à constituer un nouveau «centre de calcul»11 dont les limites
seraient certes reconnues mais partagées par les participants de cet univers. Sur cette base,
des «labels civiques» pourraient être donnés à des programmes récurrents. Cette politique

182 HERMÈS 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

des labels, bien connue dans le monde alimentaire, correspond typiquement à des univers
où la mesure objective d'un acte d'achat ne peut suffire à définir une garantie de satisfaction.
Le label incorpore la dimension subjective du jugement en lui donnant le poids issu de
l'accord construit par les acteurs. Plus encore, cette dimension subjective peut elle-même
faire l'objet de calcul et de modélisation, comme on le fait en mathématiques du flou
appliquées à l'évaluation subjective12. Cette politique de labels permet de prendre pied dans
l'ordre de la prescription vis-à-vis du public et, dès lors, de peser sur le marché lui-même13.
C'est donc un puissant levier face à la mesure marchande de l'audience qui n'est jamais que
rétrospective. Mais il faut pour cela monter un dispositif particulièrement rigoureux sur le
plan des indices, et producteur de conventions14 entre les acteurs15.

Conclusion

La sortie de la «dictature de l'audimat» suppose paradoxalement d'admettre à la fois


sa réussite et sa justification dans le monde marchand qui est le sien. Il est cependant
possible, au prix d'un vrai travail d'alignement de médiations16, de faire tenir une mesure
permettant le débat sur les principes civiques qui doivent gouverner le bien commun qu'est
la diffusion audiovisuelle. Sans reprendre pour autant le thème de l'exception culturelle, il
est possible de reconnaître la nécessité vitale pour une démocratie de préserver la diversité
des principes de jugement dans ce domaine (comme dans d'autres domaines). La mesure
agrégée sous forme de «label civique» peut être construite de façon méthodique pour
équiper le débat public et contrebalancer la mesure de l'audience. Il est en même temps
possible de reconstituer les institutions de débat à partir des éléments déjà existants pour
répondre aux exigences de représentativité du monde civique sans calquer la mesure
d'audience marchande mais en exploitant son exigence de performance, avec toutes les
limites qui conviennent.

NOTES

1. SOUCHON, M., Petit Écran, grand public, Paris, La Documentation française, 1980.
2. Nous nous inspirerons ici des approches de WALZER, parlant de sphères et de celles de BOLTANSKI et
THÉVENOT fondant des principes supérieurs communs, ce qui constitue deux façons différentes de conjuguer
le souci pluraliste de la justice. WALZER, M., Sphères de justice. Une défense du pluralisme et de la démocratie,
Paris, Le Seuil, 1997 (l re édition, 1983), BOLTANSKI, L., THEVENOT, L., De la Justification. Les économies de la
grandeur, Paris, Gallimard (NRF), 485 p., 1991.

HERMÈS 37, 2003 183


Dominique Boullier

3. Nous étendons ainsi un principe posé par Goody pour l'écriture, GOODY, J., La Raison graphique: la
domestication de la pensée sauvage, Paris, Minuit, 1979, 274 p.
4. CACHE, B. «Rawls regarde la télévision» in Médiaspouvoirs, n° 14, avril-mai-juin 1989.
5. RAWLS, J., A Theory of justice, Oxford, Oxford University Press (édition originale, 1972).
6. Par exemple nos travaux dans le transport: «Y a-t-il un client dans le réseau. Techniques de communication
et lien social dans le transport» (avec Josée BETAT), Rennes, Lares, 1987 et «Portrait du citoyen client-roi en
carte-à-puce», IRIS-TS, 1989.
7. Nous rejoignons ici CALLON, M., LASCOUMES, P., BARTHE, Y, Agir dans un monde incertain. Essai sur la
démocratie technique, Paris, Le Seuil, 2001.
8. Au moment de conclure cet article, est paru le rapport revigorant de Catherine Clément qui préconise une
mise en œuvre de cette loi, avec tirage au sort de 50 jurés ou des représentants de téléspectateurs. Notre
approche recombine ces deux solutions, y ajoute d'autres impératifs et étend surtout la sphère de validité de
ses avis à tout l'audiovisuel et non au seul service public.
9. C'est ce qu'a tenté de faire Médiamétrie avec son audimètre ou que projette JOSÈPHE, P., avec son
« Qualimat », qui ont encore à faire leurs preuves mais qui montrent bien la tendance.
10. Voir nos travaux avec LEGRAND, M., GOURIOU, E, réalisés notamment en contribution à une étude de l'Ina
pour le SJTI (Étude préalable à la mise en place d'indicateurs concernant les attitudes des téléspectateurs à
l'égard des chaînes publiques, 1990) publiés dans «La conversation télé» (à paraître, 2003).
11. LATOUR, Β., «Les vues de l'esprit. Une introduction à l'anthropologie des sciences et des techniques», Culture
Technique, n° 14, 1985.
12. Par exemple, ZALILA, Z., FATENE, M., «Opérateurs flous en théorie des expertons: sémantique d'une décision
de groupe en évaluation subjective». Actes 7e conférence internationale IPMU, Information Processing and
Management of Uncertainty in Knowledge-based Systems, Paris, 6-10 juillet 1998, vol. II, p. 1691-1699.
13. N'oublions pas que les autorités catholiques fournissent des recommandations pour les films et que cela aide
certains à se repérer.
14. Nous renvoyons sur ce point à tous les travaux des analystes des conventions en économie, cf. ORLEAN, A.
(dir. ), Analyse économique des conventions, Paris, PUF, 1994.
15. C'est dans ce sens que les activités centrées sur l'audience, dans le cadre du Laboratoire des Usages (Lutin)
en cours de création à la Cité des Sciences et de l'Industrie, seront développées.
16. HENNION, Α., La Passion musicale. Une sociologie de la médiation, Paris, A. -M. Métailié, 1993.

184 HERMES 37, 2003


Entretien avec Marc Tessier
France Télévisions

LE TÉLÉSPECTATEUR, AU CŒUR
DE LA TÉLÉVISION PUBLIQUE

Propos recueillis par Régine Chaniac le 26 août 2003·

Question: Vous présidez depuis quatre ans le groupe France Télévisions, mais vous avez
aussi une expérience de la télévision payante, ayant été président de Canal Plus International
pendant de longues années. Comment définiriez-vous la spécificité du rôle de la mesure
d'audience en ce qui concerne la télévision publique ?

Aucun média ne peut faire l'économie d'une réflexion et d'un choix sur les modes de
mesure et les critères qui lui permettent de suivre la réalisation de ses propres objectifs.
S'agissant d'un service de télévision plus précisément, aucun ne peut faire l'économie d'une
mesure de son audience. Deux questions se posent alors: Quelle utilisation en sera faite ? Et
sur quel instrument de mesure s'appuyer? La réponse à ces questions diffère
nécessairement d'une chaîne à l'autre, mais il est impensable de piloter un programme sans
critères ni instruments de mesure d'audience.
Dans le cas d'une chaîne payante, il est fondamental de mesurer l'intensité de la relation
nouée avec le téléspectateur abonné et de l'évaluer quantitativement. Le taux de
consommation des programmes reflète le mieux cette satisfaction. Du fait des mécanismes
de multidiffusion, le taux d'audience instantané d'un programme est en revanche moins
significatif. À Canal Plus, on est très soucieux de classer les films en fonction de l'audience
totale qu'ils obtiennent toutes diffusions incluses, et de le comparer au coût pour la chaîne.
Il doit y avoir en effet une forte corrélation entre le coût d'un programme et sa
consommation effective par les abonnés.

HERMES 37, 2003 185


Entretien avec Marc Tessier

Une analogie entre Canal Plus et la télévision publique est utile à la réflexion: en effet,
dans une certaine mesure, la télévision publique est financée également par le téléspectateur.
Au-delà de ce point de départ commun, la différence entre les deux télévisions est
essentielle. La réflexion de la télévision publique sur la contrepartie qu'elle doit offrir au
versement d'une somme annuelle par la totalité des téléspectateurs relève en effet d'un
débat général orchestré par les représentants démocratiques, les Autorités représentant
l'Etat, et non plus seulement d'un raisonnement d'entreprise comme à Canal Plus.
Dans le cas des chaînes commerciales, la problématique de gestion dépend d'abord de
l'annonceur. La mesure sera donc forcément volumétrique et intègrera un élément qui
n'existe pas pour la télévision publique: le rapport entre l'audience et le coût des
programmes. La télévision publique n'est pas tenue en effet de hiérarchiser ses programmes
selon un tel rapport. Je développerai cela plus loin.
On peut enfin évoquer par souci d'exhaustivité le cas particulier des chaînes
thématiques. Fonctionnant selon un principe plus proche de celui de Canal Plus, elles ont
pour critère essentiel l'audience cumulée, au moins pour celles dont la majorité de leurs
recettes provient d'un reversement des opérateurs commerciaux du câble et du satellite, et
donc du client final. La problématique consiste alors à justifier le montant de la recette par
le nombre de téléspectateurs qui ont un contact régulier avec la chaîne, qui savent
l'identifier et peuvent l'intégrer dans leur décision de renouveler leur abonnement à l'offre
de bouquet le moment venu.

Question: Est-ce à votre initiative que le Contrat d'objectifs et de moyens (COM),


conclu entre France Télévisions et l'État pour la période 2001-2005, donne explicitement aux
chaînes publiques un objectif en matière d'audience?

En effet, et je suis convaincu que la télévision publique ne peut se soustraire à une


évaluation en termes d'audience.
Nous sommes tout d'abord tenus de rendre compte directement ou indirectement au
téléspectateur qui paie la redevance de l'utilisation qu'il fait des services et des programmes
diffusés avec cet argent. D'où un débat sur l'audience qu'on ne peut légitimement pas
refuser. Compte tenu des sommes engagées par l'Etat, qui sont considérables même si tout
le monde les considère comme insuffisantes, il serait intolérable que les trois canaux de la
télévision publique n'atteignent en cumulé qu'une part d'audience de 10 ou 1 5 % . Il est
donc nécessaire de fixer un seuil.
Ensuite l'Etat a organisé une offre plurielle, différente d'une chaîne à l'autre, ce qui
signifie qu'il ne fixe pas les mêmes objectifs de programmes et de public à chacune d'entre
elles. Il faut trouver un moyen de les caractériser et donc de formuler des objectifs
d'audience distincts. Sinon la tendance naturelle de chacune serait de faire le même type de

186 HERMÈS 37, 2003


Le téléspectateur, au cœur de la télévision publique

programmes pour le même type de publics, avec la même part d'audience, or ce serait
contradictoire avec la diversification de l'offre.
Une troisième raison est d'ordre interne. L'État a créé une holding et demande aux
dirigeants et au Conseil de celle-ci de fixer des lignes éditoriales dans le cadre du Cahier des
charges; il est normal qu'en retour la holding demande à chaque chaîne un compte rendu
sur l'audience. Il s'agit d'un instrument d'évaluation indispensable.

Question: Il est très intéressant à ce titre que le Contrat d'objectifs et de moyens


retienne l'indicateur de l'audience cumulée plutôt que celui de la part d'audience ?

L'État a en définitive laissé à France Télévisions le soin de piloter cette réflexion. La


première question, déjà évoquée, se formule ainsi: «Puisque 100% des téléspectateurs
paient la redevance, considère-t-on souhaitable qu'une majorité d'entre eux, et dans quelle
proportion, aient un contact régulier à définir avec les programmes de France Télévisions ? »
D'où la réponse figurant dans le Contrat d'objectifs et de moyens, 50 % par jour, 75 % en
une semaine. On pourrait aller plus loin dans l'analyse, en partant de la structure des publics
et de la population, et bâtir des indicateurs d'audience cumulée plus évolués encore, qui
tiennent compte du souhait des pouvoirs publics que certaines catégories de population
aient des contacts également avec des programmes emblématiques de la télévision publique.
Par exemple, on pourrait calculer l'audience cumulée sur les jeunes vis-à-vis d'un genre
comme l'information, pour essayer de faire jouer pleinement son rôle à la télévision
publique... ou d'autres idées. Les critères et les seuils de tolérance pourraient évoluer dans
le temps, en fonction de multiples paramètres comme la structure générale de l'offre
télévisuelle ou l'évolution du montant de la redevance.
Ce type d'indicateurs apporte une souplesse aux dirigeants de la télévision publique
puisqu'il permet de s'affranchir de l'appréciation programme par programme, qui est
dominante pour la télévision commerciale. À l'intérieur d'un même genre, il est pour nous
naturel de compenser des émissions difficiles par des émissions plus fédératrices.
En pratique, cela aboutit, pour certains genres prioritaires de la télévision publique,
comme l'information, la fiction en première partie de soirée et les magazines de société, à
fixer des fourchettes d'audience, compte tenu de leur potentiel propre. Des critères
semblables pourraient aussi exister pour le sport et la fiction nationale et un plancher
d'audience par type de programme et par chaîne pourrait être fixé. Lorsqu'une émission de
France 2 obtient moins de 10 à 12 % de part d'audience, surgit un problème: le
téléspectateur ne s'attend pas à cela sur sa chaîne. Et cela est cohérent avec l'image d'une
chaîne qui peut prendre des risques, qui a une diversité de programmes, et qui intègre une
dimension culturelle, mais qui ne doit pas donner au téléspectateur le sentiment qu'elle fait
des choix contre lui.

HERMÈS 37, 2003 187


Entretien avec Marc Tessier

Par contre, j'ai toujours refusé que l'on fasse, par programme ou par genre de programme,
un rapport entre son coût et la recette publicitaire qu'il génère. Je ne vois pas pourquoi la
télévision publique s'imposerait la même contrainte que ses concurrents, celle du rapport entre
le coût et la recette, alors que la sienne doit être l'audience cumulée ou le positionnement moyen.

Question: Quand vous avez décidé d'arrêter Âge sensible, qui avait des résultats
d'audience décevants, n'est-ce pas aussi en tenant compte de V importance de l'investissement?

Age sensible1 était une fiction qui avait vocation à être récurrente. Or nous avons
constaté que l'émission ne rencontrait pas ses objectifs de cible et qu'elle n'avait aucune
chance d'y parvenir. Ce constat étant fait, il était opportun de tenter une autre émission afin
de mieux réaliser les objectifs de la télévision publique. La question est de savoir quand il
faut prendre une telle décision, sachant qu'un des atouts de la télévision publique est de
pouvoir prendre son temps et d'avoir plus de sérénité dans ses choix, sans remettre en cause
son équilibre économique comme c'est le cas pour une chaîne commerciale.
D'une manière générale, les dirigeants de la télévision publique ont à répondre à cette
question: À quel moment doit-on prendre la décision de remplacer un programme, quelle
que soit l'estime dans laquelle on le tient, par rapport aux objectifs d'une télévision
publique ? Et est-ce que le critère de l'audience est le seul critère ?
Un changement de grille peut être motivé par deux facteurs. Tout d'abord, la
conviction d'une érosion continue de l'audience du programme à laquelle on ne voit pas le
moyen de remédier. Ensuite, l'espoir que l'on met dans un nouveau programme de
remplacement pour atteindre les mêmes objectifs. On ne supprime pas une émission
uniquement parce qu'elle s'use, mais parce qu'on a le sentiment qu'il y a une alternative
différente et crédible à proposer. Pour un responsable d'antenne, le changement d'une
émission de longue tradition est toujours une question délicate qu'il faut gérer en douceur.

Question: Toujours dans le COM, les objectifs d'audience s'intègrent dans la mission plus
générale de «placer le téléspectateur au centre du dispositif». Quels sont les moyens mis en œuvre
par France Télévisions pour renforcer le lien entre téléspectateurs et les chaînes publiques ?

Nous avons tout d'abord posé un droit pour le téléspectateur à obtenir une réponse,
lorsqu'il formule individuellement une critique ou pose une question. Ensuite, il y a un droit
du téléspectateur à s'assurer que la télévision publique accepte un débat et un réexamen
interne lorsque cela est nécessaire. Pour répondre à ces droits, la télévision publique doit
avoir à la fois un certain état d'esprit, mais aussi un dispositif.
Le système mis en place est double. D'une part, les médiateurs sont le truchement du
public, avec un statut qui garantit leur indépendance. D'autre part, le traitement par le

188 HERMÈS 37, 2003


Le téléspectateur, au cœur de la télévision publique

Service des relations avec les téléspectateurs (SRT) des questions posées par ceux-ci nous
permet de répondre à chacun dans le plus grand respect. Un rapport de synthèse quotidien
est établi et adressé à l'ensemble des responsables des chaînes pour les familiariser avec ce
nouveau service et leur fournir un précieux retour d'information.
À la rentrée, sur France 5, nous allons proposer une émission sur la redevance, à partir
des remarques faites par les téléspectateurs: voilà l'usage qui est fait de la redevance, qu'en
pensez-vous et quelles sont vos critiques ou vos suggestions ? Au-delà de la diffusion, nous
nous engagerons à répondre à toutes les questions et remarques dans un délai d'une
semaine.

Question: Vous paraît-il possible de s'appuyer sur un jugement des téléspectateurs, qui
s'exprimerait au-delà des réactions spontanées de mécontentement, pour prendre des décisions
en matière de programmes ?

Il y a plusieurs façons de prendre en compte le jugement des téléspectateurs dans la


conception des programmes. Pratiquement toutes les émissions de France Télévisions font
l'objet, entre une et deux fois par an, voire plus s'il y a des problèmes, d'un test
d'appréciation sur des panels de téléspectateurs. C'est une première façon d'amener le
téléspectateur à formuler un jugement de façon qualitative et méthodique à la fois. La
seconde est d'organiser une consultation régulière auprès d'un plus large échantillon.
France Télévisions est en train d'établir un baromètre mensuel, à la fois global et par genre
de programmes. Je ne crois pas en effet à un indice de satisfaction qui serait calculé pour
chaque émission. Plus l'auditoire d'un programme est restreint, plus il a tendance à être
satisfait. Pour surmonter cet obstacle méthodologique, il faut raisonner non plus par
programme mais par genre et par période. Nous testerons une formule prochainement.

Question: Comment conciliez-vous cette exigence énoncée clairement au début de


l'entretien, que la télévision publique doivent satisfaire la plus grande fraction du public, et les
responsabilités que vous avez en termes d'offre, dans le domaine notamment des programmes
culturels ?

Ce qui était un problème aigu d'arbitrage au sein d'une même grille il y a vingt ans, peut
être traité de manière plus satisfaisante aujourd'hui alors qu'il n'y a plus seulement trois
chaînes de télévision. En première partie de soirée, l'offre globale de France 2, France 3 et
Arte comporte régulièrement des émissions avec un contenu culturel, du spectacle vivant,
des débats, etc. Pourquoi faudrait-il que toutes les chaînes publiques fassent la même
chose? Ne faut-il pas profiter de la diversification, surtout au regard des financements
publics investis ?

HERMÈS 37, 2003 189


Entretien avec Marc Tessier

Ensuite, il faut considérer la culture dans ses différentes dimensions. Si vous observez ce
que diffusent France 2 et France 3 en première partie de soirée: des émissions politiques, des
émissions telles que Des Racines et des ailes ou Thalassa, des magazines comme Envoyé spécial,
et des grandes fictions patrimoniales, on peut considérer que la majorité des soirées a une
finalité culturelle. On ne peut pas dire que l'offre publique ne comporte des programmes
culturels que «la nuit et l'été», comme l'a prétendu Catherine Clément dans son rapport2.

Question: Comment voyez-vous l'avenir de la télévision publique, dans un contexte


d'érosion générale des chaînes généralistes, confrontées au développement des chaînes
thématiques accessibles aujourd'hui par câble et satellite et demain, par d'autres modes de
diffusion (numérique terrestre, ADSL, etc. ) ?

Nous devons intégrer dans nos perspectives le fait que les téléspectateurs, dans une
proportion non négligeable, disposent d'une offre élargie. Doit-on faire une télévision pour
ceux qui sont abonnés au câble et au satellite ou doit-on faire une télévision publique pour
ceux qui, ne l'étant pas, doivent avoir une offre généraliste? Nous risquons de perdre
beaucoup d'intérêt pour la première catégorie si nous nous centrons trop sur la seconde et
réciproquement, d'être insatisfaisant pour celle-ci en termes de diversité de l'offre si nous
sacrifions des genres offerts largement par les chaînes de complément. Cette difficile
question ne s'est pas encore posée de manière trop aiguë aussi longtemps que la pénétration
du câble et du satellite était inférieure à un tiers des foyers, mais elle va devenir cruciale.
Nous n'avons pas encore véritablement anticipé tous les choix de programmation qui vont
se poser. Dans deux domaines, l'information et les programmes pour enfants, nous avons
maintenu une offre conséquente, nonobstant la présence de chaînes thématiques très
performantes dans ces domaines, car nous avons parié sur la surabondance de l'offre, mais
cette position pourra ne pas être toujours la même si une écrasante majorité de la population
est exposée à une offre élargie.

NOTES

1. Age sensible est une série de 26 minutes, diffusée du lundi au vendredi à 17 h30 sur France 2, du 2 septembre
au 18 octobre 2002. Destinée aux adolescents, cette série française a été arrêtée faute d'audience, se situant à
moins de 11 % sur les 15-24 ans.
2. Rapport de la mission «d'évaluation, d'analyse et de propositions concernant l'offre culturelle de France 2 et
France 3», confiée à Catherine Clément par Jean-Jacques Aillagon, ministre de la Culture et de la
Communication, et remis en décembre 2002, sous le titre La Nuit et l'été.

190 HERMES 37, 2003


IV. NOUVEAUX MEDIAS
ET INTERNET:
DE LA NOTION DE PUBLIC
À CELLE D'USAGER

Jean-Pierre Jézéquel

Josiane Jouët

Hubert Bouchet

Alain Le Diberder
Jean-Pierre Jézéquel
Institut national de l'audiovisuel (Ina)

NOUVELLE ECONOMIE:
ENTRE UNITÉ ET DIVERSITÉ

L'expression «nouvelle économie» 1 est apparue dans la seconde moitié des années
1990; relayée par les journalistes, particulièrement ceux spécialisés dans l'actualité
financière, elle a connu rapidement un succès certain. La galaxie de différents secteurs et
activités englobée sous le vocable de nouvelle économie peut être aussi désignée par les
expressions, nouvelles techniques de l'information et de la communication, société de
l'information, troisième révolution industrielle, Internet ou ère du numérique, cette liste
n'ayant aucune prétention exhaustive. Avant même tout effort de mise en ordre des idées et
des catégories, l'observateur extérieur, mais curieux, ressent intuitivement un sentiment de
nébulosité et d'hétérogénéité, suggéré par les expressions elles-mêmes.
Il convient cependant de définir un champ, afin que le lecteur sache un peu plus
précisément de quoi l'on va lui parler. Quatre secteurs d'activité nous semblent baliser, à
peu près, le champ exploré ici: informatique, électronique, télécommunications,
communication audiovisuelle2. L'élargissement de la logique informatique au traitement et
à la circulation de l'information dans ces différents domaines cristallise une communauté
technologique popularisée un temps sous l'étiquette de «convergence». Ces différentes
sphères ont aussi en commun un certain nombre de caractéristiques économiques qui
fondent leur rassemblement dans un même vocable, à défaut d'un même concept; mais la
grande diversité des réalités de fonctionnement, des systèmes d'échanges des biens et
services concernés demeure. À travers cette diversité, s'impose aussi celle des stratégies de
marchés et des instruments de régulation, telles que la mesure de l'audience ou la
connaissance de la demande.

HERMÈS 37, 2003 193


Jean-Pierre Jézéquel

Des caractéristiques économiques communes

Nous en relèverons trois, étroitement imbriquées les unes dans les autres.
Les échanges dans la nouvelle économie sont «numérisés», c'est-à-dire exprimés en 0
et en 1, selon les règles du langage informatique. Cette aptitude à la numérisation, qui
simplifie les opérations de traitement de l'information, autorise de très importantes
économies d'échelle, leur première caractéristique. Dans le domaine des biens
d'information, les coûts fixes de production peuvent être élevés; que l'on pense au
développement de nouveaux logiciels, par exemple. Mais par la grâce de la numérisation,
les coûts de reproduction et de distribution sont quasi nuls. Les coûts fixes peuvent se
répartir sur une production qui augmente exponentiellement3. De plus, sous l'effet de ce qui
est communément nommé la mondialisation, le potentiel de clients augmente au gré de
l'élargissement des réseaux qui sont eux-mêmes au cœur de la nouvelle économie. Une sorte
de cercle vertueux se met en place entre le développement des réseaux numérisés qui
augmente la demande potentielle et le prix des biens échangés qui diminue au fur et à
mesure de cette augmentation.
Cette économie d'échelle se transforme en plus-value pour le réseau lui-même: de plus
en plus de biens peuvent être échangés, à des prix de moins en moins élevés et à un nombre
grandissant de clients. Cette valorisation des réseaux est connue sous le nom de Loi de
Metcalfe qui s'énonce ainsi: la valeur d'un réseau augmente à proportion du carré de ses
membres4. Alors que, pour les biens traditionnels, le développement du réseau de
distribution entraîne une propension aux déséconomies d'échelle (accroissement des coûts
de gestion et d'organisation), dans la nouvelle économie c'est le contraire: l'augmentation
de la distribution se traduit par des économies d'échelle. Le plomb se transforme en or.
Pour certains biens enfin, tels les logiciels informatiques, plus le nombre d'utilisateurs
est élevé, plus la valeur de ce bien augmente: il devient un «standard», celui qui sera
recherché prioritairement.
En second lieu, le développement de la nouvelle économie est un facteur
d'augmentation de la productivité. La plupart des réussites en matière de distribution de
biens et services dans la nouvelle économie proviennent de la destruction de poches de
rétention de productivité5. Il existe traditionnellement dans tout système de production ou
de distribution des frictions dans leur fluidité; ces frictions peuvent même se traduire par des
niches monopolistiques, ou oligopolistiques, fondées sur le manque de transparence du
système productif lui-même. La nouvelle économie permet une transparence de
l'information et un accès direct au client sans intermédiaires plus ou moins inutiles. Toute
fonction d'intermédiation voit, de toutes les façons, ses marges écrasées. Les possibilités
qu'ouvre la nouvelle économie dans le domaine de la productivité commencent à avoir leur

194 HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

traduction dans les statistiques macro-économiques. Les chiffres de la productivité


américaine montre l'augmentation sensible de celle-ci à partir du milieu des années 1990.
C'est surtout la productivité du travail qui augmente retrouvant des niveaux (2, 2 % par an
en moyenne entre 1995 et 2000) inconnus depuis les années 1970; de son côté, la
productivité du capital conserve sa tendance trentenaire à se dégrader au fur et à mesure de
son accumulation6. L'accélération de la productivité globale ne s'observe pas encore de façon
aussi nette en Europe. Compte tenu d'une diffusion plus tardive, par rapport aux Etats-Unis,
des technologies d'information et communication, ce n'est guère surprenant. Il faut aussi
préciser que les progrès observés de productivité sont la résultante de deux phénomènes.
D'une part, la croissance de la productivité dans le secteur informatique; plus ce secteur a de
l'importance dans une économie nationale (cas des États-Unis par rapport à l'Europe) et plus
cet élément va peser lourd. D'autre part, la croissance de productivité due à la diffusion des
nouvelles technologies d'information dans les autres secteurs de la vie économique; dans ce
registre, les aspects d'organisation des entreprises (ou des secteurs) et la familiarité du monde
du travail avec la logique informatique peuvent peser lourd, et ce poids n'est pas strictement
proportionnel au niveau d'investissement dans le hard ware des nouvelles techniques.
Enfin, la troisième caractéristique est l'accroissement de la concurrence que l'on peut
observer dans tous les secteurs touchés par les nouvelles techniques de l'information. La
facilité d'accès à l'information (tarifaire, par exemple) et plus encore son accessibilité
immédiate aboutissent à nous rapprocher du tableau idyllique d'un marché transparent,
archétype de la concurrence pure et parfaite décrite par les économistes classiques des XVIIe
et XVIIIe siècles. Il n'est pas nécessaire d'être un virtuose de l'informatique pour s'informer
dans un temps record des prix pratiqués par les différents distributeurs d'un bien
d'équipement, par exemple. Ce renforcement de la concurrence profite au consommateur
final en comprimant à leur strict minimum les marges bénéficiaires des entreprises, que
celles-ci soient dans la production ou la distribution du bien ou service concerné par le
nouvel environnement «numérique» 7 . Ce caractère débouche sur un des premiers
paradoxes de la nouvelle économie: il est très difficile pour les entreprises qui s'y engagent
de dégager des bénéfices de manière durable. On observe ici une contradiction qui
constitue le talon d'Achille de cette nouvelle ère. Les coûts de recherche et développement
dans les techniques modernes de l'information constituent, comme on l'a déjà évoqué, la
majeure partie des coûts de production, ceux de fabrication et de distribution étant
minimes. Une telle structure de coût exige de pourvoir bénéficier pendant un certain temps
d'une forme de rente de situation pour amortir les dépenses engagées. Les protections que
vont s'efforcer de construire les entreprises en question (en termes, par exemple, de brevets
ou de droits d'auteur) entrent en contradiction avec les caractères fondamentaux de cette
nouvelle économie. En résumé, la nouvelle économie crée les conditions d'une concurrence
pure et parfaite qui ne permet plus aux entreprises qui s'y spécialisent de se rentabiliser.

HERMÈS 37, 2003 195


Jean-Pierre Jézéquel

L'engouement boursier pour les entreprises investissant dans la nouvelle économie


n'était pas totalement absurde, tout au moins au départ, car fondé sur l'analyse de
caractéristiques qui pouvaient, en bonne logique, apparaître comme de véritables atouts pour
ces entreprises. Outre des phénomènes de surinvestissement conjugués à des exigences
complètement utopiques de retour sur investissement, les espoirs de rentabilité se sont avérés
non seulement illusoires à court terme, mais de plus en plus minces dans le moyen et le long
terme. On pourrait énoncer l'aphorisme: la nouvelle économie, ce sont surtout de nouvelles
économies, «économies» étant pris ici au sens étroit d'épargnes ou de moindres dépenses.

Une disparité de situations et de fonctionnements

On peut donc identifier quelques caractéristiques très générales qui définissent cet
objet aux contours flous que constitue la «nouvelle économie». Ce terme peut trouver une
certaine légitimité terminologique en ce que les secteurs concernés et inventoriés en début
d'article sont considérés comme les secteurs moteurs du développement global de
l'économie, et ce pour une période de plusieurs dizaines d'années. Ils sont appelés à jouer
le rôle qu'ont pu jouer le secteur des chemins de fer au XIXe siècle et le secteur pétrolier et
automobile au XXe siècle. Au moment de l'émergence de ces secteurs, on aurait pu imaginer
que certains emploient à leur sujet le terme de nouvelle économie. En l'occurrence le terme
se justifie à la fois par la montée en puissance d'un secteur d'activité nouveau et par ses
conséquences sur les autres secteurs de l'économie. Au même titre que le développement
des moyens de communication ferroviaire et automobile a considérablement influencé et
bouleversé les structures de la production et de la distribution des autres secteurs, il en est
de même avec le développement des techniques de numérisation de l'information. Le
manque d'unité et d'homogénéité des secteurs au cœur de la nouvelle économie est
concomitant d'une grande variété de conséquences dans des secteurs d'activité très divers
par ailleurs. Au bout du compte, il est logique de constater une aussi grande diversité des
instruments de régulation correspondant tant aux nouveaux secteurs qu'aux secteurs
traditionnels réorganisés par les nouveaux moyens d'information. Pour illustrer ce propos,
on peut employer une image un peu triviale qui renvoie à l'analogie avec l'essor de
l'industrie automobile. Le concessionnaire d'une marque d'automobile qui vend un
véhicule, le vendeur d'essence à la station-service, la société autoroutière qui encaisse les
péages, le transporteur routier qui facture moins cher que le rail les mètres cubes de
marchandises qu'il transporte sont tous des «enfants» de l'ancienne économie fondée sur
l'énergie pétrolière et le moteur à explosion. Leurs logiques commerciales, leurs modes

196 HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

d'encaissement des recettes et les instruments de mesure de leur activité sont évidemment
différents; et personne ne s'attend à ce que leur dénominateur commun pétrolier ait
vocation à unifier les indicateurs qu'ils utilisent pour leurs activités spécifiques. Il en est de
même avec la nouvelle économie et ses différents secteurs.

Internet, emblème de la nouvelle économie

Il n'est pas nécessaire de s'attarder outre mesure sur les différences qui peuvent exister
dans les logiques d'échanges et de marché de secteurs tels que la vente de micro-
ordinateurs, le marché des composants électroniques ou la location de faisceaux hertziens.
Aussi nous nous concentrerons sur le secteur de l'Internet et des services qui y sont
proposés.
Peu importe pour notre propos que l'on considère Internet comme un média; bornons
nous à constater que l'on échange sur la toile des informations et des contenus, plus ou
moins organisés et mis en forme, au milieu d'autres biens ou services de toute nature. Il est
évident que l'ensemble de ce marché (au sens strict de mise en rapport entre une offre et
une demande) ne dessine pas un modèle économique unique. Ce trait de caractère est
d'ailleurs souvent traduit par le slogan illusoire, «Internet n'a pas encore trouvé son modèle
économique»; que l'on est tenté de compléter par, «... et il ne le trouvera jamais». On ne
voit vraiment pas pourquoi l'accès à des pages de journaux ou magazines, le téléchargement
de programmes audiovisuels ou de jeux vidéo, la fourniture de services bancaires, l'achat de
prestations telles que voyages ou billets de transports, les paris en ligne, les sites de mises
aux enchères ou de petites annonces, le commerce électronique de biens matériels, la
recherche de documents pédagogiques ou culturels, la prise de connaissance de textes
réglementaires, ou l'utilisation de la messagerie électronique devraient relever d'un modèle
unique de transaction. Dans cet inventaire à la Prévert, certains exemples n'ont même pas
vocation à échange commercial.
La communauté des pionniers d'Internet (essentiellement des chercheurs et des
universitaires) a promu le développement de la toile en insistant sur son caractère gratuit et
convivial. S'est ainsi constituée une sorte de culture de l'Internet qui s'est trouvée en porte-
à-faux avec l'irruption d'offreurs de services qui ne pouvaient s'installer sans bénéficier
d'une quelconque forme de ressources. En économie marchande, la vraie gratuité n'existe
pas et, fut-ce de manière indirecte, le consommateur final doit participer au financement du
service utilisé. Biens publics8 par excellence, les médias audiovisuels ont depuis longtemps
éprouvé les deux formes de fausse gratuité qui fondent leur économie: service public

HERMÈS 37, 2003 197


Jean-Pierre Jézéquel

financé par la fiscalité, service commercial financé par la publicité. Ces deux formes n'étant
pas exclusives, elles peuvent se combiner, la plupart des pays européens ayant testé
différentes modalités de combinaisons possibles. Dans un deuxième temps, les firmes qui
ont commencé à investir Internet pour y effectuer des opérations marchandes ont essayé de
concilier cette idéologie de la gratuité avec leurs objectifs commerciaux. Le modèle de
« gratuité » des médias audiovisuels fondé sur le financement publicitaire a semblé pouvoir
fournir la réponse adaptée. La conjoncture économique déprimée à partir de 2001, en
particulier celle du marché publicitaire, a précipité la prise de conscience que la gratuité, ou
pseudo-gratuité, ne pourrait suffire à rentabiliser toutes les offres qui envisageaient de se
développer sur Internet.
L'idée qu'Internet ne pourrait croître qu'en s'appuyant sur des services (directement)
payants a progressivement fait son chemin, non sans soulever nombre de réticences et de
répugnances. Pendant l'été 2001, le cabinet conseil Andersen réalisait une enquête auprès
de plusieurs centaines d'entreprises engagées dans le webcasting (les différentes activités
liées à la vidéo sur Internet) 9 . Pour l'ensemble des entreprises répondantes, la publicité ne
devrait plus représenter à l'avenir que moins de 50 % des revenus. Les autres sources de
financement citées étaient dans l'ordre: l'abonnement, le pay per view et le commerce en
ligne. En outre, ces différents modes de financement étaient associés par les sondés à
différents modes de diffusion: la publicité et l'abonnement à l'accès en direct, et le pay per
view au téléchargement. La valeur d'un tel type d'enquête doit naturellement être relativisée
et l'on peut s'interroger sur la rigueur apportée tant au questionnaire qu'aux réponses
enregistrées. Elle a le mérite de donner un coup de projecteur instructif sur l'état d'esprit
des acteurs économiques et la hiérarchisation des revenus potentiels dans ce champ
d'activité. Mais ce qui nous importe le plus ici est la diversité des types de transaction
qu'évoquent spontanément les différents acteurs d'un secteur d'Internet pourtant à peu
près délimité, en l'occurrence la vidéo. Il est acquis que le modèle économique fondé sur la
seule publicité ne saurait constituer une perspective crédible. La place de la publicité
pourrait être importante, mais elle voisinera avec des services qui se feront rémunérer selon
diverses modalités.

Internet ou l'individualisation des comportements

Dans le monde des médias audiovisuels et de la presse, la publicité a un rôle central


nécessitant un instrument de régulation qui organise la distribution des flux financiers: la
mesure de l'audience. Dans le monde de l'Internet, il est incertain que la publicité joue un

198 HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

rôle équivalent, même lorsque sa conjoncture particulière sera revenue à une meilleure
fortune. Mais la différence entre les deux mondes, du point de vue des publicitaires, se situe
encore à un autre niveau. Étant donné la diversité des services offerts et surtout la spécificité
des rapports entretenus entre l'offreur de services et son usager, l'idée même d'un
instrument de mesure d'audience unifiant cet univers et hiérarchisant entre les différentes
plates-formes offrant des services devient illogique, contradictoire avec les atouts propres
d'Internet. Les médias traditionnels s'adressent à des consommateurs de manière
indifférenciée et ceux-ci leur sont en quelque sorte anonymes. Le caractère massif et
indifférencié de la publicité traditionnelle oblige les acteurs de ce secteur à effectuer des
constructions abstraites de cibles pour mieux cerner le public qui est exposé aux messages.
La technique des sondages et des panels est au cœur de «l'économie publicitaire». Le
Médiamat de la télévision représente sans doute le plus haut degré de sophistication jamais
atteint par ces techniques.
Avant même l'épuisement des perspectives de croissance du modèle publicitaire, les
télévisions ont cherché de nouvelles ressources avec les chaînes payantes par abonnement.
Aux Etats-Unis, HBO apparaît en 1973; Canal Plus, son équivalent français, commence à
émettre en novembre 1984. Que ce soit pour l'organe de presse ou pour la chaîne de
télévision cryptée, l'abonné se réduit à une adresse postale; on connaît par ailleurs la valeur
marchande attribuée à ces fichiers qui sont susceptibles de permettre un meilleur ciblage
pour la promotion d'un produit ou d'un service particulier. Sur la «toile», l'offreur de
contenu inaugure un contact privilégié et personnalisé avec l'usager. Cette relation est
d'ailleurs matérialisée par la liaison électronique bilatérale qui relie les deux protagonistes:
l'information circule dans les deux sens. La navigation de l'internaute à l'intérieur d'un site
exprime bien la singularité d'une démarche individuelle. Contrairement aux principes
fondamentaux d'un média de masse (unilatéralisme, indifférenciation, simultanéité), la
diffusion d'un contenu se traduit par l'envoi, à des moments différents, d'informations à un
certain nombre d'adresses qui se sont portées candidates, avec des possibilités de
rétroaction plus ou moins développées selon les cas. Cette relation beaucoup plus riche
entraîne des conséquences majeures sur les rapports commerciaux et le type de marketing
qu'elle autorise10. La relation Internet reconstitue, à distance, une sorte de face à face entre
un fournisseur et un client. Non seulement ce dernier est identifié, mais son comportement
à l'égard des différentes offres peut être enregistré et mis en mémoire. L'identification et
l'enregistrement chronologique du comportement de l'usager accomplissent sa traçabilité.
Pour reprendre l'analogie du fichier d'abonnés, non seulement on dispose de l'adresse du
client, mais aussi de la trace de son parcours, sur des mois ou des années, à travers
l'ensemble des offres d'un portail ou d'une plate-forme donnée. Si la publicité traditionnelle
peut s'apparenter à du prêt-à-porter, la politique commerciale rendue possible par des
informations aussi individualisées relèvent de la confection sur-mesure. À l'individualisation

HERMÈS 37, 2003 199


Jean-Pierre Jézéquel

de la consommation des différentes offres (services, messages ou programmes) par l'usager,


rendue possible par les nouvelles techniques de communication, fait écho l'individualisation
de la politique promotionnelle des fournisseurs. Le développement des rapports marchands
sur Internet ne va pas favoriser des techniques de comptage ou des indicateurs unifiés: la
nature même du support va dans le sens d'un éclatement des instruments de connaissance
des utilisateurs, de l'adaptation au programme ou au service offert, et au final de
l'adaptation à la personne même du client. La connaissance des centres d'intérêt et des
consommations passées déterminera, par systèmes de croisements d'informations, la
confection d'une offre de services appropriée.
Est-ce à dire que disparaîtra tout système de mesure de public ou d'agrégation
statistique d'une fréquentation? Certes non, mais le sens de ces instruments ne sera pas
celui d'une régulation des flux financiers, comme ont pu l'être les mesures d'audience ou de
lectorat pour l'audiovisuel ou la presse écrite. Rappelons qu'avant même l'introduction de
la publicité, les chaînes publiques de télévision française élaboraient des instruments de
mesure de leur public et de la hiérarchie de leurs goûts. De la même manière, des sites
Internet commencent déjà à construire des instruments de mesure de leur fréquentation.
Non pas tellement pour régler les flux de recettes qu'ils espèrent, ou pour établir une
hiérarchie avec un site voisin ou concurrent 11 ; mais pour établir des indicateurs leur
permettant de mieux cerner l'identité sociale et collective de leur public. Le site privé dédié
à un auteur ou un personnage historique, celui d'une bibliothèque, le service administratif
sont, ou vont être, à la recherche d'une mesure de leur fréquentation, indépendamment de
toute logique de financement. De leur côté, le site de l'agence de voyage, le service bancaire,
le commerce de musique en ligne sont autant d'acteurs marchands qui vont chercher à
améliorer leurs performances. Mais ils n'utiliseront pas pour cela des indicateurs simples et
hiérarchiques à l'instar de ceux qui ont été construits par les médias traditionnels.
Les indicateurs de fréquentation d'Internet serviront plus à l'inscription dans un réseau
social qu'à une adjudication de ressources économiques. Si on peut individualiser à
l'extrême les rapports économiques (et c'est tout le sens de ce qui se noue dans la nouvelle
économie), on ne peut abolir la nécessaire socialisation des institutions; les nouveaux lieux
d'offre de la «nouvelle économie» étant par définition en voie d'institutionnalisation.

NOTES

1. Dans La Croissance, début de siècle, Paris, Albin Michel, 2002, Robert BOYER se livre, au terme d'analyses
détaillées, à «l'autopsie de la nouvelle économie». Par commodité, nous conservons ce vocable de nouvelle
économie, sans méconnaître les mythes et les controverses qu'il suscite.

200 HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

2. Pour cet effort de délimitation voir le paragraphe « Contours de la nouvelle économie» in Nouvelle économie,
D. COHEN et M. DEBONNEUIL, rapport du Conseil d'Analyse Économique, septembre 2000.
3. Économie de l'information, Carl SHAPIRO et Hal R. VARÍAN, Édition De Boeck Université; recension dans Le
Monde, du 24 mars 2000.
4. «Les logiques fondatrices d'Internet», Jean-Paul BERBÈZE, Le Monde, 17 octobre 2000.
5. « Qu'est réellement la nouvelle économie ? », Philippe LEMOINE, Le Monde, 4 juillet 2000.
6. « La nouvelle économie n'était pas qu'une chimère », Guillaume DuVAL, Alternatives économiques, mars 2003.
Pour plus d'éléments sur les questions de productivité voir « Croissance économique et diffusion des TIC »,
notes d'études et de recherche de la Banque de France, décembre 2001 et «Croissance et technologies de
l'information en France et aux États-Unis», Hélène BAUDCHON et Olivier BROSSARD, Revue de l'OFCE,
janvier 2001. Ce dernier document s'efforce en particulier de donner des explications au retard constaté entre
le développement des moyens informatiques dans les années 1970 et 1980 et leur impact sur les chiffres de la
productivité globale de l'économie, à partir de 1995 et seulement aux États-Unis. Voir aussi le rapport
Nouvelle économie du Conseil d'analyse économique, déjà cité.
7. «Anatomie d'un crash», Lawrence H. SUMMERS et J. Bradford DELONG, Le Monde, 19 juin 2002.
8. En Science économique, un bien est dit public si son utilisation par un usager n'entrave pas l'utilisation par
un autre usager. Les médias audiovisuels représentent un exemple presque idéal.
9. «Vers de nouveaux modèles économiques pour le webcasting», Écran total, 26 septembre 2001.
10. Ces aspects sont développés par Louis CHAMMING'S, Veut-on parler d'audience sur Internet, Dossiers de
l'audiovisuel mai-juin 2002, Les nouvelles technologies: quels usages, quels usagers?
11. Une forme fruste de publicité sur Internet est encore à la recherche d'instruments «fiables» de cette nature
pour tenter de construire des grilles de tarifs inspirés de celles des médias de masse traditionnels. Ce n'est pas
la voie la plus riche dans tous les sens du terme.

HERMÈS 37, 2003 201


Josiane Jouet
Institut français de presse, université Varis II

LA PÊCHE AUX INTERNAUTES

Internet a-t-il une audience ? Certains allégueront que non car le réseau des réseaux
n'est pas un média de masse et les usagers d'Internet ne constituent en rien une audience
comme celle de la radio ou la télévision. La généalogie des études d'audience les lie en effet
à l'avènement des médias de masse or Internet ne s'inscrit pas dans une logique de diffusion
mais de connexion. Nous ne sommes plus en présence d'une offre construite pour rejoindre
simultanément de vastes auditoires car Internet est un pluri-média qui donne accès à une
multitude de services d'information, de loisirs, de jeux, de transaction, de commerce ou de
communication interpersonnelle et collective. C'est aussi un hyper-média qui assigne à
l'utilisateur une posture de communication interactive fort distincte de la posture de
réception des médias de masse. De plus la polyvalence d'Internet lui confère un caractère
globalisant qui fait éclater les sphères d'activités traditionnelles des médias de masse et
s'étend, entre autres, à la sphère du travail et de l'échange communicationnel. Or a-t-on
jamais entendu parler de l'audience des outils de travail ou de l'audience du téléphone ?
L'architecture technique d'Internet défierait donc en elle-même l'application de la notion
d'audience.
D'autres rétorqueront que si, l'audience d'Internet existe bien. En effet, depuis 1996,
Internet s'est démocratisé et son ouverture vers «le grand public» s'est accompagnée non
seulement de l'arrivée des grands médias de masse sur le Web mais de fournisseurs d'accès,
de moteurs de recherche et de portails qui se sont largement inspirés du modèle médiatique
et, en particulier, du modèle de la presse magazine et de la télévision. « Que cherchent en
effet tous les opérateurs du Net qui, quel que soit leur métier de départ, cherchent à se
constituer en portails ? Ils prétendent, eux aussi, agréger des publics pour les faire passer
par leur point de passage obligé, dans le but essentiel de maximiser, là aussi leurs revenus
publicitaires. Le modèle économique calqué à travers les portails est celui de la télévision:
l'émergence de la guerre des méthodes de mesure d'audience sur Internet n'est qu'un
symptôme mais elle est en même temps la pièce maîtresse de cette opération de compromis

HERMÈS 37, 2003 203


Josiane Jouët

avec les publicitaires. » (Boullier, 2000). L'art de la conception de site s'apparenterait donc
à l'art de la programmation dans la sphère audiovisuelle, à l'art de l'offre éditoriale et de la
mise en scène graphique dans la presse écrite, arts qui recourent largement aux études
d'audience et au marketing.
Si le glissement d'Internet vers le modèle éditorial justifie, du moins en partie,
l'emprunt de la notion d'audience, la mesure d'audience d'Internet n'est pas un simple
calque des mesures d'audience des médias. Elle se greffe d'emblée sur deux autres logiques:
la logique de mesure de trafic des télécommunications et la logique de numérisation de
l'informatique. Les filiations techniques du réseau des réseaux contribuent à la genèse de la
mesure d'audience d'Internet. En effet, la construction de ce dispositif repose sur un
agencement entre d'une part, les outils de la technologie sociale empruntés aux études
d'audience classiques et au marketing et, d'autre part, les outils de l'informatique et des
télécommunications (numérisation, procédures de capture, suivi et observation des trafics
et des flux... ). Ainsi, la mesure de l'audience d'Internet est d'abord et de façon massive une
mesure sur Internet.
Nous prenons en compte dans cet article, non seulement les travaux de mesure de
l'audience mais aussi les travaux d'enquête qui étudient les internautes en recourant soit aux
méthodes classiques de questionnaire ou d'entretien, soit aux questionnaires en ligne.
L'objectif n'est pas d'exposer l'ensemble de la panoplie des études d'audience d'Internet qui
font florès ni d'entrer dans les raffinements en évolution constante des techniques utilisées1
Le texte ne fournit pas non plus de résultats statistiques sur les audiences d'Internet en
raison d'une part, de leur obsolescence et, d'autre part, du fait qu'ils sont, du moins pour la
partie qui n'est pas confidentielle, aisément accessibles en ligne. La perspective est autre, car
il s'agit d'aborder les enjeux des études d'audience, de s'interroger sur les modes de
construction des principales méthodologies et de cerner la représentation des internautes
qui émerge de ces dispositifs.

Un marché fragmenté

En moins d'une décennie, le marché des études d'audience d'Internet a explosé sous
l'effet de la «bulle Internet». C'est encore un marché ouvert qui a ainsi vu l'apparition de
petites sociétés d'études qui rivalisent dans l'élaboration d'outils de mesure ou d'études
performants. Il se caractérise par une forte instabilité et concurrence et s'y déploient de
grands instituts de sondage, comme Médiamétrie, aux côtés de petites start-ups comme
eStat, Weborama ou Atinternet, spécialistes de la mesure de trafic sur réseau dont la

204 HERMÈS 37, 2003


La pêche aux internautes

clientèle initiale de petits éditeurs de site s'est élargie à des acteurs plus importants. En
outre, des bureaux d'étude et de marketing de taille moyenne, comme Novatris, réalisent
aussi des enquêtes sur les internautes. La fragmentation actuelle du marché de l'audience
se caractérise de fait par un double phénomène de spécialisation et de partenariat
international, dans un climat d'incertitude économique qui renforce les concentrations.
Dans cette course aux études, chacun est à la recherche de la killer application et
aucune ne s'impose de façon définitive. D'ailleurs la spécificité du média Internet n'appelle
pas nécessairement l'imposition à terme d'une mesure d'audience unique, comme cela s'est
passé pour la télévision avant l'arrivée des chaînes thématiques, mais peut-être se produira-
t-il une coexistence de mesures renvoyant à l'hétérogénéité du média Internet et de ses
intervenants.
Aujourd'hui il est de bonne guerre d'évoquer les écarts de résultats sur l'audience
d'Internet obtenus par les différentes méthodes. La mesure d'audience d'Internet repose en
effet sur un paradoxe: il est le média qui a priori se prête le mieux à la connaissance de ses
publics car l'usager en ligne laisse quantité de traces mais il est à la fois le média le plus
complexe à mesurer. De nombreux obstacles surgissent en effet pour obtenir des comptages
rigoureux et précis. L'utilisation de serveurs «proxy» et des caches masquant les fichiers logs
font que plus une page est demandée moins elle est comptabilisée, le problème étant résolu
par la présence de marqueurs sur les pages. Des difficultés techniques surgissent aux
niveaux des navigateurs, des fournisseurs d'accès, des types d'ordinateurs des usagers, des
lieux de connexion (domicile, entreprise, cybercafé, université... ). De plus, les méthodes de
mesure diffèrent et les logiciels de comptage n'enregistrent pas nécessairement les mêmes
paramètres. « Ces différences sont un frein à la crédibilité du média, car les chiffres sont
souvent comparés entre eux sans que l'on sache comment ils ont été obtenus. » (Brignier et
al, 2002). Il existe par ailleurs une forte instabilité de la démographie des internautes qui
exige une mise à jour permanente et périodique des enquêtes de calage réalisées par les
grands instituts de sondage afin d'ajuster la représentativité des échantillons. De plus, à
l'inverse de la télévision par exemple, l'audience d'Internet est par définition internationale
même si les études montrent que les sites nationaux sont très majoritairement consultés par
les résidents de leur pays. Surtout, le média Internet qui offre une diversité d'applications
et de services (information, messagerie interpersonnelle et de groupe, transfert de fichiers,
transaction etc. ) rend impossible une mesure d'audience unique et exhaustive y compris
dans le seul domaine du Web en raison de la multitude des sites qui se chiffrent par
centaines de milliers. La différence avec les médias de masse est donc ici majeure et une
vaste partie d'Internet échappe de fait à toute mesure.
Si les mesures d'audience d'Internet sont encore loin d'être parfaitement cohérentes et
fiables, elles tendent à converger de plus en plus grâce entre autres aux efforts des instances
interprofessionnelles qui ont chargé les organismes de contrôle (le Centre d'études des supports

HERMÈS 37, 2003 205


Josiane Jouët

de publicité et Diffusion contrôle) d'opérer une certification et une labellisation des outils de
mesure soumis à un audit régulier. Ainsi, la mise en place par le CESP d'une « Terminologie
pour la mesure d'audience d'Internet » a permis d'établir une définition précise des différents
indicateurs de mesure reconnus et appliqués par les organismes d'audience2. A l'instar des
médias de masse, l'audience d'Internet est désormais mesurée à l'aune de ses propres
indicateurs parmi lesquels: le nombre de pages vues, de pages vues avec publicité, de session
utilisateur correspondant à la durée totale d'une connexion qui peut elle-même comprendre
plusieurs visites, soit un ensemble de pages vues sur un même site au cours d'une même session,
de visiteurs (individus consultant un même site au cours d'une période donnée)...

De la traque des traces aux enquêtes e n ligne

Deux grandes méthodologies permettent d'effectuer des mesures d'audience d'Internet


sur Internet: les mesures dites «site centric» qui chiffrent la fréquentation des sites d'une
part, et les mesures dites «user centric» qui permettent de connaître le comportement des
internautes d'autre part.

Du côté des mesures «user centric», les panels d'Internautes sont en quelque sorte le
décalque de l'audimétrie télévisuelle et, tout comme pour le Médiamat, ils sont constitués
d'individus consentant à l'installation d'un logiciel espion sur leur ordinateur. Ce système
d'enregistrement passif est a priori le plus fiable car l'internaute s'identifie dès qu'il se
connecte à Internet (les différents membres du foyer ont chacun un code d'accès spécifique)
et il est suivi à la trace. Grâce à l'interactivité du média, on peut repérer toute inactivité
supérieure à un temps donné, qui est assimilée à une fin de session, et ce dispositif paraît
supérieur en précision au Médiamat dont le système de boutons poussoir ne permet pas de
cerner l'attention du téléspectateur au petit écran. Les panels reposent sur un échantillon
représentatif d'internautes correspondant à des catégories sociales précises et fournissent
des renseignements précieux sur les usages d'Internet et leur évolution dans le temps.
La tendance à l'internationalisation et à la concentration est remarquable pour ces
panels d'Internautes très onéreux qui, conjointement implantés dans plusieurs pays,
permettent des mesures comparatives sur plusieurs zones géographiques. Ainsi, les trois
panels présents en France au début de l'année 2002, étaient-ils tous les résultats d'alliances
entre opérateurs nationaux et multinationaux. Médiamétrie s'est associé à Nielsen, le grand
spécialiste américain de l'audience, à travers la société Nielsen-NetRatings; la Start up
Netvalue, associée au groupe Taylor Nelson Sofrès, avait développé un partenariat avec le

206 HERMÈS 37, 2003


La pêche aux internautes

groupe américain ComScore, avant d'être absorbée par le même NetRatings à l'automne
2002. Le troisième panel, Jupiter Médiametrix Europe, était une joint venture de
l'Américain MediaMetrix avec des instituts européens, dont l'Allemand GFK et le Français
IPSOS, avant d'être racheté par ComScore et d'être utilisé à d'autres fins. A la fin de l'année
2002, il ne demeure plus sur le marché français de la mesure user centric que le panel de
Nielsen-Netratings commercialisé par Médiamétrie.
Néanmoins, la connaissance par le biais des panels présente des limites car les données
recueillies sont valides pour la fréquentation des gros sites (portails, moteurs etc. ), mais non
pour cerner la consultation des petits sites en raison de l'extrême fragmentation du Web.
« On touche ici une limite importante de ce type de mesure: comme on compte les visites
à l'intérieur d'un échantillon, il faut accumuler des observations dans la durée pour obtenir
des chiffres qui puissent être significatifs. C'est une limite frustrante dans le cas d'un média
interactif comme Internet. » (Haering, 2002). En effet, les échantillons - même s'ils
atteignent, par exemple en France, environ 10 000 panélistes pour le seul panel restant - ne
sont pas très extensibles car le coût de recrutement et de gestion des panels est très élevé.
Si les panels sont apparus à la fin des années 1990 comme la méthodologie la plus adéquate
pour mesurer l'audience d'Internet, cette approche reste aujourd'hui complémentaire des
mesures effectuées côté sites.

Ainsi, les mesures dites site centric, qui avaient été les premières mesures effectuées sur
Internet, connaissent un regain d'intérêt car leurs logiciels deviennent de plus en plus
sophistiqués et permettent aujourd'hui, outre la simple quantification, des approches de
qualification de l'audience. Les études de fréquentation de sites sont des comptages externes
réalisés par des organismes spécialisés qui installent leur propre marqueur sur les pages des sites
ce qui garantit la validité et la comparabilité de la mesure. Cette méthodologie présente
l'avantage d'enregistrer toutes les connexions sur les sites étudiés, qu'elles proviennent du
domicile, de l'entreprise ou d'un lieu d'accès collectif, assurant ainsi la fiabilité des résultats,
alors que les panels d'internautes sont encore largement résidentiels et plus difficiles à installer
dans le monde professionnel. Le marché du site centric se répartit entre huit sociétés dont les
outils ont été labellisés par Diffusion contrôle dont Cybermétrie (dispositif de Médiamétrie),
mesure collective et commune de fréquentation de sites, et d'autres sociétés spécialisées moins
importantes3. La spécificité du média Internet favorise en effet la construction de dispositifs de
mesure innovants qui combinent la technologie de l'informatique, via des logiciels de capture
des traces de plus en plus exhaustifs, et la technologie sociale du marketing. Ces sociétés
présentent des classements de sites par thématiques et leurs services répondent au montant de
la souscription du client, allant de la gratuité pour le comptage de la fréquentation des sites
personnels (moyennant un encart publicitaire de la société), à des services de plus en plus
onéreux selon les niveaux de statistiques et de conseils marketing demandés.

HERMÈS 37, 2003 207


Josiane Jouët

Ces dispositifs conjuguent d'une part du tracking avec des logiciels de capture qui
fournissent aux sites souscripteurs des données précises sur leur fréquentation, les
caractéristiques des visites du site, l'assiduité des internautes et, d'autre part, parfois du
profiling qui vise une qualification de l'audience. Les internautes ne sont pas identifiés
nommément ni selon leurs caractéristiques socio-démographiques, à l'inverse des panels.
La reconnaissance des visiteurs repose sur l'identification du navigateur de l'ordinateur
grâce aux cookies. Les techniques de profiling suivent par exemple le parcours des
internautes sur la toile pour saisir leurs centres d'intérêt et en déduisent de façon indirecte
et probabiliste le profil des utilisateurs des différents sites (leur âge, leur sexe, leurs goûts,
leur consommation). Une analyse sémantique des sites consultés est aussi parfois effectuée.
Le profiling débouche sur des recommandations qui orientent l'offre éditoriale mais aussi
bien sûr l'offre publicitaire. Là encore, Internet se distingue des médias de masse en
permettant une insertion dynamique des publicités qui peut varier en fonction de la cible
et en fonction de l'exposition préalable de l'internaute aux messages publicitaires. De plus,
les annonceurs peuvent a priori connaître l'efficacité de leurs campagnes avec les
indicateurs de pages vues avec publicité, les taux de clics sur les publicités voire les clics
through (publicité totalement téléchargée). Les serveurs de publicité via la technique du
marquage des messages publicitaires disposent donc de statistiques d'audience précises.

Si la traque des traces est la poule aux œufs d'or des mesures d'audience d'Internet,
d'autres sociétés sont spécialisées dans les études d'audience visant à connaître les publics
d'Internet. La méthode la plus utilisée est celle des questionnaires en ligne qui fournissent
des renseignements sur les types et les modalités d'usage d'Internet, mais aussi sur la
consommation et le mode de vie des internautes. Ces enquêtes en ligne peuvent être
effectuées par vague et de façon régulière par certains bureaux d'études, comme Ipsos ou
Novatris, qui disposent ainsi de bases de données conséquentes sur plusieurs milliers
d'internautes qu'ils qualifient de «panel» dans la mesure où ces derniers peuvent être
régulièrement sollicités. Ces grandes études multi-clients se doublent d'enquêtes ad-hoc
réalisées à la carte et accompagnées de conseil marketing. L'analyse des données de ces
enquêtes devient de plus en plus pointue et ciblée autour de la représentation de
l'internaute comme consommateur. Si les enquêtes en ligne présentent les avantages d'un
faible coût et d'une rapidité de mise en place, leurs limites résident dans la représentativité
des internautes qui acceptent de remplir les questionnaires en ligne car le volontariat des
réponses entraîne une sur-représentation des usagers les plus assidus et enthousiastes. De
plus, la participation à ces enquêtes ou à des jeux organisés pour la collecte de données
auprès des pratiquants d'Internet peut être motivée par des cadeaux... Malgré ces limites,
les enquêtes en ligne livrent beaucoup de données sur les usages d'Internet, données d'une
autre nature que les mesures d'audience.

208 HERMÈS 31, 2003


La pêche aux internautes

Transparence et opacité de l'internaute

Traqué sur le réseau des réseaux, suivi, «profilé», l'internaute serait devenu
transparent. En se branchant, il tisse lui-même les fils de sa reconnaissance (ses connexions
en fréquence et en durée, ses types d'utilisation d'Internet, ses sites favoris, ses trajectoires
sur la toile). Aucun média n'a jamais permis d'en savoir tant à l'insu même de son auditoire.
Les instruments de mesure nous livrent une avalanche inédite de chiffres pour décrypter les
comportements des utilisateurs. La puissance des logiciels de capture, le raffinement des
outils de traitement de données, la finesse des modèles d'analyse statistique produisent une
évaluationencontinudesactivitéssur
une telle mine de données ? Quel éditeur, annonceur ou publicitaire n'a-t-il ainsi désiré
accéder au repère et au calcul en temps quasi réel des comportements de son audience ?
Cependant ces nébuleuses de traces fournies quotidiennement ne livrent pas d'elles-
mêmes les principes de leur interprétation. L'énormité des corpus, la complexité des
données et des indicateurs exigent une simplification et une présentation qui puissent être
lisibles par les commanditaires. Les éditeurs de site sont ainsi submergés par les
représentations statistiques en ligne (principaux indicateurs d'audience, graphes de suivi
dans le temps, outils pour connaître la fidélisation de leur public et les liens affluents des
internautes venant sur leur site etc. ) et on observe une sous-exploitation des résultats. La
gestion de site appelle la formation d'analystes qui puissent lire et interpréter la
sophistication des recueils de mesure existants pour optimiser leur offre éditoriale, moyens
dont ne disposent que les gros sites.
Les études d'audience d'Internet se sont en effet mises en place plus rapidement que
pour les médias de masse et elles ont été d'emblée façonnées par le marketing. Certes la
gratuité des services offerts sur Internet n'est pas étrangère à cette approche commerciale et
publicitaire des études d'audience pouvant conduire à une réactivité immédiate de l'offre.
Cette tendance indique sans doute un recul des mesures d'audience globales au profit de
mesures de plus en plus sectorisées, qui offrent l'avantage de ciblages précis sur un site, une
catégorie de sites ou de thématiques, par exemple, mais qui perdent du coup en regard
distancié sur l'évolution d'ensemble du média où se repèrent les grandes tendances
sociétales. Ainsi les mesures d'audience ne sont-elles pas tant conçues pour la connaissance
des publics que comme outils stratégiques. Elles construisent un modèle de l'internaute
client qu'il s'agit d'identifier par son profil, voire par son identité, aux fins de lui adresser
des messages publicitaires ou de lui proposer des produits répondant à ses intérêts et à son
mode de vie. « La propriété caractéristique d'Internet est d'être un média interactif.
Parfaitement adapté au marketing direct, il est l'outil idéal pour identifier et solliciter, non
pas des cibles statistiques, mais des individus concrets. » (Chammings, 2002). La visée du

HERMÈS 37, 2003 209


Josiane Jouët

marketing direct personnalisé, le rêve du Β to C (Business to Consumer) se retrouvent en


filigrane de la construction des dispositifs d'audience et n'est pas sans soulever une série de
questions déontologiques. Certes, tout internaute peut détruire les cookies qu'il récolte lors
de ses visites mais la procédure est contraignante et de fait l'internaute, sans qu'il le sache
le plus souvent, alimente les bases de données qui permettront de le repérer à des fins qui
lui échappent.

Néanmoins, les mesures et enquêtes d'audience d'Internet peuvent être aussi utiles aux
sciences sociales. Les dispositifs varient, comme nous l'avons vu, selon les méthodes, selon
les outils de collecte, de gestion et de rendu, mais les diverses représentations qu'ils nous
livrent cernent dans leur complémentarité diverses figures de l'internaute. La connaissance
des modes de construction de ces dispositifs permet de les utiliser et de les interpréter avec
les précautions requises. De plus, ces bases de données, une fois rendues accessibles,
peuvent faire l'objet de traitements statistiques complexes et d'analyses scientifiques,
comme le montre l'étude approfondie du « Suivi d'une cohorte d'internautes du panel
Netvalue France en 2000 »4. On ne saurait toutefois oublier que l'internaute mesuré est
réduit à un dénombrement d'actes (hits, clics... ), à des parcours sur Internet, mais on ne sait
rien de ses motivations, du sens qu'il investit dans ses pratiques, du rôle que remplit Internet
dans sa vie sociale. Car que nous offrent ces dispositifs si ce n'est une représentation des
internautes construite par un agencement d'outils informatiques, statistiques et marketing
qui produit des modèles de quantification et des procédures de catégorisation.
Le poisson internaute est donc malgré lui pris dans les filets du Net et - ainsi tatoué,
marqué, taggué - devient un produit. Pour autant, l'internaute glisse entre les mailles et sa
transparence a pour revers son opacité. Ecrasé sous des lignes de chiffres, il s'évapore. La
quantification excessive risque de ne plus produire que des modèles formels, des
segmentations de publics, des stéréotypes de comportements, des typologies hâtives qui ne
se ressourcent pas dans l'épaisseur du social. Tout comme Dominique Boullier (1987) l'avait
si bien analysé à propos de la télévision « l'activité télé déborde largement ce qui se passe
sur le petit écran », de même l'activité Internet se déploie aussi largement en dehors des
connexions. L'internaute-utilisateur construit par la mesure d'audience n'est pas
l'internaute-usager construit par les sciences sociales. Les internautes rangés dans des
profils, devenus «qualifiés» par le marketing, perdent de leurs qualités. Étiquetés via leurs
connexions, réduits à des enchaînements d'actes, les internautes demeurent opaques.

210 HERMES 37, 2003


La pêche aux internautes

NOTES

1. Pour plus de précisions sur les méthodes et techniques d'audience d'Internet voir, partie 6, Internet, in
BRIGNIER et al, 2002, et HUSSHERR, F-X., NERON, S., 2002.
2. Pour ces indicateurs, voir le site du Centre d'études des supports de publicité [cesp. org].
3. Sociétés et outils labellisés par Diffusion Contrôle [ojd. com] en 2002; Stat SAS (eStat), Weborama SA (le
Weboscope), Médiamétrie (cybermonitor), At Internet (Xiti), ID. fr (wysistat), WebSideStory (Hit Box
enterprise), Nedstats SAS (sitestat), Telmédia (visiostats).
4. BEAUDOUIN, V, HOUSSEM, Α., BEAUVISAGE, T., LELONG, B., LICOPPE, C , ZIEMLICKI, C , (France Telecom),
ARBUES, L. (Net Value), LENDREVIE, J. (HEC), « Suivi d'une cohorte d'internautes du panel Net Value France
en 2000 », rapport HEC, NetValue, France Telecom R&D, 2002.

RÉFÉRENCES BIBLIOGRAPHIQUES

BOULLIER, D., La Conversation Télé, rapport du Larès, université Rennes 2, 1987.


BOULLIER, D., « Internet et télévision: une convergence tentante et improbable », Les Dossiers de l'Audiovisuel,
n° 89, janvier-février 2000.
BRIGNIER, J. -M., CHAVENON, H., DUPONT-GHESTEM, F., DUSSAIX, A. -M., HAERING, H., Mesurer l'audience des
médias. Du recueil des données au média planning, Paris, Dunod, 2002.
CHAMMINGS, L., « Peut-on parler d'audience sur Internet », Les Dossiers de l'Audiovisuel, n° 103, mai-juin 2002.
HAERING, H., « Internet: nouveau média, nouvelles mesures », Les Dossiers de l'Audiovisuel, n° 103, mai-juin
2002.
HUSSHERR, F-X., NERON, S., Comportement de l'internaute, Paris, Dunod, 2002.

HERMÈS 37, 2003 211


Hubert Bouchet
Commission nationale de l'informatique et des libertés (Cnil)

DANS LA TOILE:
ARAIGNÉE OU ABEILLE

Avec «Caïn qu'as-tu fait de ton frère?» ou encore «l'œil était dans la tombe et
regardait Caïn», la bible traduit une condition de l'être humain sous le regard de l'autre.
Prosaïquement, Jacques Brel fait écho à semblable préoccupation dans sa chanson «les
fenêtres... qui... nous suivent et nous poursuivent... jusqu'à ce que peur s'en suive jusqu'au
fond de nos draps ».
Naturellement dans le premier cas, s'agissant de Dieu, le regard est virtuel et procède
d'un face à face qui, rappelant l'assassin à sa culpabilité inextinguible, peut ne pas sortir du
champ des protagonistes. S'agissant de Brel, c'est le rappel de la curiosité de l'autre, celle-
ci non virtuelle. Dans ce dernier cas aussi le regard n'a pas de caractère universel et l'objet
de l'observation peut rester dans l'ignorance de la part de sa vie captée par le regard
inquisiteur, ou simplement curieux, du «voyeur». Dans le plus anodin des cas, le
rassemblement des regards de plusieurs fenêtres nourrit des rumeurs qui n'intéressent que
les amateurs de cancans. Moins anodine est la situation où un fait divers peut amener la
police à enquêter et rassembler ce qui n'était qu'objet de commérage. Et à l'autre extrême
de l'usage des parts de vie captées, c'est l'inquisition dont les ordres religieux n'eurent pas
l'exclusivité.
Avant-hier et jusqu'à la révolution industrielle, l'utilité à savoir sur l'autre était
cantonnée. Mauvaise et bonne curiosité visaient la connaissance d'informations sans
caractère marchand. Naturellement, le caractère non marchand n'enlevait rien à la cruauté
dans une situation qui voyait autrui savoir sur vous ce que vous ignoriez qu'il sût, et d'où il
le tenait. Cette situation a fondé une culture de l'abri d'autrui avec les trésors d'invention

HERMÈS 37, 2003 213


Hubert Bouchet

déployés par nos ancêtres pour voir sans être vus. Si l'inventaire de ces trésors est infaisable,
les capacités respectives à les mettre en œuvre établissaient une hiérarchie dans laquelle la
plus grande transparence équivalait à la plus grande vulnérabilité. Celui sur lequel tout était
su n'avait aucune marge de manœuvre alors qu'aux antipodes se situait celui dont les
ressorts de l'action n'étaient pas dévoilés: «le tireur de ficelles». Entre transparence totale
et opacité complète s'est, tout au long de l'histoire, déployée toute la diversité des
comportements humains, pour le meilleur et pour le pire.
Avec l'entrée dans l'ordre industriel marchand, une raison supplémentaire impérieuse
et nouvelle de savoir sur autrui est apparue. Progressivement, le lien entre le producteur et
le consommateur est devenu moins dissymétrique du fait de l'éloignement de la situation de
rareté qui donnait la prééminence à l'offre. Quand il y a abondance, le rapport s'inverse
entre les protagonistes de l'échange, marchand ou non, avec le privilège à celui qui peut
choisir entre différentes offres. Il revient à tout offreur de se différencier pour diriger le
choix vers lui. S'impose naturellement la nécessité de la connaissance la plus détaillée de
l'acheteur éventuel pour se porter à sa rencontre et faire marché avec. Tout exagérée qu'elle
soit, la notion de « consommateur roi» manifeste cette situation ou la dissymétrie du rapport
s'est déportée. Affleure l'idée que, pour le roi, rien n'est trop beau. Il convient d'accéder à
ses désirs qu'il faut connaître.
Pour connaître encore et toujours plus, des techniques n'ont cessé d'être inventées,
avec le secours des sciences humaines. Sondages et enquêtes d'opinion visent tous le même
objectif avec des moyens qui n'ont cessé de se sophistiquer. Mais pareilles au Larousse qui
sème à tous vents avec beaucoup de déperdition, les techniques de sondage «pré-Internet»
recueillent des éléments collectifs d'opinion alors que l'efficacité la plus grande résulterait
aussi de l'approche des comportements et pratiques de chacun.
A supposer même que cette approche individuelle fut réalisée avec les techniques pré-
Internet, l'importance de l'arsenal nécessaire à sa bonne fin en eut altéré la rentabilité et
biaisé le résultat, du fait de la rétivité engendrée par «l'intrusivité» des moyens.
La génération des techniques dont Internet est emblématique permet de s'affranchir
des limites de la panoplie des outils de la génération précédente et d'approcher la
connaissance la plus fine des pratiques individuelles. Cela se fait le plus naturellement grâce
à la trace laissée par chaque transaction sur le réseau. Dès lors, toutes les traces rassemblées
sont susceptibles de dévoiler l'individu comme jamais auparavant. Pour ce dévoilement,
existent bien sûr les traces passives des actes banals de la vie domestique et professionnelle.
Existent aussi les traces laissées volontairement afin de bénéficier d'une commodité ou d'un
service particulier. Ces services et commodités ont vocation à concerner toutes les facultés
de l'être humain soucieux de se simplifier la tâche ou d'être tout simplement distingué des
autres. Appliquée au quotidien, cette perspective peut affecter tous les actes du travail et de
la vie ainsi facilités.

214 HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Se faciliter la vie joue comme un leitmotiv. En son nom, il est naturel de délivrer des
informations personnelles ciblées pour permettre la meilleure satisfaction de tel ou tel
besoin. C'est ainsi que le commerçant attitré disposera d'informations sur le genre de vie
pour offrir les meilleurs produits pendant que le médecin conservera toutes données
médicales pour être plus prompt à intervenir au cas où... Le banquier fera de même
comme tous ceux avec lesquels quiconque a affaire. Ici l'imagination peut se laisser libre
cours et l'esprit le plus inventif ne saurait concevoir toutes les applications justifiant
qu'autrui dispose d'informations pour le meilleur service à quiconque. Parmi d'autres, les
promesses de la formation en ligne ne seront-elles pas directement conditionnées par la
connaissance la plus détaillée de l'état intellectuel de l'apprenant... pour l'efficacité par
l'intrusivité sans limite. De proche en proche se trouvent dévoilés des éléments de
fonctionnement interne de l'individu inaccessibles jusqu'alors. La formation en ligne
encore appelée «e-learning» ouvre la voie à la mise au jour du secret du fonctionnement
intellectuel avec le risque sans pareil de la transparence. Ici c'est pour la bonne cause que
l'individu se dévoile. Ce faisant, il ouvre la voie qui pourra permettre ce dévoilement pour
d'autres causes par exemple pour discriminer entre des salariés au vu de ce qui sera su de
leur aptitude à raisonner.
En final des données concernant chacun peuvent stationner dans tous les lieux qu'il
fréquente.
Hier déjà, cela existait dira-t-on ! Évidemment mais à la différence qu'elles restaient
éparses faute de facilité à les réunir. C'est l'ordinateur qui a changé la donne et ouvert la
possibilité de réunir toutes les informations concernant quiconque. Au cours des années
1980, l'idée de faire converger sur l'identifiant le plus universel de chacun le maximum
d'informations le concernant naquit. En ce temps-là, il fallait que les informations soient
matériellement réunies. Désormais la technique récente et le réseau facilitent les choses et
permettent l'automatisation complète de tout processus de collecte et de traitement des
données.

Parmi d'autres, certains exemples permettent d'approcher les questions nouvelles nées
des nouvelles fonctionnalités des techniques en réseau.
- La diffusion sur Internet de fichiers de membres d'obédiences maçonniques, internes
à ces groupements, à l'insu des personnes concernées. Plus de 3 000 noms et coordonnées
ont été diffusés sur Internet, en infraction avec l'article 31 de la Loi du 6 janvier 1978 qui
interdit la mise en mémoire ou la conservation de données nominatives qui font,
directement ou indirectement, apparaître notamment les opinions philosophiques des
personnes. Ainsi, une telle mise en ligne mettait l'auteur de la divulgation en infraction avec
les dispositions de la loi et, tout particulièrement, avec l'article 226-19 du Code pénal qui
sanctionne le fait, hors les cas prévus par la loi, de mettre ou de conserver en mémoire

HERMÈS 37, 2003 215


Hubert Bouchet

informatisée, sans l'accord exprès de l'intéressé, de telles données. Seules les données
manifestement rendues publiques par les personnes concernées font exception à cette règle.
- La diffusion sur Internet des décisions de justice. Les audiences des cours et
tribunaux sont presque toujours publiques et les jugements et arrêts sont communicables à
toute personne qui en fait la demande. Pourtant la compilation des décisions de justice sous
la forme de bases de données et leur diffusion sur Internet soulèvent des interrogations
particulières au regard de la protection des données personnelles. En effet, des risques
particuliers s'attachent à la libre diffusion sur Internet de décisions de justice mentionnant
l'identité des parties au procès. Par la seule mécanique des moteurs de recherche, c'est un
casier judiciaire universel, permanent et ouvert à tous, auquel on aurait à faire face, pouvant
conduire à une «peine d'affichage numérique».
- L'Internet et les mineurs. L'utilisation d'Internet par les enfants constitue
indéniablement une source de préoccupation importante pour les parents et les éducateurs,
conscients des dangers auxquels les enfants peuvent être confrontés sur le réseau du fait des
contenus qui peuvent être illégaux ou de nature à les troubler (pornographie, racisme,
violence physique et psychologique), de l'existence de messageries (avec la possibilité de
contacts directs avec des tiers virtuels) ou du caractère marchand et commercial des sites.
L'inquiétude des parents et éducateurs se trouve d'ailleurs souvent renforcée par leur
manque de maîtrise des techniques et leur sentiment de ne pas être en mesure d'exercer leur
autorité sur les enfants qui eux surfent avec une grande aisance sur la toile. Un aspect
particulier concerne l'utilisation des enfants pour obtenir de manière déloyale des
informations sur eux et leurs proches. En effet, la rapidité des échanges, l'interactivité, voire
l'aspect ludique du réseau Internet font des enfants des cibles idéales pour se procurer des
données toujours plus nombreuses et plus précises et ainsi constituer, à l'insu de leurs
parents et sans que les enfants en aient eux-mêmes conscience, des bases de données très
performantes sur l'environnement social et économique des familles, qui sont susceptibles
de porter atteinte à leur vie privée.

L'image de la toile apparaît ici et selon que vous êtes araignée ou abeille...
L'araignée tisse et retisse toujours reliant les fils qu'elle élabore et organise en réseau.
Elle est au cœur de la toile qu'elle agence à son gré.
L'abeille est piégée par la toile qui l'emprisonne. Le voudrait-elle qu'elle ne pourrait se
dépêtrer car elle n'a aucune intelligence du réseau et de ses composants. Prise dans une toile
d'araignée, elle est d'abord entravée et puis meurt.
Alors abeille ou araignée, telle apparaît l'alternative. Être abeille postule la plus grande
transparence avec l'externalisation du pilotage de l'individu, consciente ou non. Ce qui est
su de lui l'identifierait et ne lui parviendraient que les signaux choisis par d'autres. Le risque
d'instrumentation est ici central avec la personne traitée en objet.

216 HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Prendre le parti de l'araignée est aux antipodes avec l'intelligence des réseaux qui le
concernent par chacun alors sujet.
Poursuivant l'image qui situe araignée et abeille aux antipodes l'une de l'autre,
l'observation conduit à constater que les êtres humains se distribuent sur la trajectoire qui
rejoint l'une et l'autre.
Côté abeille se situent tous ceux qui sont empêtrés par la technologie, parfois jusqu'à
l'impotence. Côté araignée se trouvent les virtuoses qui sont comme poissons dans l'eau et
tirent le maximum de toute technique mise à leur disposition.
La capacité à tirer le plus des techniques nouvelles est pour partie affaire de génération.
En son temps déjà Michelet avait pointé la question dans sa leçon du 22 mai 1839, au
Collège de France: «les plus grands esprits d'il y a 200 ans ne comprendraient rien aux
choses d'aujourd'hui tandis qu'il suffit à l'enfant de naître pour être initié à tous les secrets
de la vie contemporaine. C'est là l'utilité de la mort. Elle simplifie les questions en détruisant
l'impuissance de comprendre, en ménageant sans cesse des êtres nouveaux pour les choses
nouvelles ».
Parler de notre temps à l'aune de Michelet invite d'abord à relativiser l'avis des gens
«installés» au moment où une nouvelle technique naît. Seuls ceux qui naissent au même
moment sauront s'en emparer. Si cela vaut à l'évidence pour le maniement des outils, cela
peut aussi aider à raisonner à l'endroit de la maîtrise de leurs conséquences. L'invite est alors
à tenir l'équilibre entre les catastrophistes pour lesquels tous sont abeilles inextricablement
empêtrées dans la toile et les béats qui ne se voient et voient tout le monde qu'araignées.
L'invite est aussi à laisser la technique produire tous ses effets, assurés que ceux-ci ne peuvent
jamais être totalement prédéterminés. L'expérience apprend qu'il n'est pas de techniques que
l'on sait durablement entraver et dont on ne trouve des effets au plus loin de leurs berceaux.
Alors semblable situation dans laquelle l'incertain règne appelle l'individu à l'adoption
d'une posture de vigilance individuelle. Cette posture nourrit le double souci de la virtuosité
pratique dans l'usage des techniques et de la conscience lucide de l'externalisation
d'informations qui exposent chacun au regard, donc à l'influence du dehors.
Sur la virtuosité pratique, la cause est entendue avec les dires de Michelet et ce qu'il en
faut déduire. La conscience lucide interpelle chacun dans la donne nouvelle de
surexposition qui risque d'altérer sa liberté individuelle.
Instruire de la réalité s'impose d'abord, pour inviter à la mesure, dans l'exposition des
données personnelles. L'école doit jouer son rôle. Au même titre qu'à lire, écrire et compter,
elle doit désormais apprendre le code de la société nouvelle et instruire de la nécessité et des
moyens de s'y protéger. Sa protection est d'abord l'affaire de chacun. «Protège-toi, le ciel
te protègera. » est-on tenté d'avancer détournant là une formule de textes connus.
Naturellement, la protection est l'affaire de la collectivité qui doit établir le code de la
route des autoroutes de l'information.

HERMÈS 37, 2003 217


Hubert Bauchet

En France, depuis 1978, et désormais dans toute l'Union européenne, le caractère


évolutif et imprédictible du déploiement de l'informatique a engendré des constructions
institutionnelles qui n'avaient pas de précédent. Le pressentiment de l'inadéquation des
procédures traditionnelles de régulation a incité le législateur à rompre avec l'habitude qui
consistait à tout dire dans une loi et ses textes d'application. Pour ce faire, il fut décidé que
la Loi Informatique et Libertés ne comporterait que des principes généraux et que serait
confiée à la première autorité administrative indépendante créée en France, la charge de
veiller à ce que toutes les générations de technologies de l'Information et de la
Communication à venir moulent leurs usages dans les principes de la loi.
S'agissant de la loi, le rappel de son article 1 suffit à faire apparaître l'esprit du
législateur.
«L'informatique doit être au service de chaque citoyen. Son développement doit
s'opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à
l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles
ou publiques. »
La grande innovation de la Loi de 1978 est liée à la décision du législateur de déléguer
le suivi de ce qui allait advenir à la Cnil, autorité administrative indépendante ainsi décrite
dans le texte.
«Une Commission nationale de l'informatique et des libertés est instituée. Elle est
chargée de veiller au respect des dispositions de la présente loi, notamment en informant
toutes les personnes concernées de leurs droits et obligations, en se concertant avec elles et
en contrôlant les applications de l'informatique aux traitements des informations
nominatives. La commission dispose à cet effet d'un pouvoir réglementaire, dans les cas
prévus par la présente loi. »
Outre les dispositions administratives et financières le régissant, les dispositions de la
Loi du 10 août 1922 relative au contrôle financier ne sont pas applicables à sa gestion et les
comptes de la Commission sont présentés au contrôle de la Cour des Comptes.
L'indépendance de la Commission est assurée par des garanties contenues dans la loi et
notamment:
- le mode de désignation des membres de la Cnil dont douze sur dix-sept sont élus par les
corps ou assemblées auxquels ils appartiennent;
- la composition de la Cnil qui associe des parlementaires, des hauts magistrats et des
personnalités désignées en raison de leurs compétences;
- la durée du mandat des membres de la Cnil, 5 ans, et l'impossibilité de mettre fin à celui-
ci, sauf démission;
- l'existence
V d'incompatibilités entre la qualité de membre de la Cnil et d'autres fonctions,
notamment celle de membre du gouvernement;
- l'élection par la Cnil de son président et de ses vice-présidents.

218 HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Les missions de la Commission sont:


- veiller au respect de la loi;
- protéger la vie privée et les libertés individuelles ou publiques;
- protéger l'identité humaine;
- garantir le droit d'accès;
- instruire les plaintes;
- informer et conseiller;
- recenser les fichiers;
- contrôler;
- réglementer;
- s'informer;
- proposer.

S'agissant du droit de chacun, essentiel, car c'est de là que tout procède:


- le droit à l'information préalable qui se manifeste par une obligation d'information au
moment de la collecte des données et la transparence des traitements automatisés;
- le droit à l'oubli;
- le droit d'accès direct;
- le droit d'accès indirect pour certaines données nominatives qui ne sont pas
directement accessibles par les personnes;
- le droit d'opposition; toute personne peut décider elle-même de l'utilisation de données
la concernant et a donc la possibilité de s'opposer à figurer dans certains fichiers ou de refuser
la communication des informations qui la concernent à des tiers;
- le droit de rectification qui permet à toute personne défaire corriger les erreurs qu'elle
a pu déceler à l'occasion de communication des informations la concernant.

À l'épreuve de la durée, la Loi Informatique et Libertés a tenu la promesse de ses


créateurs. Pertinents dès 1978, les principes fondamentaux de la loi n'ont pas vieilli comme
est largement confirmée l'innovation que constituait l'idée d'escorter la loi par la Cnil, à
l'indépendance avérée. Une preuve de l'efficacité du dispositif né de la Loi de 1978 vient de
l'Union européenne dont tous les membres se sont dotés d'institutions similaires.
Au-delà de toute autosatisfaction reste bien sûr la question centrale que les techniques
posent avec toujours plus d'acuité puisqu'elles sont de plus en plus intrusives et susceptibles
de porter atteinte à l'identité humaine, aux droits de l'homme, à la vie privée, aux libertés
individuelles ou publiques.
Plus qu'hier et moins que demain, ces risques appellent la vigilance de chacun sachant
que toutes les institutions du monde ne sauront parer aux dangers nouveaux, sauf à accepter
le totalitarisme qui fait toujours alliance avec la plus grande surveillance.

HERMÈS 31, 2003 219


Alain Le Diberder
Communication and life in virtual environments (CLVE)

LA MESURE D'AUDIENCE
DES NOUVEAUX MÉDIAS:
UNE BONNE RÉPONSE
MAIS QUELLE EST LA QUESTION ?

Les mesures d'audience sont à l'économie des médias ce que les mots sont au langage.
Malgré leur apparente scientificité, ces chiffres bruts et parfois brutaux n'ont guère de sens
objectif en eux-mêmes mais seulement replacés dans un contexte plus général. Contexte qui
peut, à son tour, être décrit autour de trois pôles: la qualité technique du dispositif de
mesure, la pertinence des concepts mesurés, enfin l'insertion dans un processus de prise de
décision. Ce dernier point est essentiel. Ainsi, dans les chaînes généralistes, il y a toute une
écologie de la donnée d'audience qu'ignorent allègrement les critiques primaires de la
«dictature de l'audimat». Un même chiffre lu par la régie publicitaire, la direction des
programmes, les financiers, l'équipe de l'émission n'aura pas le même sens, et une bonne
partie de l'activité professionnelle des «gens de télé» consiste en des arbitrages complexes
entre ces différentes visions d'un même chiffre. À l'inverse, dans le cas des chaînes de
télévision thématiques comme dans celui des sites Web de contenu, c'est justement la
manière dont les mesures d'audience s'insèrent dans les processus de décision
professionnels qui pose le plus de problèmes. Leur écologie est particulièrement pauvre. De
ce fait, une dictature du MédiaCabSat1 serait bien plus pernicieuse que celle, prétendue, de
l'Audimat.

HERMÈS 37, 2003 221


Alain Le Diberder

Le constat du danger et de la relative inutilité


des mesures d'audience des nouveaux médias

Deux exemples tirés de l'actualité française de l'été 2003 peuvent l'illustrer. Quelques
jours après la publication du MédiaCabSat du premier semestre 2003, on apprenait que la
survie de la chaîne TV Breizh était menacée, ses résultats d'audience stagnant à 0, 4 % de
part de marché. Le PDG de TF1, principal actionnaire de la chaîne, avait en effet demandé
qu'elle double son audience au premier semestre 2003. Presque simultanément, à la fin du
mois de juin, c'est le site Web du journal L'Equipe qui annonçait une réduction du tiers de
ses effectifs. Mais cette fois-ci l'audience n'était pas en cause: le site de L'Équipe, avec
8 millions de visites en juin 2003 était au contraire le troisième site de contenus français
derrière ceux du Monde et de TF1. Depuis sa création trois ans auparavant, le taux de
croissance de l'audience du site était de plus de 170 % par an. Mais les recettes publicitaires
étaient insuffisantes.
Il est également intéressant de noter que les chaînes thématiques françaises, qui
pathétiquement saluent chaque vague de mesure d'audience du MédiaCabSat par une salve
de communiqués de presse triomphants, ne tirent de la publicité qu'un sixième de leurs
recettes, le reste provenant des redevances versées par les distributeurs2. Elles ont donc
beaucoup moins à gagner qu'à perdre à mesurer leurs performances principalement sinon,
en fait, uniquement par ces données d'audience. La quasi-totalité des quelques 90 chaînes
françaises de ce type est en effet déficitaire, bien qu'elles représentent près de 10 % de
l'audience globale de la télévision, et plus du tiers dans les seuls foyers où elles sont reçues.
La situation des nouveaux médias est donc apparemment très déprimante: une
mauvaise mesure d'audience peut les condamner, mais une forte audience ne conduit pas
forcément à des recettes suffisantes. LCI, par exemple, enregistrait en 2002 un déficit
d'exploitation de l'ordre de 7 millions d'euros 3 . Un tel constat aurait donc dû conduire à la
disparition de l'ensemble de ces bébés-médias aussi économiquement mal nés. Et pourtant,
c'est bien l'inverse qui se produit: le nombre de chaînes thématiques a même tendance à
croître, et l'audience des sites Web d'informations par exemple, dont aucun n'a fermé lors
de la grande révision des stratégies Internet des médias en 2001, croît de 70 % par an. En
apparence donc les mesures d'audience n'ont pas prouvé qu'elles pouvaient dynamiser les
recettes des nouveaux médias, mais elles peuvent leur coûter la vie en incitant les
actionnaires à se retirer.

222 HERMES 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question ?

La quantité d'audience, degré zéro de la connaissance


d'une pratique

Il est sans doute utile de rappeler cette banalité: l'audience, et plus généralement la
quantité d'usage effectif d'un bien ou d'un service, n'est qu'une des manifestations possibles
de son utilité. Les éditeurs d'encyclopédies le savent: une majorité de leurs clients ne se
servent pratiquement jamais de leur produit, mais cela n'en empêche pas une grande partie
de se procurer l'édition suivante. Il y a toute une catégorie de biens et de services dont
l'utilité suprême est même de ne pas servir: les airbags dans une voiture, les contrats
d'assurances, les dispositifs de sécurité. On ne songerait pas à mesurer le succès des airbags
à leur «audience». Il y a enfin, dans les déterminants d'une consommation, achat d'un
équipement ou souscription à un service, une part essentielle dont on chercherait en vain la
trace, ensuite, dans l'observation des pratiques réelles. Sinon, il ne se vendrait pas en France
autant de véhicules tout-terrain et de voitures dépassant les 200 km/h.
Banalité. Pourtant certains actionnaires des chaînes thématiques semblent l'oublier.
C'est peut-être en raison de la proximité apparente des chaînes thématiques de télévision
avec les chaînes hertziennes. La paresse intellectuelle consiste à dire que puisque dans les
deux cas, c'est de la télévision, la «dictature de l'audimat» des unes peut bien servir de
principe de réalité aux autres. Mais qu'on se souvienne des déboires de l'exploitant du câble
parisien qui, ayant constaté que l'audience de CNN était infime parmi ses abonnés, décida
de l'ôter du service de base. Les réactions et notamment les menaces de désabonnement
furent violentes. «Je paie pour disposer de CNN, non pour la regarder. » semble avoir dit la
demande, avec véhémence.
C'est un phénomène bien connu dans la presse écrite. Certaines rubriques semblent
peu lues, voire parfois pas du tout si l'on suit les conclusions des études, mais si le journal a
le malheur de les supprimer, il perd des lecteurs. Dans la plupart des médias l'audience
globale n'est pas la somme des audiences partielles. Sinon, on pourrait se contenter de les
faire gérer par leur régie publicitaire.
Or, pour regarder une chaîne thématique donnée, il faut s'être préalablement abonné
à un service plus global, bouquet de télévision par satellite ou réseau câblé. C'est à ce
moment seulement que le client effectue une transaction, et il le fait en fonction de l'intérêt,
pour lui et ses proches, de disposer d'un bouquet de services. S'il ne se sert ensuite jamais
ou très rarement de certains de ces services, il va certes avoir une plus forte probabilité de
résilier son abonnement, mais ce n'est pas sûr. Et sa décision finale sera fonction non d'une
évaluation quantitative de sa consommation effective mais d'une plus ou moins grande
satisfaction globale.

HERMÈS 37, 2003 223


Alain Le Diberder

Aujourd'hui on frôle l'absurde quand les services interactifs de la télévision numérique,


tels que les guides de programmes, les services de jeux ou de banque à domicile, voient eux
aussi leur «audience» mesurée. En effet l'utilité de ces services réside parfois, au moins
partiellement, dans le fait de ne pas servir souvent. Ainsi il suffit de mal concevoir le
magazine papier qui présente les programmes d'un bouquet pour augmenter l'audience du
guide électronique des programmes, et inversement. Ainsi la satisfaction retirée d'un service
météo interactif n'est pas directement déductible de son degré d'utilisation: certains
utilisateurs peuvent très bien être très occasionnels mais avoir un besoin impérieux de cette
information et en retirer une forte satisfaction.

Il faut souhaiter aux chaînes thématiques, et à ceux qui y travaillent, que toutes les
leçons de la crise des services du Web de 2000-2001 soient tirées. Des auteurs américains
avaient, dès 19974, attiré l'attention des investisseurs sur le fait que l'économie d'un site Web
ne reposait pas principalement sur l'audience mais sur deux paramètres: la satisfaction des
utilisateurs d'une part, la correspondance entre les coûts réels et les recettes à court terme
d'autre part. De nombreux sites à forte audience mais très déficitaires (celui du magazine
Playboy par exemple) coexistaient avec de «petits» sites rentables, la plupart du temps
consacrés à des sujets très pointus. Dans un contexte de croissance rapide du nombre
d'internautes, les données d'audience étaient trompeuses: les très nombreux nouveaux
arrivants avaient tendance en découvrant le Net à tester les noms de domaines très connus,
leur assurant donc une forte fréquentation. Une proportion variable d'entre eux étaient
déçue et ne revenait plus. Mais comme ils étaient en permanence remplacés par des
internautes plus débutants encore, ce phénomène était masqué. En revanche certains sites
spécialisés, même mal référencés par les moteurs de recherche, captaient peu à peu un
public restreint, mais fidèle, autorisant un modèle économique cohérent.
Un second aspect du problème résidait dans le coût d'acquisition d'un nouveau visiteur.
Au plus fort de la «bulle Internet» il était courant de lire sous la plume d'analystes financiers
réputés qu'un internaute «valait» plus d'un millier de dollars. Cela voulait dire qu'il n'aurait
pas été irrationnel, pour attirer des investisseurs, de payer plusieurs centaines de dollars un
quidam, simplement pour qu'il vienne cliquer sur un site. L'absurdité de cette proposition fait
qu'elle paraît aujourd'hui à peine crédible, mais elle était très répandue à la fin de 19995. Sans
aller jusqu'à payer les internautes directement, certains sites, y compris de tout petits services
animés par des start-ups, se mirent à dépenser des fortunes en campagnes publicitaires. Un
internaute nouveau coûtait alors, en publicité, jusqu'à un siècle de recettes publicitaires.
Le problème principal était là encore le système de prise de décision. Le succès auto-
proclamé de ce nouveau média avait attiré de nouveaux «décideurs», en grande partie
incompétents, et qui n'écoutaient pas les remarques prudentes des spécialistes. Rappeler les
analyses américaines sur le fait que l'audience n'était pas le critère et qu'il fallait

224 HERMÈS 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question <

proportionner les dépenses aux recettes actuelles, vous classait immédiatement dans les
passéistes incapables de comprendre les mécanismes de la «nouvelle économie». Et bref, à
n'importe quel prix, il fallait que les sites aient «de l'audience». C'est dans ce but que les
sites Internet devinrent, en 2000, le premier secteur annonceur sur le marché publicitaire
français. Situation ridicule pour un média sensé se financer par la publicité, cette année-là,
les dépenses du secteur en publicité représentèrent environ 30 ans de recettes. Et encore:
ces recettes étaient elles-mêmes largement composées des dépenses publicitaires des autres
sites6. Quel fut le résultat de cette course à l'audience dispendieuse? Les recettes
publicitaires du Web... diminuèrent en 2001. La progression de l'audience ne fut pas
significativement différente de celle des années précédentes. Mieux encore, la plupart des
sites qui avaient suivi une stratégie de croissance rapide de leur audience (le portail Vizzavi,
les sites féminins, les sites du groupe PPR par exemple) furent des échecs spectaculaires,
alors que ceux qui s'en tirèrent le mieux en audience (Le Monde, TF1, Libération, L'Équipe)
se contentèrent de l'autopromotion sur leur média de base7.
En définitive, l'incompétence des dirigeants fut nourrie non seulement par celle des
milieux financiers mais aussi par une erreur plus « industrielle », la confusion entre audience,
audience rentable, et dépenses rentables pour accroître l'audience. Le système intellectuel
pour accueillir les données d'audience n'existait pas et le résultat en fut catastrophique.

La nouvelle frontière des systèmes de mesure:


évaluer la satisfaction

Il n'est pas inutile à ce stade d'allumer deux contre-feux. D'abord, l'accumulation


d'exemples d'usages inefficaces des données d'audience ne veut pas dire que ces données
soient inutiles ni qu'il ne faille pas chercher à les perfectionner. Les chiffres issus des études
Cybermétrie ou MédiaCabSat, pour ne parler que de Médiamétrie, décrivent bel et bien un
aspect de la réalité. En second lieu, les analyses qui précédent ne signifient pas que
n'importe quel site Web à faible audience est du coup promis à un bel avenir, ni qu'une
chaîne thématique à part de marché nulle démontre ainsi sa « différence» et donc son utilité.

Mais les éditeurs de contenus et les distributeurs ont tout intérêt à développer ensemble
un corps de connaissances, au sein duquel les chiffres mesurant l'audience auraient toute leur
place, qui aiderait à prendre les bonnes décisions de lancement, de financement voire de
maintien ou de suppression des services. Pour cela il faut tenir compte d'un ensemble de
paramètres dont certains pour l'instant ont la faiblesse d'être qualitatifs ou connus d'une

HERMÈS 37, 2003 225


Alain Le Diberder

partie seulement des protagonistes. En attendant, il y a une certaine naïveté ou hypocrisie à


faire comme si l'ensemble de ce corps de connaissances existait. Et le pot de fer de la mesure
quantitative de l'audience des nouveaux médias risque fort de briser le pot de terre des autres
dimensions. Généralement, les décideurs trouvent que les données dites qualitatives «peuvent
attendre», quand elles ne sont pas considérées comme des «arguties» ou du baratin. La
télévision généraliste a mis des décennies à inventer l'équilibre complexe entre ces facteurs et
elle y est parvenue: tout le monde sait que, même sur TF1 ou M6, il y a des émissions dites
«d'image» mais nécessaires auxquelles on ne demande pas de réaliser la part d'audience
moyenne de la chaîne. Mais la télévision généraliste est dans une situation bien plus favorable
que les nouveaux médias de ce point de vue. Primo, les flux continus de données chiffrées,
l'«audimat», sont apparus tardivement dans son histoire, trente à quarante ans après les
débuts. Entre-temps, on avait eu le temps d'inventer des pratiques relativement élaborées que
l'arrivée des chiffres a enrichies, perturbées, mais pas détruites. Ce n'est pas le cas pour les
nouveaux médias, qui ont été bombardés de chiffres dès l'enfance de leurs traditions
professionnelles. En deuxième lieu, même si les données quantitatives avaient disposé d'un
monopole chez les généralistes, l'effet en eut été moins destructeur, car ces données
d'audience sont en phase avec l'axe principal de l'économie de ces chaînes à savoir
effectivement l'audience. Mais les chaînes thématiques tirent 85 % de leurs ressources des
abonnements, directement ou indirectement. Et sur cette part essentielle de leur économie,
elles disposent d'informations plus lacunaires, moins régulières et par rapport auxquelles leurs
actionnaires se sentent moins «interpellés». Surtout, ces autres données sont produites par
leurs distributeurs, qui ne sont pas neutres évidemment. Un peu comme si les données
d'audience de la télévision étaient unilatéralement produites par les seules agences de
publicité.

On peut par ailleurs s'amuser de la notion de «part d'audience», très vite confondue
avec une «part de marché», appliquée aux chaînes thématiques. Les premières vagues du
MédiaCabSat se gardaient bien de les indiquer, ce sont les publicitaires qui les ont
demandées (et même recalculées), et elles sont aujourd'hui communiquées largement. Bien
entendu, la mauvaise monnaie chassant la bonne, elles n'ont pas tardé à occulter les données
de pénétration ou d'audience en cumulé, pourtant beaucoup plus pertinentes ici. Car la
«part de marché» n'a pas la même portée pour apprécier les performances de 90 chaînes
thématiques hétérogènes que pour comparer 5 chaînes généralistes relativement proches. Il
faut avoir peu de bon sens arithmétique pour s'étonner que la part de marché moyenne des
thématiques soit «proche de zéro», alors qu'elles sont une centaine. Enfin, s'agissant de
chaînes rediffusant beaucoup de «modules», la part de marché globale (sur six mois!)
présente à peu près le même contenu d'information que la part d'audience moyenne des
généralistes sur les six dernières années.

226 HERMÈS 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question ?

Il ne serait pas inutile par exemple d'accompagner les données d'audience des chaînes
thématiques d'un baromètre, neutre ou indépendant, de satisfaction ou de contribution à
l'abonnement. Ce n'est pas un sujet hors de la portée des instituts de sondage. Il ne serait pas
inutile non plus, dans la présentation des résultats, de tenir compte de l'ancienneté de la
chaîne et de sa plus ou moins grande exposition sur le bouquet, peut-être simplement en
créant des grandes catégories dans la numérotation. Il est un peu difficile de soutenir par
exemple que la part de marché d'une chaîne occupant le canal 189 du bouquet est comparable
à celle du canal 9. Ce problème ne se pose pas pour les grandes chaînes «historiques», encore
qu'on a très longtemps soutenu que TF1 devait ses résultats d'audience en partie à son
numéro 1. De même les données concernant les sites Web devraient faire apparaître le public
régulier d'un site, à côté des données globales tous internautes confondus.

Cette réflexion serait d'autant plus utile que de nombreux services tirent leurs
ressources et leur légitimité de facteurs extérieurs au marché. Ils sont dans une économie
dérivée: par exemple les sites Web des médias ne pourraient pas exister sans la prise en
charge des coûts de contenus par leur média d'origine. De la même manière, la Chaîne
parlementaire est un dispositif de service public dont la mesure de l'audience n'est pas
vraiment utile, sinon pour alimenter des polémiques destinées à en changer les dirigeants.
On a également beaucoup dit que la chaîne LCI était aussi, et peut-être d'abord, un
instrument du lobbying de TF1. Ce type de services est ainsi en grande partie à l'abri des
rigueurs de la sanction de l'audience. À l'inverse, des thèmes plus populaires que la
politique, et moins protégés, ont besoin d'un système de mesure et d'analyse pertinent, dans
lequel les enjeux et les habitudes de pensée des milieux publicitaires ne devraient pas peser
plus que leur poids économique réel: au mieux 16%.

NOTES

1. Enquête de Médiamétrie qui mesure par vagues de plusieurs mois l'audience des chaînes du câble et du
satellite.
2. Selon le Guide des chaînes thématiques publié conjointement par le CSA, le CNC et l'ACCeS en janvier 2003.
3. Source: rapport de gestion de TFl pour 2002.
4. John HAGEL et Arthur ARMSTRONG, Net Gain, Harvard, Harvard Business School Press, 1997.
5. Voir par exemple Les Business Models de la Nouvelle Économie, Stratégies de développement pour les
entreprises de l'Internet et du secteur high tech, par Bernard MAÎTRE et Grégoire ALADJIDI, Paris, Éditions
Dunod, collection «Stratégies et Management».

HERMÈS 37, 2003 227


Alain Le Diberder

6. Par exemple, en 2001, le site [aufeminin. com], pourtant considéré comme un modèle de réussite avait des
recettes publicitaires de 2 millions d'euros, mais des dépenses de 3 millions.
7. Ainsi, Jean Hornain, le directeur du site de L'Équipe déclarait avec clairvoyance, dès 2001: «Nous avons
multiplié par quatre l'audience du site (entre 2000 et 2001). Toutefois, je tiens à préciser que nous ne faisons
pas une course à l'audience car elle ne se traduit pas en chiffre d'affaires... Enfin, nous avons investi de
manière raisonnable et avec une communication proche de zéro» (Source: Journal du Net).

228 HERMES 37, 2003


VARIA

Éric Sautedé

Anne-Marie Laulan
Éric Sautedé
Institut Ricci de Macao

LES ARTIFICES MODERNES


DE L'AGIT'PROP
Internet et crise du «SRAS» e n Chine

La Crise du « SRAS »1 a eu d'importantes répercussions sur l'économie, la politique et


la société chinoises. Sans y voir un «Tchernobyl à la chinoise», force est de constater que le
traitement de cette situation d'urgence par les autorités a suscité nombre d'interrogations,
en Chine même et à l'étranger, sur le caractère responsable de la puissance étatique chinoise.
Sommes-nous pour autant à l'aube d'une inflexion plus politique du chantier des réformes
économiques entamé il y a 25 ans ?
À l'origine du manquement aux responsabilités, l'on retrouve la question de la liberté
d'information, puisque le semblant de transparence dont fait preuve le gouvernement de
Pékin depuis le 20 avril 2003 n'est intervenu qu'après six mois de mensonge et de
dissimulation, la rhétorique officielle martelant sans fléchir jusqu'à cette date que «la
situation [était] sous contrôle». Sans les pressions extérieures, de la presse chinoise de
Hong Kong à la presse internationale, en passant par l'Organisation mondiale de la santé
(OMS), sans le courage d'un certain nombre de médecins locaux, pour qui l'impératif de
santé publique rendait chaque jour ce déni de réalité plus dangereux, il apparaît évident que
le Parti communiste chinois n'aurait pas été amené à «communiquer», au sens le plus
marketing du terme, sans même parler d'informer, comme il le fait aujourd'hui. Il faut
d'ailleurs insister ici sur le rôle cardinal qu'a joué l'ancienne colonie britannique: la
malchance de Hong Kong a été la chance de la population chinoise et du reste du monde,
précisément parce que la liberté d'expression y est — encore — préservée.

HERMÈS 37, 2003 231


Éric Sautedé

Il apparaît par conséquent essentiel de s'interroger sur les carences de l'information en


Chine, et tout particulièrement sur la place des moyens de communication et d'information
modernes tout au long de cette crise, lesquels, pour n'avoir pas totalement brillé par leur
absence, notamment s'agissant de la téléphonie, n'ont absolument pas rempli le rôle
«alternatif» qu'on leur prête trop souvent. S'il n'y a pas vraiment lieu de s'en étonner, il
semble néanmoins utile de rappeler le contexte politiquement corseté dans lequel « surfent »
près de 70 millions d'internautes chinois, d'envisager les contradictions qui se posent entre
«communication» et «information», et de montrer en quoi l'habilité toute pragmatique du
gouvernement chinois a été de ne faire des concessions d'ouverture que là où sa légitimité
ne pouvait être menacée et de travestir son action de propagande par de subtiles — et
modernes — artifices. En dernière analyse, ce ripolinage de la propagande répond autant à
une exigence de modernité du leurre qu'il résulte du leurre de la modernité2.

Tentation panoptique et expressions intersticielles


de la liberté

L'information sur les autoroutes chinoises de l'information demeure aujourd'hui


encore extrêmement contrôlée3, en amont par les restrictions imposées aux supports et les
dispositions réglementaires, et en aval par les sanctions. Cette mise en coupe réglée de
l'Internet, qui ne bénéficie au mieux que d'une «liberté sous surveillance», explique
largement le manque de réactivité du médium à la crise du SRAS.
Tout d'abord, du côté de la connectivité internationale, les limites imposées sont avant
tout politiques. Sur la base d'informations éparses, l'on sait depuis longtemps que certains
sites étrangers sont en permanence ou occasionnellement inaccessibles de Chine. Les sites des
grands organes de presse anglo-saxons (Washington Post, Herarld Tribune, CNN, BBC, etc. )
ainsi que les sites d'organisations étrangères s'intéressant à des sujets jugés politiquement
sensibles — Tibet, Taiwan, Falungong, droits de l'homme en Chine, dissidence, etc. — sont
les cibles privilégiées de ces blocages d'accès. La récente étude produite par une équipe de
recherche de la Harvard Law School4 dirigée par Jonathan Zittrain et Benjamin Edelman
apporte une confirmation sans appel de cette pratique, puisque sur les 200000 sites Web dont
ils ont simulé l'accès à partir de Chine de mai à novembre 2002, 50000 étaient d'une façon ou
d'une autre interdits d'accès (au moins une fois et en un lieu unique) et quelque 19000 étaient
interdits d'accès en plusieurs endroits et à diverses reprises, alors qu'ils étaient dans le même
temps accessibles aux Etats-Unis. Outre les sites évoqués plus haut, plusieurs pourvoyeurs de
contenu liés à l'éducation et, précisément, au domaine de la santé sont régulièrement bloqués5.

232 HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

Le filtrage des données disponibles sur l'Internet chinois, aussi bien sur le Web que sur
les forums de discussion, est également pratique courante en Chine. Tous les sites
commerciaux chinois pourvoyeurs d'informations ou «d'espaces publics d'expression» la
pratiquent. Les cybercafés eux-mêmes sont censés installer des logiciels qui mémorisent
l'activité d'utilisateurs qui doivent auparavant donner une preuve d'identité aux gérants des
établissements. Les grandes campagnes de remise en ordre des cybercafés du printemps
2001, du printemps et de l'été 2002, semblent avoir d'ailleurs largement porté leurs fruits
dans ce domaine puisque ne subsistent effectivement en Chine que les cybercafés s'étant
conformés à des réglementations draconiennes en matière de sécurité et d'administration.
Les méthodes de filtrage sont d'autant mieux connues que la technologie utilisée a été
«vendue» par de grandes sociétés étrangères, comme Cisco Systems (américaine) ou Global
One (une joint venture de Sprint, France Telecom et Deutsche Telekom), qui en ont
consciemment ignoré l'usage final6. L'existence des « renifleurs de paquets de données » qui
permettent d'identifier les sites étrangers «subversifs», de filtres d'e-mails et des «grands
inquisiteurs» {big marnas) utilisés sur les forums de discussion est aujourd'hui largement
avérée et a même été directement reconnue par les autorités chinoises lorsque, en
octobre 2002, un journal pékinois s'est fait l'écho de «fuites» défaillantes dans certains
systèmes de filtrage7. Une enquête récente de Reporters sans frontières réalisée avec l'aide
d'une journaliste chinoise de la BBC a également très bien montré que les forums de
discussion hébergés par les grands portails chinois — [sina. com. cn, sohu. com,
yahoo. com. cn] ou [tom. com] — étaient l'objet de l'attention continue des censeurs8.
Plusieurs dispositions réglementaires complètent le dispositif de contrôle. Elles
s'adressent autant aux utilisateurs qu'aux pourvoyeurs d'accès et de contenu. Il serait trop
long de retracer ici toute l'histoire de ces textes, dont les premiers remontent à février 1996.
Retenons simplement que les plus importants d'entre eux sont: l'arrêté sur la gestion des
contenus sur l'Internet, adopté en septembre 2000 par le Conseil des affaires de l'Etat,
lequel interdit aux pourvoyeurs de contenu — leur en imputant ainsi la responsabilité — la
dissémination d'informations que le gouvernement juge dommageables et « malsaines » et le
règlement sur les services d'information sur l'Internet, promulgué en novembre 2000, qui
définit les contenus prohibés sur les forums de discussion et les sites d'information chinois
et restreint la diffusion d'information provenant des médias étrangers (en somme, toutes les
informations pouvant entrer dans la catégorie large et floue du «secret d'Etat»). Par
ailleurs, depuis l'été 2001, tous les usages déviants de l'Internet ont fait l'objet d'une
«criminalisation», puisqu'ils ont été mis en conformité avec les articles du code pénal se
rapportant aux «crimes mettant en danger la sécurité nationale». D'autre dispositions au
statut légal plus ambigu sont également en vigueur, comme la charte de bonne conduite et
d'autodiscipline imposée, en mars 2002, par l'Association chinoise de l'Internet aux grands
portails d'information et aux moteurs de recherche — 130 signataires dont Yahoo ! Chine.

HERMÈS 37, 2003 233


Éric Sautedé

Enfin, les contrevenants à ces réglementations s'exposent à de graves sanctions. Selon


l'organisation américaine Digital Freedom Network, quelque 34 personnes sont ou ont été
emprisonnées pour des « crimes» liés à un usage dissident de l'Internet depuis janvier 20009.
Si ce nombre ne paraît pas très élevé — mais les cas sont loin d'être tous recensés et, en
matière de liberté, il suffit d'un cas de restriction pour qu'il mérite d'être dénoncé —, les
«crimes» retenus contre les impétrants sont révélateurs de la largesse d'esprit du
gouvernement chinois en matière de définition de la dissémination de secrets d'Etat et de la
subversion: la détention préventive et de lourdes peines s'appliquent aussi bien à la
personne ayant fait circuler des adresses e-mail chinoises sur les sites de la dissidence qu'à
l'animateur d'un site jugé subversif ou au signataire d'une pétition en ligne réclamant la
relaxe de certaines restrictions... et à celui qui manifeste ensuite sa désapprobation lorsqu'il
apprend qu'un internaute a été placé en détention pour avoir signé cette pétition !
Le cas de Huang Qi, arrêté le 3 juin 2000, est particulièrement intéressant et vient de
connaître son développement final puisque ce webmestre de Chengdu, dans la province du
Sichuan, a été condamné en mai 2003 à cinq ans de prison pour subversion. Son site,
www. 6-4tianwang. com (en référence à la répression du 4 juin 1989), se composait de forums
d'appels à personnes disparues et, plus «grave», avait osé reproduire des articles en chinois
réclamant la révision du jugement officiel des évènements de mai-juin 198910. Huang Qi fut
inculpé en vertu des articles 103 et 105 du Code pénal, le premier article concernant
«l'organisation, le complot ou tout autre acte, et l'incitation visant à diviser le pays ou à
saper l'unification nationale», le second «l'organisation, le complot ou tout autre acte, et
l'incitation visant à subvertir le pouvoir politique de l'Etat et à renverser le système
socialiste». Si «l'organisation, le complot ou tout autre acte» sont assortis des peines les
plus lourdes (de trois ans à l'emprisonnement à perpétuité selon le degré de responsabilité),
la simple «incitation» est sanctionnée par une peine d'un «maximum de cinq ans
d'emprisonnement ferme, de détention pénale, de contrôle ou de privation des droits
politiques », à l'exception « des chefs et de ceux dont le crime est jugé grave » qui encourent
un «minimum» de cinq ans d'emprisonnement sans remise de peine. C'est à n'en pas
douter ce même article 105 qui pourra être invoqué lors de l'inculpation des quelques 107
personnes arrêtées en mai dernier dans 17 provinces pour avoir fait circuler de fausses
rumeurs sur le SRAS par messages téléphoniques ou sur l'Internet11.
On le voit, l'architecture du contrôle de l'Internet en Chine ne permet au mieux qu'une
expression intersticielle et furtive de la liberté d'expression. Seuls les plus aguerris peuvent
tourner la censure et au risque d'en payer très chèrement le prix. L'efficience du contrôle, par
les règlements et leur mise en application, n'est pas simplement l'expression d'un réel pouvoir,
mais permet également, pour reprendre une formule foucaltienne, de prendre en compte
l'existence singulière des individus, imposant une «contrainte continue et minutieuse des
prescriptions», sanctionnant la pratique individuelle, si bien que la censure exercée par les

234 HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

autorités publiques génère dans son sillage l'autre grand terme de cette perspective panoptique:
l'autocensure préventive pratiquée par les opérateurs commerciaux chinois... et les utilisateurs.

Texto versus Internet

Globalement, l'Internet a été soumis aux mêmes restrictions que la presse écrite
s'agissant de la crise du SRAS et astreint à la conformité exigée par les organes de
propagande du Parti communiste chinois. À l'exception de la petite fenêtre de floraison
d'une relative liberté virtuelle entre les 4 et 17 avril, période d'hésitation au cours de laquelle
la nouvelle équipe dirigeante emmenée par le président Hu Jintao et le Premier ministre
Wen Jiabao s'apprêtait à lancer sa campagne nationale de lutte contre le mensonge et
l'épidémie, seule la circulation de messages subversifs par téléphonie mobile, les fameux
textos ont véritablement surpris le gouvernement chinois et les observateurs étrangers, par
leur volume et la liberté de ton qu'ils affichaient. Tout naturellement, dans un contexte de
désinformation totale et parce que l'épidémie de SRAS a d'abord eu pour principal foyer la
province méridionale riche du Guangdong, puis Pékin, les échanges de textos ont été
particulièrement importants en volume, puisque c'est là que l'on trouve les plus forts taux
d'équipement en téléphonie mobile, avec des taux de pénétration dépassant les 60 %, c'est-
à-dire proches de la plupart des pays développés.
Pourtant, autant les messages postés que la nature du médium doivent nous conduire à
la plus grande prudence s'agissant de la place de ce moyen de communication amené à jouer
un rôle de substitution pour lequel il n'a a priori aucune vocation. En effet, communication
ne veut pas dire information et si l'on veut bien admettre que les échanges de textos
façonnent de nouveaux types de sociabilité, ils demeurent un outil de communication
interpersonnelle, privée, bénéficiant juste d'une immédiateté, d'une capacité de dispersion et
d'une portabilité inégalées. En dehors de cette sphère privée élargie, il n'y a absolument pas
de hiérarchie ni de valeur intrinsèque de l'information. La preuve en est que si les échanges
massifs de textos dans le Guangdong12 en février ont conduit à des mouvements de foules se
ruant sur la pharmacopée chinoise ou le vinaigre pour combattre la maladie inconnue et
inavouable, ils n'ont pas pour autant précipité à eux-seuls une prise de conscience nationale.
S'agissant du contenu, cela s'est encore vérifié à Pékin en avril, les fausses rumeurs
l'emportaient largement sur les vraies et pour quelques messages incisifs à l'égard des
autorités, la plupart se contentait de rapporter des cas de SRAS avérés ou non. La fuite des
Pékinois de souche ou d'adoption vers la campagne a certainement été accélérée par
l'échange de textos, notamment lorsque ceux-ci annonçaient que l'armée chinoise allait

HERMÈS 37, 2003 235


Éric Sautedé

«bombarder la capitale d'insecticide» ou que le gouvernement s'apprêtait à y imposer la loi


martiale, mais en aucune façon, et ce n'est pas là leur vocation, n'ont-ils conduit à la
mobilisation de manifestants défiant les hiérarques de Zhongnanhai, le Kremlin chinois, dans
des rues devenues désertes. S'agissant du seuil de tolérance manifesté par le gouvernement
face à ces rumeurs génératrices de « désordres sociaux », l'on peut sans conteste affirmer que
tout est question de degré et que la surprise passée, la reprise en main se devait d'être dure.
L'autre grande raison qui permet d'expliquer la relative tolérance initiale des autorités
publiques à l'égard des échanges frénétiques de textos est d'ordre économique. Tous les
opérateurs de téléphonie — tous étatiques — offrent de tels services. Et cela mérite d'être
souligné, puisque les deux opérateurs de téléphonie fixe, China Telecom et China Netcom, sont
censés se concentrer exclusivement sur le filaire et agissent donc dans ce domaine dans la plus
entière illégalité. Il n'en demeure pas moins que ces deux sociétés représentent aujourd'hui,
notamment grâce aux textos, quelque 6 % du marché mobile en Chine (18). Les textos et leurs
revenus, bien que modestes et tirant effectivement les prix vers le bas, sont à présent conçus
comme une arme stratégique dans un contexte de concurrence féroce et de guerre des prix. S'ils
ne constituent certes pas l'antidote idéal à l'érosion du revenu par utilisateur, ils sont un outil
indispensable dans la bataille pour les parts de marché: avec 95 millions de textos échangés en
2002, les revenus ont été multipliés par quatre par rapport à 2001 et sont passés à 6 milliards
de yuans, alors que dans le même temps les revenus globaux provenant de la téléphonie mobile
n'augmentaient que de 19 % et que le revenu par utilisateur baissait pour sa part de 19 %.
La surprise passée, la mesure du danger des rumeurs — vraies et fausses — prise et la
perspective d'une perte de revenus acceptée, le gouvernement chinois s'est rapidement
donné les moyens de réduire son seuil de tolérance, car pour n'être pas de l'information, les
nombreuses «rumeurs» véhiculées par les textos contrariaient la nouvelle donne d'une
mobilisation nationale dans la lutte contre le SRAS: nous avons indiqué plus haut qu'il y
avait eu, pour les seuls mois d'avril et mai, plus d'une centaine d'arrestations directement
liées à la circulation de rumeurs; un technicien ayant participé à l'élaboration d'une
nouvelle méthode de filtrage a confié que China Mobile et China Unicom singularisaient les
abonnés envoyant plus de 100 messages par heure et que ces messages, ainsi que tous leurs
destinataires, pouvaient être lus en moins de 15 minutes par les autorités13.

Les travestissements de la propagande

Avec la décision de prendre enfin en compte la réalité, suite à la réunion extraordinaire


du Comité permanent du Bureau politique, le 17 avril, au cours de laquelle le président Hu

236 HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

Jintao acceptait de reconnaître que le gouvernement avait menti et inversait la tendance


pour mobiliser le Parti dans un combat de front uni contre l'épidémie menaçant la capitale
et la nation toute entière, les premières mesures adoptées par le gouvernement furent
particulièrement vigoureuses. Sur le front de la «communication», cela se traduisit tout
d'abord par une grande conférence de presse organisée par le Bureau d'information du
Conseil des affaires de l'État, le 20 avril, durant laquelle le vice-ministre de la santé Gao
Qiang, en l'absence du ministre, révisa brutalement le bilan des cas de SRAS à la hausse
(plus de 300 cas à Pékin), qualifia la situation de «sérieuse et préoccupante» — au point
d'en annuler la traditionnelle et profitable semaine de vacances du 1er mai — et accepta de
répondre, de façon claire, aux questions quelque peu embarrassantes posées par les
journalistes chinois et étrangers présents dans la salle. Quelques heures après seulement,
l'on apprenait que le ministre de la santé, Zhang Wenkang, pourtant un proche de Jiang
Zemin, le président sortant, et le maire de Pékin, Meng Xuenong, étaient «démissionnes»
de leur poste en raison de leur défaillance dans la gestion de l'épidémie.
Plus encore que la réunion du 17 avril, forcément tenue à huis clos, c'est cette
conférence de presse du 20 avril qui a sonné le glas du culte du secret et de la dissimulation
préventive. Peut-on en conclure pour autant qu'elle inaugure une nouvelle ère de
transparence? Ou au contraire, n'assiste-t-on pas simplement à un travestissement de la
propagande pour laquelle le déni n'est plus une option? Cette conférence de presse du
20 avril a été reproduite en version intégrale sur de nombreux sites Web chinois, et tous les
grands portails d'information, qu'ils soient d'Etat (xinhua. net, people. com. cn) ou
commerciaux (sina. com. cn, sohu. com, netease. com) regorgent, depuis cette date,
d'informations extrêmement précises sur la maladie et sur les actions du gouvernement
pour la combattre. En somme, on est passé d'une ignorance totale où le citadin ordinaire
avait «ouï-dire» par son téléphone les vertus curatives du vinaigre pour lutter contre le
SRAS et pour qui la seule alternative était d'appliquer l'adage de Galien, le célèbre
anatomiste grec du Ier siècle, «partir le plus tôt possible, aller le plus loin possible, revenir
le plus tard possible», à une situation de véritable « sur-information » où toute personne
disposant d'une connexion à l'Internet peut se tenir au courant des dernières avancées du
décodage génétique du virus et télécharger dans le même temps un fichier musical qui lui
permettra d'écouter la dernière chanson commandée par le gouvernement clamant sur un
air entraînant que la victoire sur la maladie est proche.
L'exemple certainement le plus probant de cette propagande modernisée peut se lire
sur les pages dédiées au SRAS du site d'Information chinoise médicale et biologique abrité
par l'Institut des sciences cardiovasculaires de l'université de Pékin14. Ce site est d'une
incontestable richesse: on y trouve le dernier décompte du nombre de cas et de décès, la
répartition par province, les mesures préventives à adopter, les dernières déclarations des
spécialistes et des responsables politiques chinois, des schémas richement illustrés sur les

HERMÈS 37, 2003 237


Éric Sautedé

modes de transmission, des croquis en coupe du virus, de nombreux articles de la presse


chinoise... et même des articles de la presse étrangère (Washington Post, Reuters, etc). Passé
l'étonnement — la reproduction d'articles étrangers est interdite en Chine, sauf si elle est
approuvée par les organes de la sécurité publique, et le site du Washington Post, par
exemple, est bloqué —, en examinant de plus près ces articles, l'on s'aperçoit en réalité
qu'ils concernent tous des aspects techniques ou scientifiques de l'épidémie et que les liens
sur lesquels il faut cliquer pour lire les articles sont en réalité hébergés sur le site de
l'Institut, mais que par souci «d'authenticité visuelle», la présentation et les logos ont été
fidèlement reproduits pour laisser à penser que la porte a été ouverte sur l'extérieur...
Autant l'efficience des méthodes de contrôle décrites auparavant que la proactivité et
le savoir-faire déployés par les autorités chinoises sur les autoroutes de l'information
semblent contredire toute idée d'une «révolution de et par l'information». Ils rendent
également caduque la vision erronée d'une actuelle direction politique n'entendant rien au
nouveau médium en raison de l'obsolescence de ses cadres de pensée.

Modernité du leurre et leurre de la modernité

Les nouveaux excès de communication, de surcroît biaisés, ne doivent cependant pas


cacher la triste réalité: sans le courage de certains membres du personnel de santé dans un
contexte de très fortes pressions internationales, la situation de mensonge cultivée par les
autorités chinoises aurait pu perdurer jusqu'à extinction naturelle de l'épidémie — scénario
optimiste — ou jusqu'à explosion d'une crise sanitaire nationale en retour des campagnes
chinoises — scénario pessimiste. Se pose alors la question de savoir si leurs témoignages
étaient plus motivés par la grogne populaire généralisée entretenue par les outils de
communication modernes — ce dont nous doutons au vu de l'inertie face à la désinformation
dans les semaines qui ont suivi le pic de l'infection dans le Guangdong, en février 2003 —
ou, au contraire, par leur devoir «humaniste» de professionnels de la santé à un moment où
le reste du monde avait les yeux braqués sur Hong Kong et la Chine, et où l'équipe de l'OMS
présente en Chine faisait montre d'une forte résolution dans sa volonté de savoir.
Beaucoup plus que les rumeurs circulant parmi les citadins pékinois ou cantonais,
c'est donc bien l'attitude de « cavalier seul» de certains membres du personnel médical qui
a acculé le gouvernement à l'ouverture et à revenir sur le déni en vigueur depuis plusieurs
mois. Au premier rang de ceux-là, l'on trouve le médecin militaire retraité Jiang Yanyong,
déjà connu à l'étranger et en Chine pour ses positions en faveur des étudiants ayant
manifesté sur la place Tienanmen en 1989. Suite à la conférence de presse faite le 3 avril

238 HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

par le ministre de la santé Zhang Wenkang, selon qui l'épidémie de SRAS était
«effectivement sous contrôle», Jiang Yanyong envoya le lendemain un message
électronique à la télévision centrale de Chine et à la chaîne hongkongaise Phoenix, dans
lequel il accusait Zhang de mentir et révélait que dans les seuls hôpitaux qu'il connaissait
à Pékin, il y avait au moins 100 cas de SRAS (contre 12 officiellement) et que pas moins de
six personnes en sont décédées. Son e-mail n'eut initialement aucune suite en Chine, mais
il fut transmis à divers organes de presse étrangers et dès le 8 avril, ces propos étaient repris
par l'hebdomadaire allemand Der Spiegel et le 9 avril sur le site Web du grand
hebdomadaire américain Time. Les déclarations de Jiang Yanyong connurent ensuite un
réel succès en Chine même, et furent largement distribuées par e-mail et postées sur les
BBS des universités. Cette précipitation des événements est hautement représentative tant
du potentiel que des limites de l'utilisation des communications modernes en matière
d'information: les renseignements détenus par Jiang Yanyong qu'il aurait d'ailleurs pu
transmettre aussi bien par téléphone ou par télécopie, ne valent que parce qu'ils ont été
avancés par un locuteur respecté et qu'en rencontrant un large écho dans la presse
étrangère, ils se trouvent propulsés au rang d'information. À n'en pas douter, l'inquiétude
du gouvernement a été principalement de voir cette attitude de «cavalier seul» se
multiplier, moins que d'assister à la mise en contradiction de la version officielle sur des
forums de discussion nécessairement restreints et bien vite nettoyés. Une fois encore, le
projet et sa légitimité passent avant le médium.
L'analyse de l'état du système de santé en Chine, notamment en milieu rural, que de
nombreuses études jugent aujourd'hui déliquescent et hautement inégalitaire puisqu'il est
payant, dépasserait largement le cadre de cet article. Le rappel de quelques données
chiffrées permet néanmoins de se faire une idée de la «modernité à la chinoise». Il y avait,
en 2001, 2, 1 millions de médecins en Chine, soit, selon les chiffres officiels, six
médecins pour 100 000 habitants. En France, au 1er janvier 2002, il y avait 237 470 médecins,
soit 330 médecins pour 100000 habitants. Si l'on se tourne à présent du côté de la
téléphonie mobile, il y avait, en 2001, 206 millions d'abonnés à une ligne mobile en Chine
et 38, 6 millions en France. Les taux de pénétration étaient respectivement de 16% et de
64, 7 %. S'il faut se garder des conclusions hâtives, il n'en demeure pas moins, n'en déplaise
aux tenants d'une vision banalisée de la modernisation chinoise, que lorsqu'il s'agit d'un
«service commercial» éminemment moderne et rentable, la Chine se situe dans un rapport
de 1 à 4 comparée à un État développé tel que la France. En revanche, quand il s'agit d'un
«service public de base», tel que la santé, le rapport passe de 1 à 55 ! L'on se retrouve dès
lors dans un paradoxe remarquable où la population urbaine de Chine peut facilement
communiquer et échanger sur les carences des pouvoirs publics sans pourtant jamais avoir
les moyens de pousser plus avant la contradiction — absence de liberté d'expression — et
encore moins d'essayer d'y changer quelque chose — absence de liberté d'association.

HERMÈS 37, 2003 239


Éric Sautedé

Le Maître Mot de la nouvelle équipe dirigeante issue du XVI e congrès du Parti


communiste chinois de novembre 2002 semble être d'établir une «société modérément
prospère» (xiaokang shehui), montrant ainsi qu'elle veut corriger les écarts de richesse
devenus trop patents et trouver les moyens d'un plus juste partage de la croissance. Les
conséquences de la crise du SRAS tendraient à montrer que le régime devra également
dorénavant faire sienne l'exigence d'une «information modérément libre». Néanmoins, il
ne fait aucun doute que les dirigeants chinois auront à cœur d'entretenir une conception
étroite de cette «modération», et les développements récents qu'a connu l'Internet chinois
indiquent très clairement que la boîte de Pandore, contrairement aux idées reçues, peut
simplement demeurer «entrouverte».

NOTES

1. SRAS: Syndrome respiratoire aigu sévère d'origine virale qui affecte en particulier la Chine depuis
novembre 2002, et le reste du monde depuis mars dernier. Le SRAS a affecté 8422 personnes, dont 916 décès,
dans 32 pays. La Chine (foyer initial) et Hong Kong comptant respectivement 5327 et 1755 cas, et 349 et 300
décès, selon les chiffres de l'OMS. En chinois, le nom du SRAS correspond strictement à «pneumonie
atypique», soit feidianxing feiyan, ou de façon ramassée feidian.
2. Cet article est une version remaniée de «Les leurres de la modernité. Internet, information et crise du SRAS
en Chine», Perspectives chinoises (Hong Kong), n° 76, mars-avril 2003.
3. Pour une analyse précoce qui demeure valable encore aujourd'hui, voir Emmanuel PARODY et Éric SAUTEDÉ,
«Internet en Chine: une modernité qui tolère mal le contrôle», Perspectives Chinoises, n° 29, mai-juin 1995,
p. 37-43. Pour des publications plus récentes présentant un bon tour d'horizon des méthodes de contrôle, voir
Michaël S. CHASE et James C. MULVENON, You've Got Dissent! Chinese Dissident Use of the Internet and
Beijing's Counter-Strategies, Santa Monica, Ca., Rand Corporation, juin 2002, 114 p.; Edward YUNG,
«Beyond the Great Firewall», China Economic Quarterly, octobre-décembre 2002, p. 50-53; et Shanti
KALATHIL et Taylor C. BOAS, Open Networks, Closed Regimes — The Impact of the Internet on the
Authoritarian Rule, Washington D. C., Carnegie Endowment for International Peace, 2003, 218 p.
4. [http: //cyber. law. harvard. edu/filtering/china/].
5. [http: //www. aidshealth. org/], [http: //www. mentalhealth. com/] et [http: //www. healthinchina. com/].
6. Ethan GUTMAN, «Who Lost China's Internet ? », The Standard, 25 février 2002.
7. South China Morning Post, 24 octobre 2002.
8. Reporters sans frontières, «Vivre dangereusement sur le Net», 12 mai 2003, [http: //www. rsf. fr/imprimer.
php3?id-article=6792].
9. Pour un portrait de ces internautes emprisonnés, voir [http: //www. dfn. org/focus/china/netattack. htm].
10. Voir [http: //www. 6-4tianwang. com/nh/2000/200303012044. shtml].

240 HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

11. South China Morning Post, 10 mai 2003.


12. Libération, 3 avril 2003.
13. Reuters, 12 mai 2003.
14. [http: //cmbi. bjmu. edu. cn/cmbidata/sars/index. htm].

HERMES 37, 2003 241


Anne-Marie Laulan
Société française des sciences de l'information et de la communication (SFSIC)

INFORMATION ET SOCIÉTÉS

La canicule de l'été 2003 n'a pas empêché de grandes interrogations sur la façon dont
les différentes sociétés gèrent leurs moyens d'information. Cette «pression» mise sur les
chercheurs s'explique d'abord par la proximité du sommet mondial sur la société de
l'information (SMSI), prochaine étape à Genève en décembre 2003, avant Tunis en 2005.
Le colloque de Strasbourg lui est spécialement consacré.
Mais, en outre, la recherche universitaire en communication se trouve vigoureusement
interpellée par la montée en ligne de jeunes chercheurs fortement marqués par l'actualité
politique et sociale de leur «territoire» d'origine: d'où la remise en cause de concepts et de
méthodes «universels» en ce domaine, comme en témoigne la conférence francophone
tenue à Bucarest.

Colloque scientifique sur la « société de l'information,


entre mythes et réalités », université Robert Schuman,
Strasbourg 3, organisé par le Professeur Michel Mathien,
directeur du Cerime, les 4 et 5 septembre 2003 1

Synthèse par le Comité scientifique du colloque

S'agissant de l'Internet ou de la fracture numérique, objets du prochain Sommet


mondial sur la société de l'information, organisé principalement par l'UNESCO, l'UIT, on

HERMÈS 37, 2003 243


Anne-Marie Laulan

entend un discours très général, axé sur les prouesses des instruments, qui gomme toute
hétérogénéité, empêche l'idée même d'une médiation pourtant nécessaire entre les
disparités culturelles, la polarisation des histoires régionales. La société civile, puis les
chercheurs, ont tardivement pris conscience des enjeux géopolitiques et de la controverse
entre le nouvel ordre mondial électronique proposé (imposé?) et les organisations
traditionnelles des sociétés selon leurs cultures.
La réflexion et les débats du SMSI s'articulent autour de trois axes: restriction/ou
extension de la liberté d'expression ? Arbitrages économiques et techniques indispensables
face aux libéralisme de l'OMC ? Veille juridique et éthique pour le respect de la dignité
humaine, pour aboutir à une gestion transnationale des libertés acceptée par tous les États.
Les chercheurs réunis à Strasbourg s'interrogent sur le vocabulaire utilisé, simple
commodité de langage qui finit par acquérir une réalité substantielle. On doit entendre le
terme «société de l'information» comme l'une des façons de formuler les évolutions
techniques et sociales actuelles. En effet comprendre les processus et les discours par
lesquels les sociétés construisent leur relation à l'information est nécessaire pour évaluer et
accompagner ces évolutions. Par conséquent, une recherche scientifique, indépendante et
critique, sur les relations entre information, techniques et sociétés, est indispensable pour la
compréhension et la régulation des transformations en cours. Son soutien doit être assuré
dans le cadre des moyens dédiés au développement de «la société de l'information».

Société de confiance ou de défiance ?

Le développement de la « société de l'information » représente une opportunité pour


certains droits et libertés, notamment le droit à la liberté d'expression. Les autorités
publiques veilleront cependant au respect des autres droits ou libertés qui pourraient être
plus facilement mis en cause dans un tel cadre, notamment le droit au respect de la dignité
humaine, le droit au respect de la vie privée, la réputation ou les droits d'autrui. La
recherche d'un équilibre entre les divers droits et libertés devient alors permanente. Si la
défense d'intérêts publics comme la défense de l'ordre public ou la sécurité nationale peut
être certainement légitime, rappelons toutefois que toute ingérence dans l'exercice d'un
droit ou liberté appelle une interprétation étroite.
La «société de l'information» reconnaît les droits et conventions nationaux et
internationaux. Prenant acte du caractère mondial de son développement, elle favorise la
recherche de consensus larges afin de favoriser l'émergence de principes communs, sans
pour autant affaiblir les droits et libertés reconnues aux citoyens au niveau national.

244 HERMÈS 37, 2003


Information et sociétés

La protection effective de ces droits et libertés dans la « société de l'information » rend


nécessaire l'intervention publique. Il s'agit de favoriser l'accès de tous aux services de la
société de l'information, en réservant la possibilité pour les États de fournir un service
public dans les domaines culturel, éducatif et linguistique, de préserver le pluralisme
idéologique et la diversité culturelle et linguistique.

Instaurer le débat public

En tout état de cause se fait jour la nécessité d'un débat public, encouragé par les
gouvernements, informant les citoyens des positions prises et des choix faits dans le cadre
du Sommet mondial sur la «société de l'information». De même la mise en œuvre des
décisions arrêtées dans le cadre de ce sommet exige suivi attentif et évaluations régulières.
À cet effet, il convient de créer une cellule de veille, observatoire non seulement des
évolutions technologiques, mais aussi et surtout des enjeux, des succès, des lacunes et des
échecs de la « société de l'information ». On ne peut aborder ces enjeux sans une démarche
interdisciplinaire se situant à divers niveaux: les échelles géographiques, les jeux des
acteurs, les outils... sans négliger leurs inter-relations. Cette approche permet à différentes
disciplines de participer à la réflexion. En particulier, en prenant mieux en compte les
contextes sociopolitiques et économiques, les patrimoines dont il faut garder les traces et la
dynamique des modes d'intégration de ces outils.

Faire une place à la diversité


des appropriations culturelles

Il est de la responsabilité de nos sociétés de préparer les générations à venir à «la société
de l'information» en développant la formation et en menant des actions de stimulation et
d'appui à la recherche en réseau. S'imposent des travaux de recherche en partenariat Sud-
Sud et Nord-Sud sur les processus d'intégration des TIC et sur les formes de représentation
qui les accompagnent (analyse des discours occidentaux, analyse des discours africains ou
arabes) en développant des regards croisés et des études sur le terrain. Armand Mattelart
rappelle, dans Le Monde diplomatique, août 2003, que «le caractère central de la
problématique des modèles d'implantation sociale des technologies est loin d'être le fait de

HERMÈS 37, 2003 245


Anne-Marie Laulan

toutes les composantes du mouvement social mondial». Les universitaires et chercheurs ont
ici une responsabilité éthique pour mettre à jour ces diversités culturelles, objet de
Déclaration de l'Unesco. Une militante du CRIS (campagne pour le droit à la communication
dans la société de l'information) dénombre sept « tendances » au sein de la société civile; il
conviendrait d'organiser de manière plus formelle le recueil des données, la notation
ethnographique des expériences émergentes de part le monde (y compris par les populations
immigrées vivant en occident qui utilisent l'Internet comme un «nouvel arbre à palabre»).

Une régulation nécessaire

La connaissance imparfaite des données technologiques et géopolitiques suggère


l'urgence d'un audit précis des grandes infrastructures de télécommunications
internationales et de leurs coûts, en vue de mettre en place et de généraliser le «service
universel» de télécommunications dont le principe a été arrêté par l'Union internationale
des télécommunications et dont la responsabilité incombe aux opérateurs. Cet audit
pourrait être confié aux Nations Unies et à leurs agences spécialisées.
De plus, les gouvernements, en particulier celui de notre pays, se doivent, afin de
garantir un fonctionnement démocratique de soumettre les normes et standards, élaborés
par les scientifiques, les techniciens et les experts des organismes certificateurs, à un débat
public large et de recourir, in fine, à des modalités politiques d'approbation et de décision.
Enfin, la «société de l'information» s'enrichira de ses diversités linguistique et
culturelle. À cet égard, la langue française, langue de travail des Nations Unies, trouvera,
dans la civilisation de la communication numérique, un statut comparable à celui, envié, qui
a toujours été le sien dans la civilisation de l'écrit.

246 HERMÈS 37, 2003


Information et sociétés

Des concepts universels pour la recherche


en communication ?
Première conférence internationale francophone
en Sciences de l'Information et de la Communication
(Cifsic), Bucarest, du 28 juin au 2 juillet 20032

Synthèse par Anne-Marie Laulan, membre du Conseil scientifique

En dépit d'une chaleur écrasante, d'un remaniement ministériel en Roumanie, d'une


période agitée sur le plan politique et social, 250 chercheurs se sont rendus à Bucarest, tous
francophones, mais originaires d'une trentaine de pays différents (du Japon au Brésil, de La
Réunion au Danemark, sans oublier l'Afrique... ). Cet élan remarquable répondait à
l'incitation dynamique et sans relâche du Professeur Ioan Dragan, de l'université de
Bucarest, de Nicolas Pélissier (université de Nice, Sophia-Antipolis) largement soutenus par
la SFSIC pour la recherche et par l'Ambassadeur de France en Roumanie, S. Exc. Philippe
Etienne pour le financement et l'accueil des participants.
L'interrogation, classique, sur «les supports, les dispositifs et les discours médiatiques
à l'heure de l'internationalisation», devait se répartir autour de quatre grands thèmes,
décomposés en sous-sessions, avec un éclairage international pour les grandes séances de
clôture. Mais le déroulement de la Conférence fait apparaître des « effets inattendus ». Les
ateliers A portaient sur des thèmes conformes aux découpages internes de la discipline
(journalisme, télévision... ). Mais le rapporteur de ce groupe remarque, non sans un peu
d'ironie, que les bases typologiques de ces noms de domaines sont d'une grande
hétérogénéité; de ce fait, les intervenants se consacrent d'emblée à expliciter la construction
de l'objet scientifique, dans un effort méthodologique et théorique d'autant plus surprenant
que l'atelier expressément dévolu à ces questions (animé par J. -F. Têtu et Y. Jeanneret)
n'attire qu'un public restreint (en nombre, pas en qualité). Jean-Michel Utard, politologue,
constate pour sa part combien la diversité d'origine des chercheurs présents à Bucarest
ancre les réflexions dans le contexte social et politique des pays évoqués, «entre parole du
pouvoir et pouvoir de la parole, on retrouve ici la même interrogation sur la place et le rôle
des acteurs dans les processus structurant la communication dans l'espace public ».

HERMES 37, 2003 247


Anne-Marie Laulan

La revanche du contexte

Un vent de sociologie, d'anthropologie, de comparatisme, semble détourner les


intervenants des descriptions les plus consacrées. Rien d'étonnant à l'attention portée par
les chercheurs roumains à leur histoire et à leur actualité. Mais des chercheurs de La
Réunion ou de La Martinique revendiquent eux aussi, (Idelson, Pulvar), une approche
indiaocéanique (ou caraïbe) incluant l'insularité, le passé colonial, les découpages en clans
ou en ethnies, les influences ultramarines autres que métropolitaines pour tenter d'arriver à
démêler l'écheveau de complexité des transformations sociétales accélérées, en ces
territoires. Nous voici très loin de l'illusion techniciste, avec la revendication d'une
observation ethnographique des logiques inter individuelles ou des usages différenciés.
Force du contexte encore, appelé à rendre compte d'échecs communicationnels en
pays africains ou maghrébins; la session consacrée à l'internationalisation de la
communication attire nombre d'auditeurs (solidement encadrés par T. Mattelard,
M. Palmer, Y. Mignot-Lefebvre). Mais on s'interroge plutôt sur les logiques cachées
présidant à l'adoption des normes technologiques, des noms de domaines, ou encore,
inversement, à l'abandon de grands projets éducatifs liés aux techniques «révolutionnaires»
de communication.
Beaucoup de ressources et d'énergie sont mobilisées sans pour autant donner
satisfaction aux acteurs impliqués, ni aux bénéficiaires supposés. Le recteur d'une université
africaine s'indigne de la nuée d'experts prospecteurs pour la création de réseaux
téléphoniques en son pays, sans aucune prise de contact avec les autorités, a fortiori sans la
moindre évaluation de la demande éventuelle. «Divergence d'intérêts entre les parties
impliquées, au niveau macro», constate Abdel Benchenna (Paris 10): méconnaissance du
terrain d'accueil de ces projets de la part des experts chargés de la mise en œuvre, quasi-
absence de préparation du terrain d'accueil de ces projets (informatisation de lycées
marocains). Durant l'été 2003, chaud à tous les sens du mot, nombre de colloques ou
d'universités d'été ont mis l'accent sur les fallacieuses promesses (libérales) de
l'informatisation et de la téléphonie pour les pays en développement; des voix s'élèvent,
chez les occidentaux, pour demander une évaluation des coûts de ces échecs répétés, dont
«la boucle téléphonique» autour de l'Afrique est l'exemple le plus frappant de non-usage
(mais les coûts et les intérêts à payer demeurent). Les professionnels de France Telecom sont
les premiers à s'indigner des échecs dissimulés, dans l'indifférence des décideurs, en
l'absence de tout dispositif d'évaluation.

248 HERMES 37, 2003


Information et sociétés

L'intérêt de l'approche comparative

Les dernières sessions plénières s'efforcent d'apporter des «regards croisés»: état des
lieux de la recherche francophone en différents pays européens, puis dans des régions du
monde plus éloignées où l'influence française persiste (Amérique Latine par exemple). Guy
Lochard, par exemple, dans une démarche à la fois historique et conceptuelle montre comment
différentes vagues de penseurs français, à commencer par Auguste Comte, puis Morin,
Bourdieu, Foucault, Mattelart puis encore Paul Ricœur ou de Certeau ont été utilisés par les
acteurs brésiliens (à la fois sur le plan paradigmatique et politique). Avec la montée en force, au
début des années 1980 au paradigme de la résistance (autres théories de la réception, attention
portée à d'autres pôles de production audio-visuelle, soutien aux mouvements sociaux, urbains
ou paysans échappant au contrôle des états), on s'appuie sur les auteurs issus des cultural
studies. Mais souligne Lochard, il faut toujours se référer à la toile de fond historique et
scientifique, sans raisonner en termes de domination ou même d'influence « Car il est à mon
sens manifeste que certains chercheurs latino-américains ont anticipé sur un certain nombre
d'interrogations qui se posent avec davantage d'acuité dans leur contexte mais concernent tout
autant l'Europe». Et de critiquer les formes de néocolonialisme universitaire qui considèrent
les échanges avec les pays du Sud comme de purs jeux d'alliances universitaires,
décontextualisant la pensée scientifique, oubliant les hybridations et les métissages culturels.
On ne peut tous les citer: Dayan, Schlesinger... Peter Dahlgren (Lund, Suède) évoque
méthodiquement les différences théoriques et topiques entre les trois pays Scandinaves: le
Danemark proche des Allemands et des Français, la Suède positiviste, sur un modèle
américain... Des origines intellectuelles différentes ont engendré des traditions de
recherche bien distinctes, sur des objets communicationnels assez éloignés. Nous voici loin
de la «mondialisation» des concepts et des théories.
Les exposés et les débats invitent à approfondir les échanges scientifiques au sein de la
francophonie. Aussi, dans l'enthousiasme des fins de Congrès se décident:
- la création d'une banque de données francophones dans le champ des SIC, projet
soutenu par l'Ambassadeur de France et le recteur de l'Académie de Bucarest (sociologue
de formation), confié à la SFSIC;
- la réactivation des échanges universitaires franco-roumains, dès cette rentrée.
Comme souligné lors de la session de clôture, l'idée de ce colloque francophone
représentait un triple défi: faiblesse des moyens financiers, pleine période d'examen pour
les universitaires, avec une distance géographique, un décalage culturel et méthodologique
qui n'allaient pas sans risques. Le nombre de participants, leur soif d'échanger, le vœu de
renouveler cette première expérience, autant de réponses pragmatiques à ceux qui
déploraient un projet «aussi peu académique».

HERMÈS 37, 2003 249


Anne-Marie Laulan

NOTES

1. [cerime@urs. u-strasbg. fr] pour plus d'information sur les actes.


2. Les actes du colloque seront publiés; si l'impatience est trop vive, solliciter Nicolas Pélissier gardien des textes
originaux [pelissie@iutsoph. unice. fr].

250 HERMES 31, 2003


HOMMAGES

À Heinz von Foerster

À Robert K. Merton

A Jean Drucker
HEINZ VON FOERSTER
(1911-2002)
LE PÈRE DE LA SECONDE CYBERNÉTIQUE

Heinz von Foerster, figure charismatique de la communauté internationale des


scientifiques s'identifiant à l'héritage de la cybernétique, est décédé le 2 octobre 2002, dans
sa demeure de Pescadero (Californie), entouré de ses proches. Il avait 90 ans. Physicien
particulièrement doué pour les formalismes mathématiques, il fut aussi un philosophe
intéressé par l'explicitation de l'épistémologie se dégageant du projet cybernétique.

L'ancrage européen

Né à Vienne en 1911, les années de son enfance bourgeoise furent culturellement très
riches: ses parents, et surtout ses grands-parents, recevaient chez eux en permanence une
foule d'artistes, de penseurs, de scientifiques et de personnalités politiques dans cette
Vienne du début du XXe siècle en pleine effervescence culturelle. Il y eut ainsi dans l'arrière-
fond de ses années d'enfance, ce bourdonnement intellectuel, artistique et politique qui
contribua certainement à aiguiser sa curiosité intellectuelle extrême, son intérêt soutenu
pour les arts, notamment la danse et la musique, et son intelligence hors du commun. Heinz
se plaisait à dire que c'était cette ambiance culturellement plurielle qui lui avait inculqué,
dès son plus jeune âge, le désir de composer simultanément avec une multiplicité de regards
pour se donner une vision de la réalité. Nous retrouvons là l'ancrage vivant de son rejet des
visions mono-disciplinaires - artefacts des institutions académiques - et de son élan vers la
fondation d'une perspective transdisciplinaire.
Encore tout jeune homme, le hasard l'amène à assister à une conférence donnée à
l'Université de Vienne par un certain professeur du nom de Ferdinand Scheminzky. La

HERMÈS 37, 2003 253


Hommages

conférence s'intitule «Est-il possible de générer la vie artificiellement ? ». Il s'avère que cette
conférence fait partie d'une série de rencontres organisées par les philosophes associés au
«Cercle de Vienne». Il est amené ainsi très tôt à rencontrer la pensée de Rudolf Carnap,
Hans Hahn et Ludwig Wittgenstein. Ces rencontres philosophiques seront décisives pour
la formation de sa pensée: certains propos de Rudolf Carnap - notamment ses réflexions
décapantes sur la signification du signe « = » (symétrie, réflexivité, transitivité) - le
conduisent à lire le Tractacus Logico-Philosophicus de Wittgenstein. Il acquiert sa première
formation disciplinaire en physique (maîtrise à l'Institut de technologie de Vienne, puis
doctorat obtenu en 1944 de l'Université de Breslau). Surtout absorbé par des questions
philosophiques, par la logique et les mathématiques, il acquiert, en tant que physicien, une
spécialité en génie électrique. Quoique l'un de ses grands-pères ait été juif, il réussit à
travailler à Berlin pendant la guerre, dans des laboratoires liés à la mise au point de
technologies de radar. Il rentre à Vienne à la fin de la guerre. Pendant cette période, il
habitera aussi en Silésie, l'entreprise où il travaillait y ayant été transférée.
Son premier ouvrage scientifique consiste en une monographie sur la mémoire. Fasciné
par le constat qu'un sujet humain a tendance à oublier de plus en plus d'éléments au fur et
à mesure que l'on recule dans le temps de la remémoration, il cherche à formaliser ce genre
de phénomènes en vue de formuler une théorie de la mémoire. Il recourt finalement aux
concepts de la mécanique quantique pour construire son modèle. Les conditions de vie
d'après-guerre étant difficiles à Vienne - la ville, ravagée par les bombardements, est
toujours occupée par les forces alliées -, il décide d'émigrer avec sa famille vers les Etats-
Unis d'Amérique en 1949. Il apporte quelques exemplaires de son ouvrage intitulé The
Memory - a Quantum Mechanical Treatise (titre anglais de son ouvrage écrit en allemand),
ce qui pourra éventuellement servir de «carte de visite», se dit-il.

Les conférences Macy sur la cybernétique

Un exemplaire de son ouvrage sur la mémoire étant parvenu à Warren McCulloch -


directeur du département de neuropsychiatrie de l'Université d'Illinois à Chicago - ce dernier
se montre intéressé à le rencontrer. Même si Heinz von Foerster ne maîtrise pas encore très
bien la langue anglaise, les deux hommes se comprennent rapidement dès qu'ils se retrouvent
en face d'équations différentielles et autres formulations mathématiques ! Ce premier contact
amène McCulloch, alors chairman de cette rencontre, à inviter von Foerster à participer à la
sixième rencontre scientifique financée par la Fondation Josiah Macy Jr., organisée à New
York sous le titre: Circular Causal and Feedback Mechanisms in Biological and Social Systems.

254 HERMÈS 37, 2003


Hommages

Le cycle des dix conférences Macy (1946-1953) sera plus tard reconnu comme ayant été le lieu
de naissance de la cybernétique. C'est d'ailleurs Heinz von Foerster - nommé, dès la fin de
cette sixième rencontre, «secrétaire» chargé d'établir les comptes rendus et éventuellement
d'assurer la publication des Actes - qui proposa l'appellation «cybernétique» pour coiffer le
titre de ces rencontres. Heinz raconte que Norbert Wiener, père de cette appellation et
participant de ces rencontres (jusqu'à la septième, inclusivement), en fut ému et ravi.
Les conférences Macy sur la cybernétique constituent un lieu de rencontres privilégiées
où se côtoient à la fois divers spécialistes des sciences de la nature (biophysique,
mathématique, logique, neurophysiologie, ingénierie électrique), en même temps que
quelques chercheurs venus des sciences sociales comme le couple d'anthropologues
Gregory Bateson et Margaret Mead. Ce projet interdisciplinaire consiste à réfléchir sur les
patterns communs se dégageant d'une comparaison entre mécanismes de rétroaction
présents dans divers organismes biologiques, y compris humains, pour les rapprocher de
mécanismes propres à certains dispositifs techniques s'appuyant sur une théorie de
l'information en émergence (Claude Shannon est là) et sur les ressources nouvelles d'une
informatique (computer science) en train de naître (John von Neumann est l'une des
personnalités présentes). Plusieurs observateurs considèrent que ces conférences ont donné
naissance à certaines des idées-clés qui se trouveront ensuite discutées dans les domaines de
l'informatique et de l'intelligence artificielle (AI), de l'étude des réseaux neuronaux, des
théories des systèmes et de la complexité, et dans les sciences cognitives.

Le Biological Computer Laboratory (1958-1975)

Alors qu'il enseigne depuis son arrivée aux USA au département ¿'Electrical
Engineering de l'Université d'Illinois (Urbana) qu'il dirige, il fonde en 1958, dans la même
université, le Biological Computer Laboratory (BCL). La visée scientifique de ce laboratoire
montre une envergure interdisciplinaire et internationale. Il s'y retrouve des chercheurs
issus d'horizons scientifiques divers (biophysique, biologie mathématique, neurophysiologie
de la cognition, sciences et techniques informatiques, sciences cognitives, épistémologie).
Bénéficiant d'importantes subventions en provenance notamment de l'Office of Naval
Research, certains travaux du laboratoire conduisent à des percées du côté du traitement
informatique en parallèle (parallel computing). L'une des pistes consiste à construire un
nouveau type d'ordinateur muni de senseurs photo-électriques destinés à la reconnaissance
d'objets multiples. D'autres travaux ont porté sur l'hématologie médicale; d'autres encore
ont concerné la démographie.

HERMÈS 37, 2003 255


Hommages

Heinz von Foerster était un penseur qui aimait provoquer la réflexion à partir d'idées-
force à saveur paradoxale, ou parfois apparemment tautologiques. L'une de celles-ci fut le
fameux principe d'« ordre par le bruit» (order from noise principle), formulé dès 1960, et qui
fut repris notamment par Henri Atlan dans sa théorie de l'auto-organisation. La thèse
consiste à soutenir que le bruit qui s'introduit dans les systèmes auto-organisateurs
engendre, en dernière analyse, moins de l'entropie qu'une ré-organisation du système qui
s'oriente vers de nouvelles finalités. La reprise contemporaine de cette idée dans les sciences
cognitives apparaît sous la forme des «résonances stochastiques» (Varela). Von Foerster fut
l'un des principaux chantres des problématiques de l'auto-organisation, thématique qu'il
approfondit d'abord avec Gordon Pask, son vieux compagnon, puis avec Humberto
Maturana (rencontré une première fois en 1962) et enfin, avec Francisco Varela (qu'il
fréquenta notamment lors d'une demi-sabbatique au laboratoire de Maturana à Santiago du
Chili en 1973). En France, Edgar Morin fut l'un des premiers penseurs à prendre au sérieux
les conséquences épistémologiques de ces idées d'«ordre par le bruit» et d'auto-
organisation. Morin invita d'ailleurs Heinz von Foerster à participer au colloque sur l'Unité
de l'homme: invariants biologiques et universaux culturels, tenu à l'abbaye de Royaumont en
septembre 1972.
Heinz von Foerster décida de fermer le BCL en 1975. Non seulement en raison de sa
retraite, mais aussi parce qu'il constatait que les conditions de financement de la recherche
aux Etats-Unis s'étaient significativement modifiées. Cette période marque en effet le début
d'un désintéressement institutionnel de la part des grandes fondations, de même que des
agences gouvernementales et militaires, pour le domaine des recherches fondamentales
couvert par le BCL. Ce laboratoire poursuivait en quelque sorte des pistes de recherche et
de développement en informatique qui ne rejoignaient pas les courants mainstream de
l'Intelligence Artificielle (AI), secteur par ailleurs largement subventionné par ces agences
fédérales (pensons au laboratoire de Marvin Minsky au MIT). Ceci illustrait parfaitement la
bifurcation qui s'était amorcée assez tôt au sein des cybernéticiens, entre le courant dont
émergèrent les développements fulgurants de l'AI (secteur qui fut largement subventionné
malgré le fait que ces chercheurs n'arrivèrent pas, en fin de compte, à remplir leurs
promesses ambitieuses de construire une «intelligence artificielle») et le courant des
chercheurs davantage en résonance avec le projet initial de la cybernétique - dont ceux du
BCL -, qui refusaient les définitions naïves de la cognition et de l'intelligence mises en avant
par les ténors de l'AI. Ce ne sera que plus tard, pendant la décennie 1980, que les
perspectives connexionnistes en sciences cognitives (et un nouveau style pour penser la
robotique, empruntant d'ailleurs à l'esprit du BCL) rejoindront les intérêts des héritiers des
deux communautés de scientifiques.

256 HERMES 37, 2003


Hommages

LA cybernétique de second ordre

Les conférences et les écrits de von Foerster dont on se souviendra probablement le


plus sont de nature épistémologique. C'est ici que se situe toute l'originalité du projet
philosophique de Heinz von Foerster. Il propose une lecture épistémologique nouvelle du
projet cybernétique. Alors que jusque-là, les chercheurs se sont contentés d'une
cybernétique des systèmes observés (first-order cybernetics), von Foerster les invite à
pratiquer plutôt une cybernétique des systèmes observants (second-order cybernetics), c'est-
à-dire une approche qui ne peut plus exclure la pleine prise en compte de l'observateur
inclus dans le processus d'observation. La première cybernétique - ou plus précisément, la
«première lecture» du projet cybernétique, car les idées-force de la «seconde
cybernétique» sont déjà en partie incluses dans certains échanges des conférences Macy
pour qui sait les reconnaître - privilégie des notions comme celle de rétroaction, qui ne
viennent que nourrir les théories du contrôle appliquées dorénavant aux comportements
des organismes vivants. Pour von Foerster, cette idée de feedback orientée vers la théorie du
contrôle n'est pas neuve, elle était déjà considérée dans les travaux de génie électrique. Ce
qui est vraiment neuf et fascinant dans le projet cybernétique, c'est la prise en compte des
conséquences logiques et épistémologiques des comportements de cette catégorie de
systèmes qui peuvent agir sur eux-mêmes. Ce type de fonctionnement oblige l'observateur
à formuler des paradoxes et à recourir à des concepts autoréférentiels, ce qui entraîne un
véritable saut épistémologique au regard de la logique classique. Le cybernéticien de second
ordre ne peut se contenter de recourir à la théorie des types logiques de Russell pour décrire
les comportements paradoxaux des systèmes autoréférentiels: « I thought of the theory of
types as a miserable excuse for someone who doesn't want to take on the responsability of
saying 'I'm saying that', because you are not supposed to say Τ with the theory of types. »
(... ) « Cybernetics, for me, is the point where you can overcome Russell's theory of types
by taking a proper approach to the notions of paradox, self-reference, etc., something that
transfers the whole notion of ontology - how things are - to an ontogenesis - how things
become. » (entrevue de 1995). La cybernétique de second ordre consiste à prendre la
dynamique du fonctionnement paradoxal au sérieux, ajoutait-il.
Dans les termes d'André Béjin, le projet épistémologique de von Foerster consiste à
« définir les conditions de possibilité d'une théorie de la description et d'une théorie de la
cognition et (à) en définir les fondements». Rejoignant l'ambition de Maturana, il s'agit
pour von Foerster « de rétablir la marge d'autodétermination de tout système cognitif. Un
tel système ne serait pas ce que l'environnement fait de lui, il serait ce qu'il fait de ce que
l'environnement fait de lui». L'une des thèses centrales de von Foerster consiste à soutenir
que les objets et les événements de l'environnement n'ont pas d'existence intrinsèque: ils

HERMÈS 37, 2003 251


Hommages

n'existent pas de manière indépendante de l'observateur qui les perçoit et qui s'en donne
des représentations. Ainsi en est-il, a fortiori, des gestes mêmes de l'observateur liés au
processus d'observation: «toute description est la description d'un observateur». Par cet
aphorisme apparemment tautologique, von Foerster propose une critique radicale de l'idée
d'objectivité en science. Il prône la ré-insertion systématique de l'observateur dans
l'observation. L'observateur est inclus dans l'observation. De par son impossible absence du
site et du processus de l'observation, l'observateur humain affecte les conditions de
l'observation tout autant qu'il marque de son empreinte, à travers l'usage du langage, la
formulation de ses descriptions. Von Foerster insiste pour que les scientifiques prennent en
considération les opérations ou les descriptions autoréférentielles. Il indique que l'usage des
«concepts de second ordre» (c'est-à-dire ceux construits avec le préfixe «auto» comme
auto-organisation, auto-production, auto-réplication, auto-régulation) est indispensable
dans la production des catégories scientifiques, en particulier si les scientifiques cherchent
à questionner les postulats sous-jacents de la science contemporaine, systèmes invisibles de
croyances souvent enchevêtrés dans la construction même des problèmes que la science
cherche à résoudre.
L'émergence de cette seconde cybernétique {cybernetics of cybernetics) sera fortement
associée aux diverses perspectives constructivistes qui se sont constituées en philosophie et
dans les sciences sociales et humaines. En d'autres mots, depuis les décennies 1960 et 1970,
le noyau encore actif de chercheurs s'identifiant à l'héritage cybernétique a vu émerger en
son sein un nouveau courant d'épistémologie constructiviste dont les trois figures
pionnières ont été Heinz von Foerster, Gordon Pask et Humberto Maturana. Ce travail est
aujourd'hui poursuivi notamment par Ernst von Glasersfeld, Ranulph Glanville, Klaus
Krippendorff, Paul Pangaro et Stuart Umpleby.

Heinz von Foerster était un homme généreux, charmant, rempli d'humour, pince-sans-
rire, l'œil perçant, à la réplique intelligente et toujours pertinente, attentif aux questions que
ses étudiants et collègues pouvaient lui poser. Il répondait souvent à une question par une
autre question, ce qui provoquait instantanément le dialogue avec son interlocuteur. J'ai eu
personnellement le privilège de le rencontrer une première fois en octobre 1974, à
l'occasion d'un congrès de l'American Society for Cybernetics, association professionnelle
qu'il avait d'ailleurs contribué à créer (notamment pour pouvoir rendre hommage et
poursuivre l'œuvre de Warren McCulloch). Le hasard fit que je me retrouvai assis à ses côtés
à l'occasion du banquet. Quand je lui dis que j'étais l'étudiant d'Edgar Morin, ses yeux se
mirent à pétiller et il se rappela les bons moments passés avec Morin. Ce soir-là, il
prononçait «l'adresse présidentielle» qu'il avait intitulée «Cybernetics of Cybernetics». Il

258 HERMÈS 37, 2003


Hommages

avait d'ailleurs amené sur les lieux du congrès quelques exemplaires du recueil du même
nom, publication artisanale qu'il avait réalisée avec ses étudiants, dans le cadre de l'un de
ses cours à l'Université d'Illinois. Dès les premiers mots de sa conférence, il sut capter
immédiatement l'attention de son public, qui venait pourtant d'absorber un copieux dîner.
D'entrée, il présenta ce qu'il appela le «théorème numéro un d'Humberto Maturana»:
«Anything said is said by an observer»; il ajouta, l'œil rempli d'humour, «avec modestie»
dit-il, ce qu'il appela le «corollaire numéro un d'Heinz von Foerster»: «Anything said is
said to an observer». Le reste de sa conférence consista à montrer que ces propositions
apparemment tautologiques contenaient quelques intuitions épistémologiques qui valaient
la peine d'être prises au sérieux. Son public était conquis: il avait réussi à nous transmettre
son plaisir d'aller au fond des choses, en gardant en permanence un sourire qui montrait
qu'il était en pleine possession de ses moyens.
Serge Proulx
Université du Québec à Montréal

RÉFÉRENCES BIBLIOGRAPHIQUES

ATLAN, H., Entre le cristal et la fumée, Paris, Seuil, 1979.


BÉJIN, Α., «Théorie de la cognition et épistémologie de l'observation: présentation», in L'Unité de l'homme, Paris,
Seuil, 1974.
Centre Royaumont pour une science de l'homme, L'Unité de l'homme, sous la direction de E. MORIN et
M. PIATTELLI-PALMARINI, Paris, Seuil, 1974.
DUPUY, J. -P, AUX Origines des sciences cognitives, Paris, La Découverte, 1994.
HEIMS, S., J., The Cybernetics Group, Cambridge, MIT Press, 1991.
MATURANA, H., «Stratégies cognitives», in L'Unité de l'homme, op. cit., 1974.
MORIN, E., La Méthode, 1. La nature de la nature, Paris, Seuil, 1977.
VARELA, F., «Heinz von Foerster, the scientist, the man», Stanford Humanities Review, 4 (2), 1995.
VON FOERSTER, H. éd., Cybernetics of Cybernetics, recueil de textes, Urbana, Illinois, Biological Computer
Laboratory, 1974.
VON FOERSTER, H., «Notes pour une épistémologie des objets vivants», in L'Unité de l'homme, op. cit., 1974.
VON FOERSTER, H., «Cybernetics of Cybernetics » in K. KRIPPENDORF, éd., Communication and Control in Society,
New York, Gordon & Breach Science Publications, 1979.
VON FOERSTER, H., Observing Systems, (avec une introduction de F. Varela), Seaside, CA, Intersystems
Publications, 1981.

HERMÈS 37, 2003 259


Hommages

VON FOERSTER, H., entrevue avec J. -P. DUPUY, P. LIVET, P. LÉVY et I. STENGERS, Généalogies de l'auto-
organisation, Cahiers du CREA n° 8, École Polytechnique, Paris, 1985.
VON FOERSTER, H., entrevue avec S. FRANCHI, G. GÜZELDERE et E. MINCH, Stanford Humanities Review, 4 (2),
1995.
VON FOESTER, H., «Éthique et cybernétique de second ordre» in WATZLAWICK, P. et NARDONE, G., éd., Stratégie
de la thérapie brève, Paris, Seuil, 2000.
VON FOERSTER, H., Understanding Understanding. Essays on Cybernetics and Cognition, New York, Springer,
2003.

* Une autobiographie détaillée de Heinz von Foerster sera publiée en anglais en 2003. Il s'agit de la traduction de
l'ouvrage: Monica Broecker & Heinz von Foerster, Teil der Welt, Carl-Auer-Systeme Verlag, Heidelberg, 2002.

260 HERMES 37, 2003


ROBERT Κ. MERTON
(1910-2003)
LE SOCIOLOGUE DE L'IRONIE

Robert K. Merton a été l'un des plus célèbres sociologues de la seconde moitié du
XXe siècle et un grand théoricien de la pensée structuro-fonctionnaliste. Tout comme son
maître Talcott Parsons, vis-à-vis duquel il prit rapidement ses distances, et qui avait
construit le plus vaste monument de théorie sociale de l'histoire récente de la sociologie,
Merton n'a été que tardivement et de manière incomplète traduit en France.
Les sociologues français ont été en effet peu sensibles, à la différence de leurs
homologues européens, à l'emprise de sa pensée sur la sociologie internationale. De même,
la véritable souveraineté dont lui-même et Paul Lazarsfeld ont joui pendant de longues
années, à partir de leur royaume du Graduate Department de Columbia University à New
York, n'a été que très peu connue1.
Les champs d'intérêt de Merton ont été nombreux mais unis par certaines
préoccupations centrales: l'attention portée aux éléments structurels, qui facilitent ou
rendent difficile l'initiative de l'acteur; la sensibilité aux «problèmes sociaux», à la
déviance, à l'anomie, à la désorganisation; le souci constant de garder strictement liées la
démarche théorique et la recherche empirique; un intérêt passionné pour les thèmes de la
connaissance, c'est-à-dire pour les rapports entre science et société. Merton a d'abord été le
fondateur de la sociologie de la science aux Etats-Unis; il en a défini l'objet et la méthode
et l'a fait reconnaître par le monde universitaire. En suivant les traces de George Sarton et
en développant sa pensée, Merton publie en 1938 la première analyse systématique du
rapport entre la production scientifique et le milieu historico-social: Science, Technology and
Society in Seventeenth-Century England. Ce thème du rapport entre science et société
continuera d'occuper une place privilégiée dans son travail. Jusqu'à la fin des années 60, ses
recherches et celles de ses élèves explorent «la structure normative de la science» et les
configurations politiques, culturelles, sociales qui influencent la formation et le
développement de la communauté scientifique. Merton connaît les difficultés de son
programme et il cherche à éviter le risque du déterminisme, qui réduit les orientations de la
science à n'être que des reflets des orientations culturelles les plus répandues dans une
période historique, tout comme le risque de l'idéalisation excessive de la science, qui serait

HERMÈS 37, 2003 261


Hommages

définie uniquement par ses impératifs de connaissance. Mais il est convaincu que ces
impératifs existent et exigent l'universalisme, la communality, le désintérêt, et le
«scepticisme organisé». Pour lui, le but institutionnel de la science est «l'accroissement des
connaissances vérifiées», le caractère cumulatif des résultats. Cet aspect de sa pensée, venu
de la philosophie des Lumières, est aujourd'hui le plus discutable.
D'autre part, Merton analyse le lien entre système social et science comme un rapport
dialectique qui demande d'interroger les valeurs de la communauté scientifique dans leur
interaction avec les valeurs dominantes du système social, ce qui donne des résultats souvent
imprévisibles. En outre, et c'est le trait le plus révélateur de l'esprit de Merton, il souligne
dans son essai de 1957 - The Sociology of Science. Theory and Empirical Investigations - la
présence simultanée de valeurs incompatibles dans l'institution scientifique, comme dans
toute autre institution. Les scientifiques sont presque toujours ambivalents: ils doivent être
humbles, ouverts à l'échange et à la confrontation continuelle avec les autres scientifiques,
mais aussi originaux et être les premiers à faire connaître leurs découvertes. L'ambivalence
de leurs sentiments et de leurs comportements ne peut jamais être surmontée; elle entraîne
une oscillation constante entre des positions opposées. Cette imprévisibilité partielle de
leurs conduites permet de comprendre les changements qui ont lieu dans la communauté
scientifique, alors que la plus typique des critiques adressées au structuro-fonctionnalisme a
été justement de ne pas être en mesure d'expliquer le changement.
Son dernier livre, The Travels & Adventures of Serendipity: a Study in Historical
Semantics and the Sociology of Science, publié au cours de la dernière année de sa vie, malgré
six opérations chirurgicales pendant cette même période, confirme l'intérêt de Merton pour
les aspects surprenants, imprévisibles, de la réalité sociale. Il analyse les démarches
inattendues de l'acteur qui conduit sa recherche, mais aussi les conditions historiques qui
favorisent ou affaiblissent l'utilisation d'une découverte occasionnelle. Pour Merton, la
notion de serendipity désigne l'apparition d'une donnée inattendue et «anomale» au cours
d'une recherche empirique, une donnée qui peut la réorienter ou conduire à une nouvelle
interprétation. La serendipity se manifeste d'abord de manière imprévue: sur le chemin du
scientifique une donnée se présente, qui ne cadre pas avec son hypothèse. L'imprévu peut
se présenter comme une conséquence des conditions sociales de la recherche, mais dépend
surtout de la réceptivité et de la sagacité du chercheur. L'«anomalie» est une autre
caractéristique de la serendipity, les données sont «anomales», elles contredisent les
certitudes établies, ce qui stimule la curiosité, ouvre les portes de la créativité et oblige à
formuler de nouvelles hypothèses. La rencontre de la serendipity doit enfin être
«pertinente», c'est-à-dire avoir une position stratégique par rapport à la formulation d'une
autre théorie ou de l'extension de la théorie initiale.
Comme on peut le constater, même en suivant Merton sur le terrain où il a le mieux
démontré sa fidélité au paradigme structuro-fonctionnaliste, on rencontre chez lui des

262 HERMÈS 37, 2003


Hommages

concepts qui ouvrent la voie à une sociologie beaucoup plus dynamique et sensible à une
réalité qui ne se laisse encadrer dans aucun système, donc à une vision du monde très
éloignée du structuro-fonctionnalisme classique.
Le fait est que Merton, tout en étant le dernier des «classiques», est en même temps le
moins «classique», cela pour plusieurs raisons: par sa méfiance à l'égard des grands
systèmes théoriques, parce qu'il a inventé les middle-range theories, parce qu'il a défendu et
réalisé l'intégration de la théorie et du travail de terrain, mais surtout parce qu'il a concentré
son attention sur les aspects conflictuels, paradoxaux, ambivalents des normes et des
structures. En résumé, on peut dire que Merton a constamment insisté sur l'imprévisibilité
des effets des structures sociales.
Merton est un grand théoricien qui n'a jamais voulu lier son nom à une théorie de la
société, à des réponses définitives et exhaustives aux grandes questions de la théorie
sociologique, mais qui a plutôt voulu se consacrer à la construction, jamais achevée, toujours
révisée et approfondie, de concepts, instruments de connaissance à utiliser sur le terrain. Il
donne dans sa pensée une place centrale à la conscience de la pluralité des formes que la
rationalité peut prendre dans les conduites de l'acteur, il souligne «l'ironie» profonde et
l'ambivalence qui se manifestent dans les normes et dans les modèles de comportements
sociaux. Je dirai que la signature de Merton se reconnaît à une ironie qu'il découvre au cœur
de la plupart des rapports sociaux.
Le «thème ironique» est probablement le plus central dans l'œuvre de Merton, la
principale raison de son actualité aujourd'hui, sa façon d'affronter une réalité sociale
devenant de plus en plus complexe et difficile à déchiffrer dans ses aspects contradictoires.
Depuis ses premiers pas et pendant toutes les étapes de sa carrière, Merton a élaboré un
ensemble de concepts - les conséquences inattendues de l'action sociale, la prophétie auto-
réalisatrice, les fonctions latentes et manifestes, l'effet Matthew, l'ambivalence, la serendipity
- qui obligent le chercheur à découvrir, au-delà des apparences, une réalité «autre», qui
contredit l'interprétation se présentant comme la plus vraisemblable.
L'image de l'acteur social dessinée par Merton est placée dans un contexte de doutes et de
conflits continuels. Il ne vit pourtant pas les incertitudes avec anxiété et angoisse.
L'imprévisibilité, le risque, les contradictions sont pour lui des expériences quotidiennes, qui
sont même appréciées pour les qualités dynamiques, pour l'intérêt fort et riche qu'elles donnent
à la vie. Le monde des interactions humaines, regardé avec les yeux de Merton, apparaît comme
un fascinant kaléidoscope dont les formes et les combinaisons souvent surprenantes sollicitent
la curiosité, jusqu'au moment où on arrive à cerner la clé de lecture, le modèle explicatif.
Mon hypothèse est que la sociologie mertonienne «du soupçon», son «thème
ironique» 2 ne sont pas seulement une de ses inspirations parmi d'autres, mais la ligne de
recherche qui le représente le mieux. Il s'agit d'une inspiration qui apparaît depuis ses tout
premiers articles et qui trouve son accomplissement dans le concept d'ambivalence3. Celui-

HERMÈS 37, 2003 263


Hommages

ci exprime en effet de différentes façons une vision ambivalente de la vie sociale et des
structures normatives qui la règlent. Toute conception de la réalité sociale, d'ailleurs, qui
affirme l'existence de niveaux conscients et inconscients, manifestes et latents, structurels et
idéologiques ne peut avoir son centre que dans le concept d'ambivalence. L'ambivalence
existe quand, dans le monde de l'acteur, s'opposent deux forces de signe contraire et
d'intensité égale, sans que l'une ne puisse jamais prévaloir complètement sur l'autre. À la
différence des contradictions hégéliennes, l'ambivalence ne peut pas être surmontée par une
synthèse. Éliminée à un certain niveau, elle réapparaît à un autre, engendrant ainsi des
oscillations incessantes dans la conduite des acteurs.
L'idée d'ambivalence a une longue histoire, au cours de laquelle elle a notamment été
utilisée au niveau psychologique; mais le but que Merton se donne est d'étudier sa présence
dans les relations sociales. L'ambivalence qui intéresse Merton ne se réfère pas à la
personnalité de l'acteur, mais aux structures sociales.
Il n'est pas possible d'approfondir ici les détails et les implications de ce concept, mais
je voudrais souligner combien les réflexions qui l'accompagnent sont l'instrument le plus
puissant qu'il nous ait laissé pour la compréhension des sociétés contemporaines, où
l'ambivalence se présente dans presque tous les domaines vitaux de la vie collective.
Jusqu'ici, j'ai évoqué l'intellectuel et la pertinence que sa pensée garde encore
aujourd'hui; mais il est important aussi de dire quelques mots sur l'homme. Il a été un
enseignant inoubliable, un ami toujours sensible, plein d'affection et d'attentions, qui suivait
avec intérêt la vie de ceux qu'il aimait et auxquels il savait comment donner son appui. Pour
beaucoup, il a été ce qu'il appelait et que nous appelions aussi «un maître à distance». Il a
vécu très longtemps et pourtant nous avons reçu la nouvelle de sa mort comme une
douloureuse surprise et une injustice.
Simonetta Tabboni
Professeur émérite à l'université de Paris VII-Denis Diderot

NOTES

1. Sur leur mode de coopération: P. F. LAZARSFELD, «Working with Merton», in The Idea of Social Structure:
Papers in Honor of Robert K. Merton, Coser L. éd., 1975, et R. K. MERTON, «Working with Paul», in
LAUTMAN J. et LÉCUYER Β. (dir. ), Paul Lazarsfeld, 1901-1976: la sociologie de Vienne à New-York, Paris,
L'Harmattan, 1998.
2. Cela a été remarqué aussi par Louis Scheider à l'occasion du Festschrift consacré à Merton en 1975.
3. R. K. MERTON and Elinor BARBER, Sociological Ambivalence and Other Essays, New York, The Free Press,
1976.

264 HERMÈS 37, 2003


Hommages

RÉFÉRENCE BIBLIOGRAPHIQUE

Carlo MONGARDINI, Simonetta TABBONI, Robert K. Merton & Contemporary Sociology, New Brunswick et
Londres, Transaction Publisher, 1998.

HERMES 37, 2003 265


JEAN DRUCKER
(1941-2003)
UNE VIE AU SERVICE DE L'AUDIOVISUEL

Jean Drucker nous a quittés le 18 avril 2003. Président du Conseil de surveillance de


Métropole Télévision (M6), il a accompli pratiquement toute sa carrière dans l'audiovisuel.
Licencié ès Lettres et diplômé de l'Institut d'études politiques de Paris, il est entré à l'ΕΝΑ
en 1 9 6 6 ; affecté en 1968 au ministère des Affaires culturelles, il n'y est resté que peu de
temps, avant de rejoindre en 1970 le cabinet du directeur général de l'ORTF, Jean-Jacques
de Bresson, et d'être nommé adjoint au directeur général de la 1e chaîne. Après l'éclatement
de l'ORTF en 1974, on le retrouve dans l'une des entités issues de cette réforme, la Société
Française de Production, aux côtés de Jean-Charles Édeline, puis d'Antoine de Clermont-
Tonnerre. Il y demeure en qualité de directeur général jusqu'au début de 1980, date à
laquelle je l'appelle à mes côtés comme vice-président d'Édiradio (RTL) et adjoint à
l'administrateur délégué de la Compagnie luxembourgeoise de télédiffusion (CLT). En
1985-1986, il est président d'Antenne 2 avant de prendre en 1987 la présidence de
Métropole Télévision, à qui la Commission nationale de la communication et des libertés
(CNCL) confiait l'exploitation de la sixième chaîne, dont il sera le président-directeur
général jusqu'en 2001, date à laquelle il cède la direction exécutive à celui qui, dès l'origine,
a été à ses côtés, Nicolas de Tavernost, nommé alors président du directoire.
Au cours de ces quelque trente années, le paysage audiovisuel français s'est
profondément transformé. Quand Jean Drucker y fait ses débuts, le monopole du service
public de la radio-télévision règne, à la seule exception des radios dites « périphériques »
(RTL, Europe 1, Radio Monte-Carlo et Sud Radio) et de la présence en Lorraine de Télé-
Luxembourg. Longtemps géré comme une administration centrale de l'Etat, avec à sa tête
un directeur général nommé discrétionnairement par le gouvernement, lequel exerce
ouvertement sur les ondes une tutelle confiée à un ministre de l'Information, le service
public de la radio-télévision est depuis 1964 un établissement public, l'ORTF, qui reste sous
le contrôle étroit de l'Etat. Son financement est assuré pour l'essentiel par la redevance, la
publicité n'ayant fait son apparition, d'ailleurs timide et controversée, qu'à partir de 1968.
En dépit de quelques velléités, toute formule de télévision privée est résolument écartée,
alors que l'expérience est tentée en Grande-Bretagne. Quand, en 1970, Jean Drucker entre

HERMÈS 37, 2003 267


Hommages

à l'ORTF, la télévision en couleurs n'est pas encore généralisée et la troisième chaîne est
seulement sur le point de voir le jour. L'essentiel des programmes, que ce soit pour
l'information au sens large, pour le divertissement ou pour la fiction, est réalisé en régie
directe par les chaînes. La télévision du matin n'existe p a s ; les programmes ne
commencent qu'à midi ou en fin d'après-midi et s'arrêtent à minuit. La télédistribution est
à peine envisagée, et ne le sera que très lentement dans les années 1970, pour des
expériences locales étroitement encadrées, tandis que la diffusion hertzienne souffre encore
de nombreuses zones d'ombre. On ne commencera à parler de satellites de télédiffusion
directe qu'à la fin des années 1970, et à titre purement expérimental. En radio, pas plus de
quatre programmes à diffusion nationale au sein du service public, qui ne créera quelques
radios locales qu'en 1979-1980; l'Etat, à travers la Sofirad, exerce un contrôle sur le choix
des dirigeants d'Europe 1, de RMC et de Sud Radio et, dans une certaine mesure, sur les
programmes; la présence d'Havas au capital de la CLT et dans la régie de ses différents
programmes permet au gouvernement français d'avoir un œil sur RTL.
Ce bref rappel montre le chemin parcouru depuis cet âge quasiment préhistorique de
l'audiovisuel. La mainmise de l'Etat avait été secouée par les événements de mai 1968 et le
gouvernement de Jacques Chaban-Delmas, formé après l'élection de Georges Pompidou à
la présidence de la République en 1969, avait esquissé un mouvement de libéralisation, en
supprimant le ministère de l'Information et en appelant une forte personnalité, Pierre
Desgraupes, à la direction de l'information de la 1e chaîne. En 1972, le même gouvernement
donnait à l'ORTF un vrai statut d'établissement public avec à sa tête un président-directeur
général, et amorçait une certaine décentralisation de la gestion des programmes. L'une des
premières décisions de Valéry Giscard d'Estaing après son élection à la Présidence de la
République fut, dès l'été 1974, de faire éclater l'ORTF en quatre sociétés nationales de
programme (TF1, Antenne 2, FR3, Radio-France), auxquelles s'ajoutaient une société pour
les moyens lourds de production (la SFP) et deux établissements publics, l'un chargé de la
diffusion (TDF), l'autre des archives, de la recherche et de la formation, l'Institut national
de l'audiovisuel (INA). Si cette restructuration a incontestablement permis une gestion plus
autonome des sociétés de programme et une recherche par chacune d'elles de sa propre
personnalité, voire d'une certaine liberté de ton (sensible notamment sur l'Antenne 2 de
Marcel Jullian), le système public n'en restait pas moins très verrouillé. À quelques
exceptions près, comme celle de Marcel Jullian que l'on vient de mentionner ou, en 1972,
d'Arthur Conte, les hauts postes de responsabilité de ce service public furent toujours
confiés à des hauts fonctionnaires, préfets, ambassadeurs, inspecteurs des finances,
conseillers d'État, voire magistrats, comme Gabriel Delaunay, Robert Bordaz, Christian
Chavanon, Marceau Long, tous grands commis qui n'étaient pas des spécialistes du métier
mais qui surent s'entourer de grands professionnels issus du sérail de la radio et de la
télévision, ainsi que de jeunes généralistes, énarques ou non, comme Claude Contamine,

268 HERMÈS 37, 2003


Hommages

Xavier Larère, Gabriel de Broglie, Bertrand Labrusse qui devaient, à des titres divers, faire
carrière dans l'audiovisuel. Jean Drucker est, à plus d'un titre, le prototype de ce nouveau
profil de responsables appelés à vivre et à gérer la mutation profonde de l'audiovisuel qui
s'est opérée entre le début des années 1980 et la fin du siècle.
On ne saurait attribuer à la seule alternance politique de 1981 et aux initiatives de la
gauche de gouvernement le mérite de cette mutation; car les socialistes, à commencer par
François Mitterrand, ont, sur bien des plans, improvisé et cédé à la tentation du contrôle
politique, de l'arbitraire et du favoritisme. Il faut cependant leur reconnaître le mérite
historique d'avoir, dès 1981, cassé le monopole du service public en créant des radios locales
privées et rompu, au moins en principe, le cordon ombilical entre le pouvoir politique et
l'audiovisuel par la création d'une Haute Autorité de la Communication Audiovisuelle. Par
ces actes fondateurs, le système s'est en quelque sorte déverrouillé. Tout le reste est venu
ensuite, sous la pression des évolutions technologiques, de la loi du marché, de l'ouverture
des frontières, des attentes d'un public qui a placé la télévision, et aussi la radio, au premier
rang de ses pratiques de divertissement et même de culture, le tout accompagné de
beaucoup d'erreurs stratégiques, de lois sans cesse modifiées, mais avec des progrès
irréversibles dans le sens de la liberté d'information et de programmation, ainsi que d'une
extension considérable de l'offre audiovisuelle.
De cette mutation, Jean Drucker a été l'un des acteurs majeurs, en même temps que l'un
des observateurs et analystes les plus pénétrants. De l'ORTF à M6 en passant par la SFP, RTL
et Antenne 2, il aura, dans des postes de responsabilité, tout connu des rapports avec le pouvoir
politique, les instances de régulation, les actionnaires privés, les concurrents, les personnels et
les autres médias. Le succès de M6, qui tranche avec la déconfiture de la 5 e chaîne et les aléas
répétés de Canal +, est en large part son œuvre; il faut se souvenir qu'au départ, rares étaient
ceux qui osaient croire aux chances de la petite « chaîne de trop ». Il est donc intéressant
d'analyser les raisons de cette réussite, alors que tant d'autres carrières audiovisuelles, d'abord
prometteuses, furent brisées par des crises, des disgrâces, ou par l'échec.
Un milieu familial fort, une éducation rigoureuse, voire rigide, une personnalité
sensible, ouverte, raffinée, un cursus universitaire classique: voilà les données de départ.
Passionné de littérature et plus encore de cinéma, Jean Drucker était de plain-pied dans
l'univers de la fiction et des images animées. Féru d'histoire et de politique, il dévorait la
presse depuis sa prime jeunesse. Entré dès 1964 à l'ORTF comme journaliste, son frère
cadet Michel, avec qui il eut toujours une relation très forte et qui eut la brillante carrière
que l'on sait, l'initia très tôt aux détours du sérail télévisuel. Sa formation d'énarque lui
donna le sens de l'intérêt général et l'expérience des pratiques administratives. Bien que
bref, son court passage au ministère des Affaires culturelles d'André Malraux le familiarisa
avec la problématique de la création et les principes de la politique culturelle. Ainsi quand,
à moins de 30 ans, Jean Drucker entre pour n'en plus sortir dans les métiers de l'audiovisuel,

HERMÈS 37, 2003 269


Hommages

il est un généraliste cultivé mais suffisamment aguerri pour ne pas succomber aux sortilèges
de ce monde très particulier qui a fait tourner bien des têtes.
C'est comme porteur du projet de M6 que Jean Drucker a donné toute sa mesure. Il
s'identifie au succès de cette aventure d'abord périlleuse. Tout l'y préparait: son expérience
du service public, sa connaissance approfondie du monde des journalistes, des animateurs,
des producteurs, ses cinq années à RTL et à la CLT, où il avait appris à la fois la logique de
l'entreprise privée, la science des relations avec des actionnaires et le contexte européen du
développement de l'audiovisuel. Négociateur né, diplomate de tempérament, expert en
convivialité, il n'était pas de ces patrons qui s'imposent par le cynisme de leurs vues et la
brutalité de leurs façons et ne délèguent leurs prérogatives à des collaborateurs qu'à regret
et le moins possible. Séduisant et persuasif, ennemi du double langage, d'une probité
sourcilleuse, aussi retenu que convaincu dans son expression, toujours précise et sobre bien
que volontiers prolixe, il était un chef d'entreprise respecté et, pour ses actionnaires, un
mandataire fiable et loyal. Avec la remarquable équipe qu'il a constituée autour de Nicolas
de Tavernost, dont la personnalité était à bien des égards complémentaire de la sienne, il a
su, dès les débuts de la Six, définir un profil de programme et une stratégie de
développement à la fois réalistes et ambitieux, en évitant, par une approche de « contre-
programmation », le piège d'une concurrence frontale par rapport aux grandes chaînes,
tout en ciblant progressivement son offre télévisuelle en direction des jeunes urbains et en
donnant à M6 un habillage, un esprit et un contenu marqués par une modernité de bon aloi.
Dans son for intérieur, il préférait sans doute Capital à Loftstory et les engagements de M6
dans la production de films à la diffusion de séries américaines; mais il n'était pas insensible
à toute forme de programme répondant à des attentes nouvelles du public, discernées ou
pressenties par les équipes responsables, et il savait que dans une entreprise soumise à la
rude loi du profit, l'audace et l'ambition sont la récompense d'une gestion rentable.
Ce profil de gestionnaire humaniste et créatif, aussi habile à affronter une assemblée
d'analystes financiers ou un amphithéâtre de Sciences Po qu'à comparaître devant une
commission parlementaire ou devant le Conseil supérieur de l'audiovisuel (CSA), il n'est pas
évident qu'il soit reproductible au temps des grands groupes de communication où les
paramètres financiers l'emportent sur tout le reste. On a souvent évoqué, au sujet de
l'audiovisuel, l'image un peu simpliste du couple géomètre-saltimbanque. Jean Drucker
n'était à proprement parler ni l'un, ni l'autre, mais il était assez rationnel et Imaginatif pour
entraîner des équipes remuantes et rassurer des actionnaires exigeants. Avec sa disparition
prématurée, unanimement saluée par ses pairs et par le monde de la communication dans
son ensemble, c'est peut-être une certaine culture de l'audiovisuel qui s'en est allée.
Jacques Rigaud
Ancien administrateur délégué de la Compagnie luxembourgeoise de télédiffusion
et président de RTL

270 HERMÈS 37, 2003


LECTURES

MédiaMorphoses, «Télévision et radio: états de la parole», Bry-sur-Marne, INA,


n° 7, avril 2003.

Il n'est rien d'étonnant à ce que Guillaume Soulez ait dirigé pour la revue
MédiaMorphoses le dossier sur la parole dans les médias ! Guillaume a soutenu à l'Université
de Metz sa thèse sur «La médiation rhétorique à la télévision» (1998, N. Nel directeur). Au
sein de cette université et du centre de recherche du département de communication
(Crem), comme au sein de l'Inathèque de France (séminaire «Téléparoles»), il a dirigé sur
la même question, deux années durant, les réflexions d'équipes dont les travaux sont en
cours de publication. À maintes reprises, il est intervenu sur le thème dans des colloques,
en France et à l'étranger. Bref, avec obstination et compétence, il creuse le sillon de la parole
dans les médias, en confrontant sa perspective première, qui emprunte à la rhétorique, à des
chercheurs de tous horizons, de façon à éprouver la pertinence et les limites de ses choix.
Le dossier qu'il nous propose est riche de 13 contributions. Même s'il déclare présenter
des «états de la parole», il ne faut pas y voir un état présent des recherches engagées depuis
plus de 20 ans, sur l'un des seuls terrains de la recherche audiovisuelle, et surtout
télévisuelle, qui ait pu mobiliser toutes les perspectives méthodologiques: celui de la
conversation. En fait, il est une sorte de tribune offerte à quelques chercheurs universitaires
(plutôt jeunes chercheurs) et à quelques professionnels (de Pierre Schaeffer à Claude
Sérillon) pour rappeler ici, et là initier, un certain nombre de perspectives fructueuses
concernant radio et télévision.
Trois orientations majeures y dominent, qu'il faut estampiller globalement comme
esthétiques, sémiotiques et socio-pragmatiques. Elles essaient de caractériser la parole fixée
ou enregistrée en archive, à la Phonothèque nationale (M. -E Calas), pour la différencier de
la parole médiatisée, plus construite et ramassée, dans le montage, en ses moments forts. Il
s'agit ensuite et surtout d'analyser dans tous ses paramètres cette parole médiatisée. Il y a sa
matérialité de parole humaine, saisissable selon la phonétique (D. Duez), qui se veut science
des styles de parole en articulant situations de parole, rôles et styles (styles du même locuteur
et style identique propre à différents locuteurs). Il y a sa spécificité de parole ancrée dans
différents médias (théâtre et cinéma, épisodiquement; radio et télévision, frontalement); ses
évolutions se font selon les époques historiques et les régimes d'expression (nommés selon
les cas styles, stéréotypes, rôles de parole).

HERMÈS 37, 2003 271


Lectures

L'approche esthétique (J. Ungaro, G. Delavaud, G. Soulez via P. Schaeffer) s'occupe


de l'enjeu engagé dans la matérialité de la parole médiatisée. On nous rappelle l'importance
de Welles, A. Bazin, E. Souriau, P. Schaeffer, J. Thévenot, J. -C. Bringuier, H. Knapp,
M. Moussy, dans la théorisation de ce champ de l'expression sonore, dès les années 1950-
60. On y (re)découvre les questions de la parole prise dans les grandes problématiques
originelles de l'art/instrument, la diffusion/représentation, la pureté/impureté, le direct,
l'insertion de qualités particulières dans les scènes télévisuelles. On y souligne
(G. Delavaud) les différentes voies suivies en ces années à la télévision: parole ordinaire;
parole théâtrale parlée; parole dramatisée. On positionne la parole comme entre-deux entre
image et son, art de comédien et pratique de non comédien (P. Schaeffer). On localise dans
les années 80 (J. Bourdon) le passage d'un régime dominant de parole d'autorité à un
double ou triple régime, régime confessionnel de familiarité (télévision de l'intimité), régime
«héroïque - comique» de nouvelle familiarité publique (téléréalité), régime vivace et
bruyant de «vente de l'information» (C. Sérillon, pour ce dernier aspect).
L'approche sémiotique (G. Lochard, J. -F. Diana) permet de fonder en complexité et
précision certaines propositions de l'approche esthétique: rôle de la parole dans le travail
de construction des scènes télévisuelles (G. Lochard et J. -C. Soulages), étude de cas
particulier, celui de la parole de l'écrivain dans les émissions littéraires de la télévision
(J. -F. Diana). Continuant quelques prédécesseurs, la perspective sémio-discursive des deux
premiers s'occupe avec finesse des stratégies de visualisation de la parole, avec l'espoir
d'appréhender les configurations intersémiotiques à l'œuvre, en allant des rôles d'orateurs
aux figures visuelles, types monstratifs et effets possibles. Riche, elle néglige encore certaines
dimensions importantes comme la mimo-gestualité. Quant à l'approche de J. -F. Diana, elle
essaie de saisir en quoi la parole de l'écrivain, homme de l'écrit par excellence, peut être
détournée de ses objectifs, et par le médiateur (animateur), et par le dispositif stratégique
de l'émission.
La dernière catégorie du dossier, à orientation plus pragmatique ou sociologique,
entend évoquer ce que l'on pourrait nommer la force ou l'impact de la parole agissante, en
situation de médiatisation: force du rôle de présentateur (C. Sérillon); force des silences de
l'homme politique (D. Duez); force des dispositifs d'émissions (I. Vovou); force des
plateaux télévisés (S. Rouquette). On touche ici aux questions de l'espace public, et on
ouvre la parole médiatique / médiatisée sur l'espace social, ce qui nécessite des
méthodologies rigoureuses et ne va pas toujours sans extrapolation hâtive. Jeu de poupées-
gigognes, qui pose la grande question: jusqu'où aller trop loin, dans ce passage de la parole
- émission-média aux dimensions sociales d'hier et d'aujourd'hui ?
On suivra volontiers Manuel Antunès da Cunha, qui se borne à l'espace radiophonique
immigré (portugais), au sein de l'espace public français de 1966 à 1992: une évolution en
quatre étapes, de la parole de lien social (1966-1973) à la parole polémique (1974-1975), la

272 HERMÈS 37, 2003


Lectures

parole-héritage (1976-1982) et la parole confisquée (1983-1992). Quatre régimes


d'expression saisis surtout dans leurs contenus, et variant dans le temps selon les contextes
socio-politiques (français et portugais) d'époque. On suivra de même Ioanna Vovou, qui
nous entretient de la circulation internationale des programmes, formats, types télévisuels
d'émissions de débats entre la France et la Grèce, et des procès d'assimilation aisée d'un
pays à l'autre. On sera un peu plus réservé devant certains aspects du travail de Sébastien
Rouquette. Certes, il a tout à fait raison de nous pousser à étudier les modalités de
composition des plateaux télévisés, car elles jouent un rôle dans la capacité à parler à la
télévision. Mais il va un peu vite en besogne, lorsqu'il affirme que tout se jouerait sur ce
plan, donc en amont de l'émission et hors des plateaux. Et encore trop vite lorsqu'il tente
un parallèle entre ce qu'il nomme «la fracture médiatique» (la tendance constatée à
privilégier les gens aptes à parler télégéniquement) et la « fracture politique » (notamment
celle des élections présidentielles de 2002): quel rapport y aurait-il entre les exclus de
certains plateaux et les exclus de la société française de 2002 ? Comparaison est moins que
jamais raison, sur ce point !
Globalement, les contributions de ce dossier maintiennent donc un bon degré de
congruence avec le thème fédérateur, même si l'on glisse parfois de la focalisation sur la
parole (excellente dans l'approche phonétique et sémio-discursive) à l'extension de
l'approche à l'émission entière, aux différents médias, à l'ensemble de l'espace public
médiatique, puis à la société entière et au-delà...
Le degré de nouveauté des informations est lui aussi tout à fait satisfaisant. Si,
épisodiquement, on se cantonne à la présentation synthétique d'une démarche à présent
bien connue (G. Lochard), le plus souvent, on s'attache à des démarches nouvelles, sur
l'objet observé comme sur les méthodologies pratiquées.
Finalement, la conceptualisation qui nous est proposée de la parole en situation
médiatique offre de bonnes pistes de réflexion. On doit saluer le recours à l'incontournable
perspective historique, qui est sans doute aucun l'une des grandes conquêtes de l'analyse
télévisuelle d'aujourd'hui. De même, la place donnée aux approches sémiotiques est juste,
car de leur finesse dépendent souvent les pré-requis d'analyses plus vastes, esthétiques et
sociologiques. Mais on regrettera quelques lacunes. Curieusement, le dossier évite la
définition du terme clé de parole, d'où les habituels glissements à la langue ou au discours.
On pressent que pour se pencher totalement sur les phénomènes de parole, il faut en passer
notamment par la phonétique. Et en passer par l'analyse de la sonorité, pour différencier,
comme il est suggéré, la parole de la bande son restante et de la bande image: or, Michel
Chion ou Laurent Jullier sont à peine présents ? Et en passer par l'analyse pragmatique de
la parole opérante, dans le «lacis audiovisuel»: comment fonder les hiérarchies entre
paroles (celle du présentateur-animateur, celle du commentateur, celle du discutant de
plateau) ? Comment rendre compte des jeux et réglages subtils entre voix over (reportage,

HERMÈS 37, 2003 273


Lectures

documentaire), voix off, voix in, sans en rester à la seule qualité «acousmatique» repérée
par Michel Chion (on notera que le n° 6 de la même revue, dans l'entretien de G. Soulez
avec D. Bougnoux, D. Dayan et S. Tisseron, a commencé à examiner ces questions de près,
notamment avec les contributions du psychanalyste S. Tisseron) ? Comment montrer que les
régimes de paroles médiatisées (ou de discours médiatiques ?) à travers le temps auraient
changé la possibilité de parler (gain de démocratie), de pratiquer les grandes opérations
cognitives (expliquer, argumenter, démontrer), ou affectives et identitaires (témoigner,
avouer, etc. ) ?
Le dossier dirigé par Guillaume Soulez ne pouvait à lui seul s'occuper du tout. Mais il
ouvre des pistes qu'il conviendrait de suivre.
Noël Nel

Angelina PERALVA et Éric MACÉ, Médias et violences urbaines: débats politiques


et construction journalistique, Paris, La Documentation française, «La Sécurité
aujourd'hui », 2002.

Cet ouvrage, fruit d'un long travail d'enquêtes et d'entretiens, intervient à point
nommé pour nous aider à mieux comprendre l'emballement des médias pour la question de
l'insécurité lors de la campagne présidentielle de l'an passé et, avant cela, lors de la
campagne des municipales de 2001. Étudiant à la fois des journaux télévisés, des émissions
et la presse écrite, les deux auteurs cherchent à définir les cadrages interprétatifs fournis par
les médias sur les questions de violence et d'insécurité. Depuis une vingtaine d'années, ils
observent l'existence de trois grilles interprétatives sur ces sujets, tant dans les médias que
dans les discours politiques. L'insécurité peut être considérée comme un symptôme, celui
d'une crise de l'intégration sociale. L'insécurité-menace est associée à l'existence de groupes
à risques, qu'il faut savoir réduire ou contrôler. Enfin, une analyse en terme de coproduction
se fait jour, associant violence visible et invisible, réelle et symbolique, et mettant en avant
une logique de la coproduction des violences sociales. À partir de cette typologie, ce livre
interroge les visions que les journalistes se font de leur travail et de leur responsabilité lors
du traitement de questions aussi délicates et potentiellement explosives.
Le principal clivage autochtone établit une ligne de fracture entre réalisme et
complexité. Les «réalistes» s'opposent aux «angéliques», alors que les tenants de la
complexité s'opposent aux « simplistes ». En fonction de la position des divers journalistes
et de la ligne éditoriale de leur support, les auteurs relèvent donc que certains sont attentifs
à relayer des «faits bruts», ce qui les amène souvent à relayer le discours des sources

274 HERMÈS 37, 2003


Lectures

officielles, d'autres s'engagent dans une mission de dévoilement, pour dénoncer en


particulier l'angélisme qui aurait frappé une partie de la gauche, d'autres encore privilégient
une approche compréhensive, visant à témoigner des conditions de vie réelles des personnes
concernées et de l'imbrication des différents éléments explicatifs.
Cet ouvrage est vraiment indispensable pour réfléchir posément aux enjeux
médiatiques de cette lancinante question sociale qu'est devenue la délinquance. Il est
construit sur un aller-retour intelligent et stimulant entre les représentations politiques
dominantes sur le sujet, les postures des journalistes, le système de contraintes dans lequel
ils travaillent et les cadres situationnels dans lesquels ils opèrent (routine ou crise). Toute
cette démarche débouche sur une vision tout en nuance et en prudence du rôle que les
journalistes peuvent jouer dans l'espace public, dans les « conflits de définition » concernant
la réalité du monde perçu.
Arnaud Mercier

Éric MAIGRET, Sociologie de la communication et des médias, Paris, Armand


Colin, coll. «U. Sociologie», 2003.

À la différence d'autres manuels qui proposent une mise à plat des théories de la
communication et de leur apparition successive dans l'histoire des sciences sociales,
l'ouvrage d'Eric Maigret rend compte d'un parcours de recherche personnel, d'une
démarche «engagée» dans le sens où il souhaite «défendre l'existence d'une sociologie de
la communication face aux réductionnismes technologiques et face aux discours post-
modernistes» (p. 9).
L'évocation des différentes approches scientifiques de l'objet communicationnel repose
ainsi sur une série d'emboîtements (approches et limites de telle ou telle théorie,
croisements et ruptures), à partir d'une perspective qui nourrit le plan de l'ouvrage: la
communication doit être appréhendée à partir de trois niveaux de pertinence, qui
définissent les trois parties. Le niveau naturel ou fonctionnel concerne les implications de
l'homme dans l'univers des objets; le niveau social ou culturel renvoie aux relations
interpersonnelles; le niveau de la créativité aux ordres sociopolitiques, à la représentation et
la régulation du nombre.
Instituant un «ordre croissant d'importance» dans ce triple phénomène naturel,
culturel et créatif, l'auteur articule son analyse des théories de la communication, d'une part
autour de la communication de masse comme «la grande affaire du siècle», d'autre part sur
un retour aux «pères fondateurs» de la sociologie (p. 13). Un «prologue» en deux

HERMÈS 37, 2003 275


Lectures

chapitres situe l'enjeu méthodologique: pour sortir des réflexions triviales sur les
dénonciations ou l'apologie des médias, il faut éclairer les motifs d'une trop longue
incompatibilité entre école critique européenne et courant pragmatique nord-américain.
La première partie s'intitule «Dénaturaliser la communication». Elle s'attaque au
«problème des effets... et comment s'en débarrasser». Passant en revue les apports
d'Adorno jusqu'à ceux de Mac Luhan, via Lazarsfeld, la cybernétique et Palo Alto, Eric
Maigret s'emploie à prouver que «les médias sont des réservoirs de formes d'action et non
des stimulateurs d'action» (p. 58). La seconde partie, «Culturaliser la communication»,
s'intéresse au «jeu entre production et réception» révélé à la fois par l'approche des
sémiologues, celle des sociologues et celle des culturalistes. La question du sens est ici
inscrite dans le quotidien du langage, des interactions et des pratiques professionnelles ou
privées: Barthes et Eco, Bourdieu et de Certeau, Stuart Hall et Schlesinger, Edgar Morin et
Howard Becker (entre autres) sont sollicités comme autant d'inventeurs des multiples
figures du «public». La troisième partie vise à «replacer les médias dans le grand bain du
social, (à) boucler la culture, non pas fonctionnellement et de façon rassurante, à la
(manière) de la cybernétique, mais démocratiquement, dans le conflit des interprétations ».
Sous un titre tout aussi programmatique que les deux précédents, «Pluraliser la
communication », elle appréhende les théories de l'opinion publique et de l'espace public
au regard d'une «nouvelle sociologie des médias», que l'auteur entend fonder sur les trois
notions-phares de démocratie, créativité et réflexivité. Alternant le recours aux grands
textes (de Kant à Habermas), aux propositions interprétatives (sur le concept d'agenda ou
la «spirale du silence», par exemple) et aux questions convenues («la communication fait-
elle l'élection?», ou «la télé-réalité est-elle dégradation ou enrichissement?»), l'auteur clôt
sa démarche pédagogique («l'étude des principales théories de la communication, leur
critique et leur mise en relation» p. 227) par un bilan ouvert où il s'agit de «passer des
médias aux médiations» (p. 239). Ce faisant, Eric Maigret apporte sa pierre à «l'entreprise
cumulative» que représente la sociologie de la communication.
L'affirmation d'un vrai «point de vue» dans ce qui aurait pu n'être qu'une énième
compilation de références rend la lecture de l'ouvrage particulièrement roborative. La
richesse des sources (dont témoigne la présence de bibliographies en fin de chaque chapitre)
a cependant pour conséquence un survol trop rapide de la nature même des travaux des
auteurs sollicités. Par ailleurs on peut regretter, en ce qui concerne l'économie politique des
médias d'une part, l'ultime chapitre sur Internet d'autre part, que l'auteur ait sacrifié à une
volonté d'exhaustivité formelle sans parvenir à la maîtrise que méritent ces sujets et dont
témoignent nombre d'autres chapitres. Le statut des «encadrés» suscite parfois le même
embarras (lorsqu'ils introduisent aux sciences cognitives, à la médiologie, aux relations
entre télévision et culture, etc., et plus encore lorsqu'ils s'insèrent après la conclusion d'un
chapitre). Mais ils sont les bienvenus pour permettre quelques mises au point fort utiles (par

276 HERMÈS 37, 2003


Lectures

exemple sur les apports de Peirce ou les méthodes d'analyse des contenus). Les figures
disséminées au fil des chapitres, trop souvent conçues sur un modèle unique, n'apportent
en revanche pas grand-chose à la démonstration.
Sur le plan éditorial, on s'étonne que des coquilles subsistent au fil des pages
(écorchant le nom des Mattelart, par exemple) et que la troisième partie soit sur-titrée avec
le titre de la seconde.
Malgré ces quelques réserves, l'ouvrage d'Eric Maigret démontre avec érudition et
conviction que « communiquer consiste à convoquer des objets, des relations sociales et des
ordres politiques» (p. 11). Sa lecture est du plus vif intérêt pour non seulement aborder,
mais aussi dépasser les difficultés d'une réflexion sur la communication, et pour inciter, au-
delà de la thématique centrale des médias de masse, à l'ouverture de chantiers sur les
nouveaux objets, nouvelles pratiques et nouvelles normativités de la communication
contemporaine.
Françoise Massit-Folléa

Fabrice D'ALMEIDA, Christian DELPORTE, Histoire des médias en France, de la


Grande Guerre à nos jours, Paris, Flammarion, coll. «Champs Université.
Histoire », 2003.

Cet ouvrage très dense et très complet est la synthèse que l'on attendait de l'émergence
en France, à partir de la fin des années 1980, d'un véritable courant de recherche florissant
d'histoire des médias. Profitant du défrichement opéré par quelques pionniers qui se firent
historiens de la presse, de nombreux chercheurs se sont emparés, à cette époque, des divers
supports médiatiques - et des technologies de communication aussi - afin d'en dresser
l'historique, d'en dépeindre les évolutions, de les mettre en contexte, en parallèle avec les
tendances lourdes de la société française et de ses institutions politiques. Ces travaux se sont
structurés, ont atteint un niveau de cristallisation qui permet de dégager des synergies et de
faire apparaître une communauté savante spécifique, dont les illustrations sont la création
de la Société pour Γhistoire des médias (www. sphm. net) et la parution, à l'automne 2003, du
premier numéro d'une nouvelle revue, sous la rédaction en chef de Patrick Éveno et
d'Isabelle Veyrat-Masson. Le directeur de cette revue n'est autre que Christian Delporte.
L'ouvrage qu'il nous propose avec Fabrice d'Almeida se veut donc un riche manuel,
exposant l'état des connaissances acquises sur cette histoire des médias en France. La
bibliographie fournie et présentée de façon thématique, l'index très complet en font un outil
très utile pour quiconque cherche à entrer dans cette histoire par un bout particulier.

HERMÈS 37, 2003 277


Lectures

L'ensemble de la période annoncée est couvert, alternant des éléments d'analyse


chronologique mettant en évidence les changements intervenus dans le paysage médiatique,
avec des analyses portant l'accent sur les problématiques dominantes de chaque période,
dans une logique de sociologie des médias. Cette alliance parfaitement tenue fait déjà de ce
livre un classique incontournable qui a vocation à devenir un ouvrage de base en la matière,
notamment pour le public étudiant. Reste à souhaiter que dans cette perspective
d'inscription du livre dans l'histoire, les auteurs sachent à terme proposer des rééditions
remises à jour, intégrant les nouveaux travaux qui font désormais florès et prolongeant
d'autant le bornage chronologique annoncé: jusqu'à nos jours...
Arnaud Mercier

Geoffrey GEUENS, TOUS pouvoirs confondus. État, capital et médias à l'ère de la


mondialisation, introduction de Jean BRICMONT, Anvers, Éditions Epo, 2003.

Dans son excellente préface à l'ouvrage de Geoffrey Geuens, Jean Bricmont pose la
question suivante: «Plus de 150 ans se sont écoulés depuis que les mécanismes de base de
la domination de classe ont été mis à jour. Et les membres de la classe dominante sont
toujours là, aussi peu nombreux qu'arrogants et sûrs de leur pouvoir. Leurs noms se
trouvent dans ce livre. Comment font-ils?» Depuis plusieurs années, Geoffrey Geuens
travaille à y répondre.
Il est banal de dire que les membres des classes supérieures, singulièrement la grande
bourgeoisie, sont plutôt avares d'informations sur eux-mêmes. Mais s'il est difficile de faire
connaissance avec ces milieux huppés, il n'en est pas moins possible de réunir sur leur
monde une foule d'informations, particulièrement éclairantes, à condition d'aller les
chercher là où elles sont. Geuens s'est donné cette peine. Il a méthodiquement rassemblé et
analysé la documentation relative à la composition de ces «lieux de pouvoir» que sont les
conseils d'administration des grandes multinationales américaines et européennes, les
personnels politiques des cabinets ministériels des différents gouvernements nationaux (de
droite et de gauche), les équipes dirigeantes des grandes institutions, les commissions
internationales, les clubs privés de l'élite, ou les rédactions des grands médias de presse, tous
ces lieux où évoluent «les architectes du Nouvel Ordre Mondial».
Travail ingrat mais maîtrisé et efficace, qui fait apparaître avec clarté non seulement la
force des positions occupées par tous ces hommes et ces femmes situés « à l'intersection des
milieux politiques, économiques et journalistiques», acteurs éminents mais somme toute
interchangeables, mais encore et surtout la puissance colossale du système de leurs relations,

278 HERMÈS 37, 2003


Lectures

qui vont de la collaboration officielle et publique jusqu'aux rapports électifs et aux échanges
privés.
On soupçonne depuis longtemps, certes, que les nantis gouvernent le monde, soit
directement, soit par élites intellectuelles et politiques interposées. Cet aspect des choses est
généralement vu comme le résultat d'une démarche conjoncturelle et intentionnelle, voire
«conspirationniste». Mais l'enquête de Geuens vise le structurel. Elle a le mérite de «mettre
en évidence la cohérence interne et les articulations le plus souvent masquées de ce réseau
d'intérêts croisés d'actionnaires, d'appareils et d'institutions diverses» qui constitue en
permanence le champ du pouvoir. Elle montre en effet que la logique du système de
domination capitaliste a besoin, pour s'accomplir, de se matérialiser dans des structures
comme celles, par exemple, de la Commission Trilatérale ou du Forum Économique
Mondial, explicitement hostiles à la démocratie jugée «obsolète», et soucieux de mener à
bien et à fond la révolution néo-libérale. Mais plus encore peut-être que de structures
objectives externes, cette logique a besoin de s'incarner dans des individus singuliers, des
«sujets» plus ou moins profondément structurés par elle, dont le destin personnel ne peut
se réaliser sans contribuer du même coup à la reproduction de leur univers social à travers
leurs choix existentiels, depuis leurs investissements scolaires jusqu'à leurs plans de carrière
et leurs stratégies matrimoniales.
L'ouvrage de Geoffrey Geuens se termine par un substantiel index des noms et des
sociétés qui permet de naviguer plus aisément dans la masse impressionnante des données
recueillies. Il est permis toutefois de regretter qu'il ne soit pas complété, ou enrichi par un
index thématique plus explicitement en rapport avec l'armature conceptuelle de l'étude.

Alain Accardo

HERMES 37, 2003 279


RESUMES - Abstracts

Régine CHANIAC, l'audience, un puissant artefact

La mesure d'audience est au cœur de l'activité des médias dits de masse: elle sert de
référence pour quantifier les auditoires et s'impose comme mode de consultation du public.
Le présent numéro d'Hermès présente tout d'abord les systèmes de mesure d'audience des
différents médias (presse, radio, télévision, câble et satellite), mettant en évidence que
l'audience est le résultat d'un ensemble de contraintes et d'un consensus toujours fragile
entre les partenaires concernés. La deuxième partie, plus particulièrement centrée sur la
télévision généraliste, analyse les effets de la concurrence (et de la logique de maximisation
de l'audience qui en découle) sur les programmes et les programmations. La partie suivante
s'interroge sur la validité de l'audience comme moyen de connaissance des publics, et sur la
possibilité de créer d'autres types de liens avec le téléspectateur. Enfin, la spécificité
d'Internet par rapport aux médias traditionnels permet d'affirmer que la mesure d'audience
n'y jouera sans doute jamais le rôle central, un nouveau mode de relation s'instaurant avec
l'usager.
Mots-clés: médias de masse, mesure d'audience, programmation, programmes, public, usager.

Audience, a powerful artefact

Audience researches are at the centre of mass medias activity: they serve as a reference to
quantify viewers and are considered to he THE way to survey audiences. This issue of Hermes
first presents different audience ratings systems used by media (press, radio, television, multi-
channel television), emphasizing the fact that audience is the result of many constraints and of
an always weak consensus between partners concerned. The second part, more particularly
focused on traditional channels, analyses competition effects (and the logic of audiences
maximization resulting) on schedules and programming. The following part questions
audience s validity as a mean to get to know viewers, and also questions the possibility to create
other types of links with the viewer. Eventually, Internefs specificity in regard with traditional

HERMÈS 37, 2003 281


Résumés - Abstracts

media allows to observe that audience rating might never play a central role in it, a new type
of relations being created with users.
Keywords: mass media, audience rating, programming schedule, audience, user.

Emmanuel FRAISSE, Que mesure-t-on quand on mesure l'audience?

La mesure d'audience, comme toute statistique, est une construction qui tente de
rendre compte du réel. Elle constitue une application des sondages et doit son originalité à
ses implications économiques, puisque les résultats d'audience constituent la clé de
répartition de la manne publicitaire et conditionnent la viabilité de la plupart des supports.
Si la notion d'audience est simple («la fraction de la population de référence exposée à un
média»), la définition de cette «exposition» et la manière de la relever sont problématiques.
D'où un certain nombre de conventions, différentes selon les médias, pour aboutir à une
délimitation plausible des faits d'audience, malgré la multiplicité des modalités selon
lesquelles un individu est susceptible d'entrer en contact avec un média et les contraintes
inhérentes au recueil d'information.
Mots-clés: mesure d'audience, médias, supports publicitaires, statistiques, recueil
d'information, presse, audiovisuel.

What is measured with audience measurement ?

Audience measurement, as any statistics, is a construction which tries to report reality. It


consists in a kind of survey and owes its originality to its economical involvements, since
audience results are the distribution key of the advertising revenue and condition the
economical viability of most media. If the notion of audience is quite simple ("the part of
population exposed to a media"), this "exposition's" definition and the way to survey it are
problematical. From which one concludes that a certain amount of agreements, which differ
according to the media, to reach a plausible delimitation of audience facts, despite the
multiplicity of means thanks to which an individual is likely to come into contact with a media
and the constraints inherent to the information collected.
Keywords: audience measurement, media, statistics, information collection, press, audiovisual.

282 HERMES 37, 2003


Résumés - Abstracts

Jean-Marie CHARON, Presse écrite: du tirage au lectorat

La notion d'audience n'apparaît que dans les années cinquante pour la presse écrite,
soit tardivement. La méthodologie mise en œuvre butte sur le nombre de titres, la diversité
des situations de lecture, l'obligation de faire appel à la mémoire du lecteur. Les enquêtes
s'opèrent par questionnaires sur de très vastes échantillons. L'amélioration de la procédure
a permis d'élargir le champ des questions couvertes, d'accélérer et lisser les conditions de
collecte, mais le nombre de titres étudiés reste forcément restreint, nécessairement limité
aux plus grosses diffusions (contrainte statistique). Il est significatif que les divisions entre
quotidiens et magazines se soient manifestées très tôt sur l'étude d'audience, chaque forme
de presse réalisant la sienne.
Mots-clés: presse écrite, quotidiens, magazines, audience, enquête, méthodologie.

Written press: from circulation to readership

It is not until the 50s that the notion of audience appeared in the Press, very recently
indeed! The methodology used is exposed to the great number of titles, a wide range of reading
context and the necessity to appeal to the reader s memory. Surveys are carried out through
qustionnaires based on a wide range of samples. The improvement of the process has enabled
us to extend the field of questions at issue, to speed up and improve data collecting, but they
are exposed to the number of titles under study, inevitably limited, and indeed limited to the
largest issues (statistical constraint). It is of importance to note that because many publishers
carried out their own audience surveys at an early date, thus the division between daily papers
and magazines also appeared very early.
Keywords: written press, daily papers, magazines, audience, survey, methodology.

Marie-Dominique CHEVREUX, La radio pionnière

Placée dans un univers concurrentiel depuis longtemps, la radio est le premier média
à s'être doté d'un outil de mesure d'audience, dès 1949. Médiamétrie, chargée de la
mesure d'audience des stations nationales et locales, propose aujourd'hui deux outils
complémentaires. L'enquête 75 000+ (du nombre de personnes interviewées par an),
réalisée chaque jour par téléphone, porte sur l'écoute des 24 dernières heures. Le panel,
périodique, demande à un même échantillon de remplir pendant trois semaines un carnet
d'écoute. Les indicateurs utilisés en radio comptabilisent soit des individus, quelle que
soit leur durée d'écoute (audience cumulée), soit des audiences, c'est-à-dire des

HERMÈS 37, 2003 283


Résumés - Abstracts

«auditeurs x quarts d'heure» (audience moyenne, part d'audience). Depuis fin 2002, les
auditeurs de 13-15 ans sont pris en compte. L'audimétrie passive (sous la forme de
montres) pourrait remplacer prochainement les enquêtes qui font appel à la mémoire de
l'auditeur.
Mots-clés: radio, mesure d'audience, public, auditoire, audience, indicateurs.

The pioneer radio

Put into a competitive universe since a long time, radio is the first media that has given
itself an audience measurement system, as soon as 1949. Médiamétrie, in charge of audience
measure for national and local radio stations, now proposes two complementary tools. The
"75 000+ survey" (referring to the number of people interviewed per year), made each day by
phone, is focused on the last 24 hours listening. The panel, which is periodic, requires a same
sample to fill in, during three weeks, a listening diary. Indicators used in radio either count up
individuals, whatever their listening time is (coverage), or audiences, that is to say "listeners χ
quarter of an hour" (rating, share).
Since the end of 2002, listeners from 13 to 15 years old are taken into account. Passive
metering (thanks to clocks) could in a little while replace surveys, based on listener s memory.
Keywords: radio, audience measurement, audience, listeners, indicators.

Régine CHANIAC, Télévision: l'adoption laborieuse d'une référence unique

L'évolution de la mesure d'audience TV est indissociable des principales étapes qui ont
mené d'une télévision publique en situation de monopole à un système mixte public/privé.
Les résultats du panel postal de l'ORTF, premier dispositif fiable et permanent (à partir de
1967), sont réservés aux seuls dirigeants des chaînes, afin d'éclairer une politique de
programmes encore volontariste, tandis que le CESP mène une enquête parallèle à
destination de la profession publicitaire. La montée de la compétition entre chaînes
publiques s'accompagne de l'attention croissante accordée à l'audience et, en 1982, la mise
en place de l'audimétrie-foyer représente une véritable révolution, par la rapidité et la
précision des résultats obtenus. Avec l'arrivée des chaînes commerciales et la concurrence
entre diffuseurs qui en résulte, les publicitaires sont en mesure d'exiger leur participation
au contrôle de l'outil géré par Médiamétrie et imposent l'audimétrie individuelle
(Médiamat, 1989), qui permet un suivi par cible.
Mots-clés: mesure d'audience, télévision, concurrence, publicité, audimétrie-foyer, audimétrie-
individu, part d'audience.

284 HERMÈS 37, 2003


Résumés - Abstracts

Television: A hard way to adopt a single reference

Evolution of TV audience research is un-dissociable from the main stages which led from
a state owned channel without competition to a system joining public and commercial
channels. Results from the ORTF mailed panel, first reliable and permanent device (since
1967), are reserved to no more than channel's executives, in order to lighten a program policy
still willing, whereas CESP is conducting a parallel survey used by advertisers. Growing
competition between public channels comes with growing attention paid to audience and, in
1982, the setting of TV meter represents a real break, since results are rapidly obtained and
precise. With the arriving of commercial channels and resulting competition between
broadcasters, advertisers have the power to require their participation to the control of the
Médiamétrie system and impose people meter, which allows calculating audience by target.
Keywords: audience research, television, competition, advertisement, TV meter, people meter,
share.

Olivier APPÉ et Jean MAUDUIT, Câble et satellite: il était une fois MédiaCabSat

Depuis 2001, MédiaCabSat est l'outil spécifique de la mesure d'audience des chaînes
diffusées par câble et satellite, mis en place par Médiamétrie pour répondre à l'enjeu de la
multiplication des chaînes thématiques. L'audimétrie, qui permet l'enregistrement de
l'écoute sur l'année entière, avec identification automatique des chaînes, a été adoptée. À
l'origine, le panel est constitué de 830 foyers, dont les 480 foyers du panel Médiamat qui
reçoivent l'offre élargie. L'échantillon, qui doit être représentatif des différentes offres
élargies reçues, a été construit à partir d'une enquête nationale de cadrage (75 000+). Pour
assurer une fiabilité statistique satisfaisante, malgré la faiblesse de l'échantillon et le grand
nombre de chaînes suivies (70 à l'origine), le choix a été fait de fournir des résultats cumulés
sur six mois. Les principales caractéristiques de la population disposant d'une offre élargie
sont maintenant connues avec précision.
Mots-clés: mesure d'audience, câble, satellite, chaînes thématiques, échantillon.

Cable and Satellite: once upon a time MédiaCabSat

Since 2001, MédiaCabSat is the specific tool for audience rating of channels broadcast
through cable and satellite set by Médiamétrie, to answer the stake of thematic channels'
multiplication. Metering, which records the viewing for the whole year, with automatic
identification of channels, was passed. At the beginning, the panel is constituted of 830 homes,

HERMÈS 37, 2003 285


Résumés - Abstracts

among which the 480 Mediamat panel's homes, which receive the "enlarged offer". The
sample, which has to be representative of the different offers received, was built from a national
centring survey (75 000 +).. To insure satisfying statistic reliability, despite the samples
weakness and the important number of channels followed (70 at the beginning), the choice was
made to furnish results reached for six months. The main characteristics of the population,
disposing an enlarged offer, are now precisely known.
Keywords: audience research, cable, satellite, thematic channels, sample.

Etienne MOUGEOTTE, La loi d'airain du médiamat

La mesure d'audience joue un rôle très important dans les décisions prises dans une
chaîne comme TF1, qui ne vit que de la publicité. Nous faisons une télévision de la
demande et le résultat d'audience exprime une forme de satisfaction du public. Toutefois,
c'est un chiffre relatif, qui mesure l'état de la concurrence à un moment donné; un chiffre
abstrait, qui moyenne des départs et des arrivées; et un chiffre rétrospectif, qui montre ce
qui s'est passé mais ne dit pas ce qu'il faudrait faire pour que cela marche. C'est pourquoi
l'audience est d'une faible utilité pour concevoir les programmes. Il n'y a pas de
renouvellement de la grille sans prise de risque. Les études peuvent nous aider à saisir des
tendances, à confirmer des hypothèses. Mais l'intuition et l'expérience sont essentielles
pour prendre la décision d'arrêter une émission ou d'essayer de l'améliorer, et pour créer
de nouveaux programmes.
Mots-clés: mesure d'audience, public, demande, satisfaction, cibles, chaîne généraliste,
programmes.

The "Loi d'airain" of people meter

Audience research plays a pretty great role in decisions made in such a channel as TFl,
which only lives on advertisement. The television we build is based on demand and audience
result expresses kind of a public satisfaction. However, it is a relative figure, which measures
the state of competition at a given time; an abstract figure; which ponders viewing rises and
falls; and a retrospective figure, showing what has been taking place but not what should be
done to make it work. Therefore, audience is of little utility to conceive programs. It's
impossible to renew the schedule without taking risks. Surveys can help us to seize trends, to
corroborate hypothesis. But intuition and skills are essential to make decision to stop a
broadcast or try to improve it, and to create new programs.
Keywords: audience research, audience, demand, satisfaction, targets, general channel, programs.

286 HERMÈS 37, 2003


Résumés - Abstracts

Jean-Pierre COTTET, Il n'y a pas de service public sans public

L'État actionnaire de la télévision publique est soucieux du rendement social de son


investissement. Les programmes des chaînes publiques doivent être globalement vus par le
plus grand nombre. Mais en même temps, chaque entité du service public doit respecter un
cahier des charges et ne peut être une simple addition de «pièges à audience». Au
programmateur de gérer ces paradoxes en forgeant une grille qui s'appuie sur ces
contraintes et affirme la relation particulière de chaque chaîne avec le public. L'audience est
la récompense d'une programmation généreuse, qui prend des risques et produit du sens.
La grille de France 3 s'est construite autour des concepts de proximité et de curiosité;
France 2 doit être une grande chaîne de divertissement, d'information et de création;
France 5 est une chaîne pédagogique qui tente d'apporter à certains publics qui en ont
besoin (notamment les jeunes), des clés pour mieux comprendre la réalité de tous les jours.
Mots-clés: audience, public, télévision publique, missions, programmation, cibles, jeunes.

There are no public service broadcasting without Audience

State, shareholder of public television, is concerned about his investment's social profit.
Public channels' programs generally have to be seen by most people. But in the same time, each
public channel has to respect obligations and cannot be a simple accumulation of "audience
traps". It is the programmer responsibility to manage these paradoxes building a schedule,
which leans on these constraints and affirms each channel's particular relation with the public.
Audience is the award for a generous scheduling, taking risks and making sense. France 3's
programming was built around proximity and curiosity concepts; France 2 has to be a great
entertainment, information and creation channel; France 5 is an educative channel aiming to
bring to certain audiences who need it (particularly young people), keys to better understand
everyday reality.
Keywords: audience, public service television, aims, scheduling targets, young people.

Éric MACÉ, Le conformisme provisoire de la programmation

Après avoir montré que l'audience mesurée par l'audimat n'est pas l'expression du
public de la télévision mais un indicateur abstrait nécessaire au financement publicitaire,
l'article relativise la place de l'audimat (qui n'est qu'un indicateur ex-post) dans
l'orientation même de la programmation. Comme toute industrie culturelle, la télévision
doit prendre en compte la diversité du «grand public» et l'instabilité socio-historique de ce

HERMÈS 37, 2003 287


Résumés - Abstracts

qui est « recevable » et « désirable » par le plus grand nombre. Les programmes de télévision
apparaissent ainsi comme des paris fondés sur des « théories » du public et du monde social
concernant «ce qui intéresse les gens». D'où l'intérêt sociologique du «conformisme
instable» de ces programmes qui permet d'accéder aux diverses manières dont peuvent se
«dire», à travers les spécificités de la médiation médiatique, les sociétés.
Mots-clés: télévision, audimat, public, programmation, médiation, représentations culturelles.

The changeable conformism of programme planning

First of all, the paper demonstrate that ratings are not the audience but a useful
commercial artefact for cultural industries. Moreover, one can shows that the (ex-post) ratings
are not the main factor of television programme planning. Another approach may be to
consider television as a risk industry, which have to deal with diversity and instability of both
its social and cultural context of production and reception. In that way, television programme
planning is a very specific mediation concerning "how to interest people" - without guarantees.
So it would appear that television culture is the expression of the shifting frames of social world
representations.
Keywords: television, audimeter, audience, programme planning, mediation, cultural
representations.

Patrick CHAMPAGNE, L'audimétrie, une censure politique cachée

Contrairement à ce que l'on admet généralement, la mesure de l'audience en continu


(«l'audimat»), bien que l'instrument ait été inspiré par les publicitaires et serve en principe
à la fixation des tarifs des spots de publicité, ne signifie pas la fin de la censure politique au
profit d'une pure soumission aux logiques économiques. La course à l'audience entre les
chaînes généralistes, loin de favoriser une diversification de l'offre de programmes, a
conduit à une recherche des programmes rassemblant le maximum de téléspectateurs. Tout
se passe comme si les programmes étaient désormais soumis au vote des téléspectateurs dans
une sorte de «démocratie culturelle». La mesure de l'audience instantanée a ainsi imposé,
dans le domaine culturel, un nouveau principe de légitimité, hétéronome parce que
politique, qui repose sur la loi de la majorité.
Mots-clés: sondages, audience, télévision, publicité, légitimité démocratique.

288 HERMES 37, 2003


Résumés - Abstracts

Metering, a hidden political censorship

Contrary to what is generally admitted, non-stop rating ("audimat"), although a tool


designed by advertisers and supposed to allow evaluation of advertising spaces' tariffs, doesn't
mean that political censorship is being replaced by pure submission to economical logics.
Competition for audience between traditional channels, far from enabling variation of the
scheduling, led to the research for programs gathering the maximum of viewers. Everything
goes as if programs were from now submitted to the viewers vote in kind of a "cultural
democracy". Instant ratings imposed; in the cultural field, a new principle of legitimacy,
heteronym because political; which lays on the majority law.
Keywords: polls, audience, television, advertising, legitimacy.

Yves JEANNERET et Valérie PATRIN-LECLÈRE, Loft Story 1 ou la critique prise au


piège de l'audience

L'émission de télévision française Loft Story, diffusée au printemps 2001, peut être
interprétée comme le signe de l'aboutissement de la logique de l'audience dans le régime
télévisuel. Nous proposons ici de montrer que le diffuseur et le producteur ont agencé une
industrialisation de l'audience et orchestré une instrumentalisation de la critique.
Industrialisation de l'audience en ce sens que tous les ressorts déjà expérimentés ailleurs ont
été utilisés ici pour maximiser le nombre de téléspectateurs réunis devant leur écran et pour
optimiser la vente de l'espace publicitaire aux annonceurs. Et surtout, instrumentalisation
de la critique car la pluralité des voix qui se sont élevées pour discuter du sens social de ce
programme de «télé-réalité» a tout à la fois masqué la finalité strictement économique du
dispositif et participé à sa réussite.
Mots-clés: audience, critique, industrialisation, téléréalité, trivialité.

Criticism trapped by rating: Loft Story, french remake of Big Brother

The French television program "Loft Story", which broadcasted in spring 2001, can be
interpreted as the ultimate illustration of the drive towards rating in television. We propose to
show that the broadcasters arranged an 'industrialization ' of the rating and orchestrated a
reaction by critics. Industrialization of the rating in the sense that all the methods previously
established were used here to maximize the number of the televiewers and to optimize the
exposure of advertisements. And more particularly their orchestration of a reaction by critics,
which was illustrated in the abundancy of the voices rising to discuss the social connotations

HERMÈS 37, 2003 289


Résumés - Abstracts

of this "reality television" program. This not only masked the financial purpose of the program
but also contributed to its success.
Keywords: audience rating, criticism, industrialization, real TV, triviality.

Michel SOUCHON, Pour une utilisation complexe de l'audimétrie

La plupart de ceux qui dénoncent «la dictature des sondages» et beaucoup de ceux qui
utilisent les résultats audimétriques ont une vision simpliste des données, vision centrée
essentiellement sur la part de marché et le nombre de spectateurs. Cet article veut montrer
qu'il est possible de construire, à partir des données de l'audimétrie, des modèles statistiques
un peu compliqués, et de faire ainsi une utilisation intelligente et féconde de cet instrument.
A partir des données présentées sous forme d'heures-spectateurs, les indicateurs statistiques
proposés ici (par exemple, la structure du volume d'écoute par genres, ou l'indicateur
d'intérêt) permettent d'abord une connaissance sérieuse des comportements et des réactions
des différentes composantes du public de la télévision, connaissance indispensable aux
responsables de la programmation. Ils permettent encore d'évaluer les politiques des sociétés
de programmes, notamment celles des télévisions publiques.
Mots-clés: audimétrie, indicateurs, statistiques, public, comportements, programmation.

For a complex use of people metering

Most of those who proclaim "polls dictatorship" and many of those who use meter ratings
have a caricatured vision of data, essentially focused on market share and the quantity of
viewers. This paper aims to show it is possible to build, based on metering data, statistic
patterns a bit complex, and thus to make a clever and fertile use of this tool. Based on data
presented as viewers per hour, statistics measures proposed here (for instance, structure of
viewing time by categories of programs (chercher "genre"), or interest measure) first enable a
serious knowledge of television audience behaviour, essential to programme planners. They
also enable to evaluate channels programming policies, particularly those of public ones.
Keywords: metering, indicators/clues, statistics, audience, behaviours, programme planning.

Sophie BENOIT, Une direction des études dans une chaîne de télévision publique

Il est essentiel pour une chaîne de télévision, qu'elle soit publique ou privée, de
connaître son public. Le groupe Francetélévisions s'est doté d'une direction d'études

290 HERMÈS 37, 2003


Résumés - Abstracts

commune et de trois directions affiliées à chaque chaîne pour regrouper et analyser


l'ensemble des données disponibles sur l'auditoire de la télévision. Face à la variété des
outils et à la profusion des données, il est primordial de bien sélectionner ce qui est le plus
pertinent pour répondre aux demandes des responsables de programme et de
programmation. La direction des études décortique les résultats d'audience par cible et
utilise les logiciels permettant de suivre les flux de publics, les reports d'une chaîne à
l'autre, etc. Les études qualitatives sont indispensables pour anticiper les réactions du
public, pour améliorer un programme. Des sondages proposés par des instituts spécialisés
complètent ces études internes (baromètres d'image, enquêtes budget-temps, évolutions
sociologiques, etc. ).
Mots-clés: chaîne publique, public, études, audience, cibles, programmation, programmes.

An audience research department in a public channel

J/ is essential for some television channels, whether it is public or private, to know its audience.
Francetélévisions group has given itself a common research direction and three directions
affiliated to each channel to assemble and analyse the whole available data on television's
audience. Facing tools variety and datas abundance, it is imperative to well select what is most
relevant to answer demands coming from programme planners. Studies management
decorticate audience ratings per target and uses software allowing following audience flows,
reports from one channel to another, etc. Qualitative studies are essential to foresee audiences
reactions, to improve a program. Surveys proposed by specialised institutes complete these
intern studies (barometer, budget-time surveys, sociological evolutions, etc. ) .
Keywords: public channel, studies, audience, targets, programming programs.

Dominique BOULLIER, Du téléspectateur consommateur au téléspectateur


citoyen

Plutôt que de se plaindre de la mesure d'audience marchande, performante dans son


domaine, il serait temps de mettre en place un dispositif instituant un lien durable avec le
téléspectateur citoyen et comportant mesure technique, critères, instance de contrôle et de
sanction. Plusieurs pistes sont examinées, comme les associations, les revues, les formes
démocratiques classiques. Il est plutôt proposé, sur la base de théories de la justice, de
combiner à la fois un «indice agrégé de qualité civique», un label et une extension des
formes de représentations au sein du CSA.
Mots-clés: audience, citoyenneté, dispositifs, qualité, autorité, service public, justice.

HERMÈS 37, 2003 291


Résumés - Abstracts

The TV viewer: from a consumer to a citizen

Instead of complaining about the success and hegemony of commercial audience ratings,
one should contribute to the design of a different relationship with the "citizen-TV viewer",
built upon measurement devices, specific criteria, control and retaliation bodies. Different
solutions are assessed, such as viewers'associations, TV journals, traditional democratic
representation. Theories of justice lead to a proposal combining a "civic quality agregated
ratio", a "civic label", and an extension of the representation system for the regulation body,
the "Conseil Supérieur de l'Audiovisuel".
Keywords: audience, citizenship, quality, authority, public utility, equity.

Marc TESSIER, Le téléspectateur, au cœur de la télévision publique

La réflexion sur la contrepartie que la télévision publique doit offrir au paiement de la


redevance par l'ensemble des téléspectateurs relève d'un débat public orchestré par les
représentants de l'Etat. La télévision publique ne peut se soustraire à une mesure de son
audience, mais peut proposer des critères d'évaluation appropriés, comme les indicateurs
d'audience cumulée qui expriment l'étendue du public touché. Plus fondamentalement,
afin de développer le dialogue avec le public, France Télévisions a instauré un droit de
chaque téléspectateur à être écouté, à obtenir une réponse et à s'assurer que ses remarques
seront considérées avec respect, à travers un dispositif de médiateurs et un service de
relation avec les téléspectateurs.
Mots-clés: télévision publique, audience cumulée, droits du téléspectateur, médiateur, relation.

The televiewer, in the heart of public service broadcasting

The reflexion on the counterpart which public television must offer to the payment by the
whole of the televiewers of the special tax is dependent on a public discussion orchestrated by
the representatives of the State. Public television cannot be withdrawn from a measurement of
its audience, but can propose adapted criteria of evaluation, like the indicators of reach which
express the extent of the touched public. More basically, in order to develop the dialogue with
the public, France Televisions founded a right of each televiewer to be listened, to obtain an
answer and to make sure that its remarks will be considered with respect, through a device of
mediators and a service of relation with the televiewers.
Keywords: public service broadcasting, reach, viewers rights, mediator, relation.

292 HERMES 37, 2003


Résumés - Abstracts

Jean-Pierre JÉZÉQUEL, Nouvelle économie: entre unité et diversité

Ce qu'on désigne par «nouvelle économie» regroupe un ensemble d'activités


disparates: électronique, informatique, télécommunications, audiovisuel. Ces secteurs ont
un certain nombre de caractéristiques communes qui peuvent justifier leur rassemblement
dans une seule catégorie: économies d'échelle avec le développement de leur taille,
productivité accrue, élévation du niveau de concurrence. Mais cela ne saurait cacher la
profonde diversité des logiques de marché à l'œuvre dans les différentes formes d'activité.
Internet représente à cet égard un bon exemple de la variété des modèles économiques qui
devraient assurer les fondements des divers services présents sur la «toile». Même pour des
services qui ressemblent, ou peuvent être assimilés, à l'offre de programmes télévisés,
l'indicateur d'audience, tel qu'il est utilisé en télévision classique, ne pourra jouer le rôle
central qu'il occupe dans cette dernière. D'autres instruments de régulation économique
sont à (ré)inventer.
Mots-clés: productivité, concurrence, modèle économique, individualisation, traçabilité de
l'usager.

"New economy" between unity and diversity

What is appointed by "new economy" gathers a set of ill-matched activities: electronics,


computer science, and telecommunications, audiovisual. These sectors have some
characteristics in common which can justify their gathering in one sole category: scale economy
with their size's development, increased productivity, level of competition increased. But, this
cant hide the deep diversity of market logics used in these different forms of activity. In this
respect, the internet represents a good example of economic models diversity which should
insure bases for various services available on the "net". Even for services, which look like, or
can be assimilated with the television program offer, audience s indicator, as used in classical
television, will not be able to play the central role it now occupies in the former. Other
economics regulation tools have to be (re)invented.
Keywords: productivity, competition, economical pattern, individualisation, user's traçabilité.

Josiane JOUËT, La pêche aux internautes

Après avoir questionné l'application de la notion d'audience à Internet, l'article se livre


à une analyse critique des dispositifs de mesures et d'études d'audience qui reposent sur un
agencement d'outils informatiques, statistiques et marketing. Les mesures de trafic (panel

HERMÈS 37, 2003 293


Résumés - Abstracts

d'internautes, relevé des fréquentations de sites) et les enquêtes en ligne ne sont pas tant
conçues pour la connaissance des publics que comme outils stratégiques pour la conception
de site, la publicité et le commerce électronique. Outre les enjeux déontologiques soulevés
par l'exploitation des traces laissées par les internautes, ces dispositifs produisent des
modèles de quantification des utilisations qui ne permettent pas de saisir l'usage social du
média.
Mots-clés: Internet, audience, méthodologie, marketing, usages.

The fishery of Internet users

After questioning whether the concept of "audience" is applicable to the Internet, this
article provides a critical analysis of Internet audience studies, which are based on a
combination of informatics tools, statistics, and marketing. It analyzes the different
methodologies used to measure audiences (user centric and site centric devices), as well as
online surveys. These devices are mainly used as strategic tools for advertising and electronic
commerce. While Internet audience studies raise ethical issues about the protection of
users privacy, they merely build empirical models that do not allow us to grasp the social uses
of Internet.
Keywords-. Internet, audience, methodology, marketing uses.

Hubert BOUCHET, Dans la toile: araignée ou abeille

Détenir des informations stratégiques sur autrui a toujours été un enjeu. Avec l'entrée
dans le monde industriel marchand et le développement corrélatif de l'offre, le souci de la
connaissance de l'autre en tant qu'acheteur potentiel est apparu: les sondages se sont
développés pour recueillir des éléments collectifs d'information sur les pratiques, les
opinions, etc. Internet introduit une rupture en permettant la connaissance la plus fine des
pratiques individuelles: chaque transaction laisse une trace sur le réseau, l'informatique
permet de stocker et réunir automatiquement les informations concernant chacun, au risque
d'atteindre aux libertés individuelles. La Commission nationale de l'informatique et des
libertés (Cnil), autorité instituée par la loi Informatique et libertés (1978), a vocation à
veiller au respect des droits des citoyens confrontés à des techniques de plus en plus
intrusives.
Mots-clés: information, citoyen, informatique, réseau, fichiers, vie privée, libertés individuelles
ou publiques.

294 HERMÈS 37, 2003


Résumés - Abstracts

On the net: spider or bee

To detain strategic information about one another has always been a stake. Entering the
industrial marketing world and the correlative development of the offer, the will to know
people as potential consumers appeared: polls developed to gather collective information pieces
about practices, opinions, etc. The internet introduces a break allowing the sharpest knowledge
of individual practices: each transaction leaves a trace on the network, processing allows to
stock and gather automatically information pieces concerning each, risking impairment to
individual liberties. The Cnil (national commission for information and liberties), authority
instituted by the Information and Liberties law (1978), is aimed at ensuring citizens rights
respect confronted to still more intrusive technologies.
Keywords: information, citizens, processing network, files, private life, individual or public
liberties.

Alain LE DIBERDER, La mesure d'audience des nouveaux médias: une bonne


réponse mais quelle est la question ?

En matière d'audience, la qualité technique du dispositif de mesure ne suffit pas. La


pertinence des concepts mesurés et leur insertion dans un processus de prise de décision
sont déterminants. Les chaînes généralistes bénéficient de toute une tradition préalable à
l'audimétrie et d'un savoir qualitatif permettant une utilisation complexe de données
d'audience en phase avec leur économie. À l'inverse, les chaînes thématiques sont
dépendantes de chiffres insuffisants à eux seuls pour juger de leur viabilité économique et
qui sont utilisés à défaut de tout autre outil de réflexion. Elles feraient bien de tirer parti des
leçons de la crise des sites web pour comprendre que leur économie ne repose pas
principalement sur leur part d'audience, mais plutôt sur la satisfaction d'un public fidèle et
sur un équilibre entre coûts réels et recettes à court terme.
Mots-clés: audience, usage, nouveaux médias, chaînes thématiques, sites web, processus de
décision, économie.

The measurement of audience of the new medias: a good answer but what is the
question ?

As regards audience, the technical quality of the device of measurement is not enough.
The relevance of the measured concepts and their insertion in a process of decision-making are
determining. The TV profit from a whole tradition preliminary to the people metering and

HERMÈS 37, 2003 295


Résumés - Abstracts

from a qualitative knowledge allowing a complex use of data of audience in phase with their
economy. On the contrary, the thematic TV are dependent on figures insufficient, if they are
alone, to judge their economic viability and which are used in the absence of all other tool of
reflexion. They would make well benefit from the lessons of the crisis of the Web sites to
understand that their economy does not rest mainly on their share, but rather on the
satisfaction of a faithful public and on a balance between real costs and short-term receipts.
Keywords: audience, use, new medias, thematic TV, Web sites, decision-making process,
economy.

296 HERMES 37, 2003


LES AUTEURS DE HERMÈS 37

Olivier Appé, directeur du département Télévision de Médiamétrie. Diplômé d'HEC, il a


commencé sa carrière dans une agence de publicité, puis à la Sofrès pendant sept ans. Après
un premier passage à Médiamétrie (1989-1990), il devient directeur du marketing et des
études de M6 Publicité (1990-1997), avant de revenir à Médiamétrie pour son poste actuel,
en 1997.
Sophie Benoit, directrice adjointe des études de France Télévisions, directrice des études
de France 2.
Hubert Bouchet, secrétaire général de l'Union des cadres et ingénieurs Force ouvrière,
membre du Conseil économique et social, vice-président délégué de la Commission
nationale de l'informatique et des libertés (Cnil). Il est notamment l'auteur du rapport sur
« Les leviers immatériels de l'économie française » (1994), au Conseil économique et
social.
Dominique Boullier, anthropologue, professeur à l'université de technologie de
Compiègne, directeur de Costech (Connaissance, organisation et systèmes techniques). La
Conversation télé, L'Harmattan, 2003.
Patrick Champagne, sociologue à l'Institut national de la recherche agronomique (Inra) et
au Centre de sociologie européenne (EHESS). Il est l'auteur de Faire l'opinion. Le nouveau jeu
politique, Paris, Éditions de Minuit, 1989 (2e édition avec une préface, 2001) et de nombreux
articles sur le champ journalistique dans la revue Actes de la recherche en sciences sociales.
Régine Chaniac, directeur de recherche à l'Institut national de l'audiovisuel (Ina).
Sociologue, ses travaux ont pour objet la télévision, et notamment l'évolution des programmes
et des programmations, à l'échelle française et européenne, l'analyse des comportements du
public et, plus généralement, le rôle culturel des médias. Dernier ouvrage p a r u : Télévision et
cinéma. Le désenchantement (avec Jean-Pierre Jézéquel), Paris, Nathan, 1998.

HERMÈS 37, 2003 297


Les auteurs de Hermès 37

Jean-Marie Charon, sociologue au Centre d'étude des mouvements sociaux (CEMS),


spécialiste des médias, EHESS, ingénieur CNRS.
Marie-Dominique Chevreux, directrice des études de Radio France.
Jean-Pierre Cottet, directeur général de France 5. A commencé sa carrière comme
journaliste dans la presse écrite et en radio, avant de devenir producteur (directeur général
de la société Col-Ima-Son, de 1976 à 1 9 8 5 ; puis de Caméras continentales, de 1985 à 1993)
et distributeur (Amaya Distribution, 1990-1993). Il devient ensuite directeur de l'antenne et
des programmes de France 3 (1994-1996), directeur général chargé de l'antenne de France
2 (1996-1998), avant de rejoindre France 5 à son poste actuel depuis 2000.
Emmanuel Fraisse, directeur général du Centre d'étude des supports de publicité
(CESP). Diplômé de l'ESSEC et docteur en psychologie sociale, il a fait l'essentiel de son
parcours en instituts d'études (Secodip, Ifop) et a été notamment à la tête du département
Médias de la Sofrès pendant dix ans, avant son arrivée au CESP à son poste actuel, en 1995.
Yves Jeanneret, professeur de sciences de l'information et de la communication à
l'université de Paris 4 Sorbonne, École des hautes études en sciences de l'information et de
la communication (Celsa) et chercheur au CNRS, laboratoire Langages, logiques,
informatique, communication, cognition (LaLICC). Il travaille sur la trivialité des valeurs
culturelles, sur les formes d'écriture et sur les transformations médiatiques. Il a publié
récemment Y a-t-il (vraiment) des technologies de l'information ?, Presses du Septentrion,
2000.
Jean-Pierre Jézéquel, directeur de recherche à l'Institut national de l'audiovisuel (Ina).
Économiste de formation, il a exercé ses premières fonctions à l'ORTF puis à l'Ina où il
dirige des travaux de recherche depuis 1987. Ceux-ci concernent tout particulièrement les
questions de production et de programmation de la télévision. Dernier ouvrage paru
Télévision et cinéma, Le désenchantement (avec Régine Chaniac), Paris, Nathan, 1998.
Josiane Jouët, professeur en sociologie de la communication à l'Institut français de presse,
université Paris II, Panthéon-Assas. Elle y assure la responsabilité du DEA « Audiences,
réception, usages des médias et du multimédia ». Ses travaux portent principalement sur
les usages des nouvelles technologies de l'information et de la communication. Elle a
notamment co-dirigé (avec Dominique Pasquier) le dossier de la revue Réseaux sur « Les
jeunes et l'écran » (n° 92-93, 1999) et publié un important article « Retour critique sur la
sociologie des usages » dans Réseaux, n° 100 (2000).
Anne-Marie Laulan, président d'honneur de la Société française des sciences de
l'information et de la communication (SFSIC). Professeur émérite de sociologie, université
de Bordeaux; spécialiste des relations entre identités culturelles et modernisation.

298 HERMÈS 37, 2003


Les auteurs de Hermès 37

Alain Le Diberder, président-directeur général de la société CLVE (Communication and


life in virtual environments), qui développe des logiciels destinés à la gestion des réseaux de
relations personnelles, et consultant en matière de nouveaux médias. Directeur du
département communication du BIPE, à partir de 1983, il devient directeur de la recherche
et des études de France Télévision, de 1991 à 1994, et dans ce cadre, administrateur de
Médiamétrie. Il publie plusieurs ouvrages et de nombreux articles portant notamment sur
l'audience de la télévision. Ensuite, il lance sur Canal Plus plusieurs émissions et les sites
Web du groupe, avant de partir en 2000, en désaccord avec la stratégie Internet menée alors
par Vivendi.
Éric Macé, Centre d'analyse et d'intervention sociologiques (Cadis), EHESS, CNRS.
Université Paris III, Sorbonne nouvelle.
Jean Mauduit, conseiller de la présidence de Médiamétrie. Ancien élève de l'Ecole
normale supérieure, docteur ès-lettres et sciences humaines, a fait toute sa carrière dans les
médias, notamment à Elle, dont il a été secrétaire général et au groupe Hachette comme
directeur de la communication. Il a été président de l'Irep (Institut de recherche et d'études
publicitaires) et du CRTM (Club de recherche tous médias) et administrateur de
Médiamétrie au titre de Publicis.
Étienne Mougeotte, vice-président de TF1, directeur général de l'antenne. A commencé
sa carrière de journaliste en 1965 à France-Inter, puis Europe 1, avant de passer à la
télévision en 1969 dans l'équipe d'Information Première, dirigée par Pierre Desgraupes sur
la première chaîne. Sa carrière se poursuit ensuite entre la radio (RTL, Europe 1, où il est
directeur de l'information de 1974 à 1981) et la presse (il est notamment directeur de la
rédaction de Télé 7 Jours de 1983 à 1987). En 1987, il entre à TFl récemment privatisée
comme directeur général de l'antenne et en devient le vice-président en 1989.
Valérie Patrin-Leclère, maître de conférence en sciences de l'information et de la
communication à l'université de Paris 4 Sorbonne, École des hautes études en sciences de
l'information et de la communication (Celsa) et chercheur au CNRS, laboratoire Langages,
logiques, informatique, communication, cognition (Lalicc). Elle étudie l'économie des
médias et en particulier les relations qui s'établissent entre logiques de communication et
logiques d'information. Elle a soutenu une thèse intitulée « Pour un contrat de lecture
global: l'exemple de la presse TV française ».
Serge Proulx, directeur du Groupe de recherche sur les médias, département des
communications, université du Québec à Montréal.
Jacques Rigaud, ancien administrateur délégué de la Compagnie luxembourgeoise de
télédiffusion et président de RTL.

HERMÈS 37, 2003 299


Les auteurs de Hermès 37

Éric Sautedé, rédacteur en chef de Chinese Cross Currents, Institut Ricci de Macao.
Michel Souchon, docteur en sociologie, a été responsable d'études dans les services de
recherche de la télévision française, à l'ORTF, de 1970 à 1975. De 1975 à 1985, il a dirigé le
Groupe d'études des systèmes de communication à l'Institut national de l'audiovisuel. Il a
été ensuite, de 1985 à 1989, directeur des études de TF1 puis d'Antenne 2. De 1991 à 1995,
il a été consultant à la présidence commune de France Télévision. Il est l'auteur de
nombreux articles et de plusieurs ouvrages La Télévision des adolescents (1969), Petit écran
grand public (1980), Trois semaines de télévision. Une comparaison internationale (1982),
L'Enfant devant la télévision des années 1990 (en collaboration, 1991). Groupe Bayard.
Simonetta Tabboni, professeur émérite à l'université de Paris VII-Denis Diderot.
Marc Tessier, président de France Télévisions depuis juin 1999, et à ce titre, président de
France 2, France 3 et France 5. X-Ena, inspecteur des Finances en 1971, il commence sa
carrière dans la Fonction publique avant de rejoindre, en 1982, le groupe Havas, comme
directeur financier puis directeur général. Il participe au lancement de Canal Plus dont il
devient le directeur général en 1984. Il assure le développement du groupe Canal Plus à
l'étranger, puis en France, où il lance le projet numérique. De 1995 à 1999, il est directeur
général du Centre national de la cinématographie (CNC).
Dominique Wolton, directeur de recherche au CNRS, laboratoire communication et
politique. Directeur de l'UPS information, communication et enjeux scientifiques.
Directeur de la revue Hermès, CNRS, Paris.

300 HERMES 37, 2003

You might also like