Presse & blogs

La Vie des idées

chargement...

Mon, 25 Sep 2017 09:00:00 +0200

L'Europe sans gouvernement

Recensé : Stéphanie Hennette, Thomas Piketty, Guillaume Sacriste et Antoine Vauchez, Pour un traité de démocratisation de l’Europe, Paris, Seuil, 2017, 96 p., 7,50 €.

Le débat français sur l’Europe est souvent des plus frustrants, qui oppose de manière binaire et sans relief les « pro-européens » naïfs aux « anti-européens » primaires. Proposant une critique du fonctionnement de l’Union européenne qui soit à la fois radicale et profondément pro-européenne, cet ouvrage offre un contrepoids assumé et nécessaire à ceux qui détenaient jusque-là le monopole de la contestation radicale, mais dont l’analyse ne menait le plus souvent qu’à une impasse intellectuelle et politique.

En effet, par opposition avec un Frédéric Lordon par exemple, qui soutient que « toute la politique économique européenne a été irrévocablement fixée dans des textes à valeur quasi constitutionnelle », ou à un Cédric Durand [1] pour qui l’Europe est à son fondement « un projet de classe » auquel il s’agit de mettre fin, les auteurs du présent ouvrage expriment avec force « l’idée que le marbre des traités n’a pas nécessairement la dureté qu’on lui attribue souvent ». L’ouvrage propose donc une critique à la fois radicale et fondamentalement optimiste de la construction européenne, ouvrant ainsi le débat et tâchant de rénover la réflexion.

Remédier au déficit démocratique de la zone euro

Les auteurs partent d’un constat important : la politique et la crise institutionnelle de zone euro surdéterminent la politique économique. Il n’est en somme pas de politique économique nouvelle, de relance, de gestion de crise, de mutualisation des dettes ou de révision des règles budgétaires possibles sans refondation démocratique. C’est un point de départ fondamental qui contraste avec les analyses dominantes. En outre, l’absence de réflexion sur la refondation démocratique explique également largement pourquoi les démarches technocratiques de reconstruction de l’Union Économique et Monétaire (le « Livre blanc » de la Commission, le « rapport des cinq présidents ») sont dans l’impasse. Les auteurs décrivent la façon dont le déficit démocratique s’est creusé pendant la crise suite à l’émergence d’une gouvernance de la zone euro de plus en plus puissante, mais de moins en moins saisissable. Ils proposent d’y remédier par un « traité de démocratisation de l’Europe » (T-DEM) instituant une nouvelle chambre parlementaire de la zone euro.

Cette assemblée assurerait une démocratisation de la gouvernance économique de la zone euro en se substituant à l’Eurogroupe et aux sommets des chefs d’État de la zone euro instaurés pendant la crise. Elle serait constituée de membres des parlements nationaux et européen : une centaine de parlementaires nationaux, selon un mode de sélection peu clair, mais ajusté à la marge (5 membres) pour que les pays les plus petits soient représentés, auxquels s’ajouteraient 25 parlementaires européens. L’idée de ce regroupement est de favoriser la socialisation européenne des parlementaires nationaux autour d’identités partisanes afin de rompre avec les choix imposés par le fonctionnement opaque de la gouvernance de la zone euro actuelle. Ces dernières années ont en effet fait émerger des défis nouveaux et mis en lumière des pratiques brutales. Les programmes d’assistance financière ont opposé les parlements nationaux les uns aux autres, à l’avantage systématique du Bundestag, le parlement allemand. Le parlement européen quant à lui ne joue qu’un rôle secondaire, sans pouvoir réel dans la gouvernance de la zone euro. De conseil des sages voulu par le traité de Lisbonne, le Conseil européen, qui réunit les dirigeants des États-membres de l’Union européenne, s’est transformé en instance de délibération exécutive ultime ; enfin l’Eurogroupe, comité des ministres des Finances sans existence formelle dans les traités européens, en est venu à s’imposer comme le centre névralgique de la politique économique européenne et comme le maître d’œuvre de ses errements.

Le parlement de la zone euro : un faux remède

Le constat du déficit démocratique du système actuel, bien que fondamentalement correct, mène à une proposition qui néglige de nombreux autres écueils et échouerait à jeter les bases d’une véritable démocratie transnationale.

Pour commencer, la motivation des auteurs d’aboutir à une majorité « progressiste » dans le parlement de la zone euro peut difficilement justifier en soi une réforme institutionnelle d’une telle ampleur. Un principe cardinal veut que pour qu’une réforme institutionnelle soit acceptable, elle puisse être pensée sous un « voile d’ignorance », c’est-à-dire qu’elle n’ait pas pour objectif de donner le pouvoir à un groupe politique particulier. Une assemblée de la zone euro dont le seul but serait de faire gagner une majorité progressiste pour faire advenir une certaine politique (comme la mutualisation des dettes ou l’harmonisation fiscale) s’expose à l’évidence à une accusation de partialité qui compromettrait immédiatement son avènement. Par ailleurs, étant donné le fonctionnement des démocraties parlementaires du nord de l’Europe, il semble illusoire de penser qu’un accord de coalition entre le SPD et la CDU en Allemagne, par exemple, pourrait être contourné par l’Assemblée parlementaire de la zone euro. Ce serait supposer par exemple, que la solidarité et la proximité intellectuelle (fragile) entre le Parti socialiste français et le SPD allemand seraient plus fortes qu’un accord de coalition sur lequel repose une majorité au Bundestag [2]. C’est précisément la force du parlement européen que d’élire des représentants dont le seul mandat est l’intérêt général européen et qui ne sont donc pas obligés par les contingences de la politique et des alliances nationales.

Ensuite, si le déficit démocratique décrit dans l’ouvrage est incontestable, il a son pendant dans un déficit exécutif qui l’alimente en retour [3]. C’est parce que la Commission européenne ne dispose pas du pouvoir réel de gouverner l’euro et ne dispose pas d’un budget ou des prérogatives nécessaires que « la gouvernance de la zone euro » forme une telle nébuleuse. Ainsi le problème n’est pas tant le manque de contrôle parlementaire national ou européen sur l’Eurogroupe, nous y reviendrons, que l’absence d’un pouvoir exécutif réel dans la zone euro. Il en résulte un mode de prise de décision dans lequel chaque État-membre (en plus de la Commission, de la BCE et souvent du FMI) dispose de fait d’un quasi droit de véto. Ceci débouche, au mieux, sur de l’indécision, au pire, sur du diktat. On peut douter en outre que les représentants exécutifs nationaux, pris ensemble, soient capables de prendre des décisions qui servent l’intérêt général européen. L’Eurogroupe ne peut donc pas remplacer un véritable pouvoir exécutif européen et, à moins d’imaginer une assemblée parlementaire aux pouvoirs quasi exécutifs, semblable à l’Assemblée nationale sous la IIIe République en France, une chambre parlementaire de la zone euro ne saurait s’y substituer non plus.

Au lieu de fournir une solution au déficit de pouvoir exécutif, le T-DEM semble donc prisonnier de l’espoir que la somme de parlementaires nationaux puisse réussir là où la somme des représentants exécutifs (les ministres des Finances de l’Eurogroupe) a échoué. Les auteurs ont raison de pointer les travers de l’Eurogroupe, mais la logique et la méthode de ce mode de gouvernement ne sont aucunement remises en cause par le T-DEM qu’ils proposent. En effet, il suffirait selon eux de « démocratiser le réseau bureaucratique intergouvernemental qui s’est constitué depuis dix ans » (p. 10) plutôt que de le défaire. Il semble pourtant que la critique de la logique intergouvernementale doive être poussée plus loin et s’appliquer également à la somme de parlementaires nationaux élus sur un mandat national. Nos auteurs semblent ici oublier que c’est précisément pour répondre à ces tensions profondes, expérimentées dès 1957, que l’on a affranchi le parlement européen de sa tutelle nationale en instituant un suffrage universel propre en 1979.

Les impasses de l’approche intergouvernementale

L’approche intergouvernementale repose en effet sur plusieurs erreurs. La première est de croire qu’une révision plus profonde des traités est hors de portée et qu’il faut donc « s’inscrire dans le sillage des traités MES et TSCG, mais dans le but d’en démocratiser les termes » (p. 27), parce que « personne n’envisage aujourd’hui la possibilité de rouvrir le chantier herculéen d’une révision des traités européens à 27 » (p. 26). En réalité, une révision profonde des traités est devenue la condition sine qua non de la refonte institutionnelle de l’euro dont nous ne pourrons pas faire l’économie. On peut considérer que c’est un horizon lointain, mais l’élever en obstacle indépassable, c’est reconnaître l’impasse absolue. Et dans ce cas, l’entreprise intellectuelle audacieuse et utile serait de réfléchir à défaire l’euro plutôt qu’à prolonger son agonie en le rafistolant. Il est d’ailleurs incorrect d’affirmer, comme le fait l’ouvrage à plusieurs reprises, qu’une modification des traités serait hors de portée alors que la création des instruments intergouvernementaux, dont le Mécanisme européen de stabilité, a elle-même nécessité de modifier le traité sur le fonctionnement de l’Union européenne en son article 136, pour autoriser la création d’un mécanisme financier sans faire entorse à la clause de non-renflouement inscrite à l’article 125.

La deuxième erreur repose sur l’idée que les parlements nationaux seraient nécessairement, presque par construction, plus légitimes que le parlement européen pour assurer le contrôle démocratique de la gouvernance, même baroque, de la zone euro. En réalité, cette hypothèse est rejetée empiriquement, les enquêtes Eurobaromètre montrent une perte de confiance profonde dans les institutions européennes depuis le début de la crise — validant ainsi le constat des auteurs — mais la perte de confiance dans les parlements nationaux est encore plus grande que dans le parlement européen, en particulier dans les pays du Sud. L’enthousiasme pour la réunion des parlements nationaux au niveau européen semble donc plutôt trouver sa source dans la faiblesse du parlementarisme français. Plutôt que de contrôler plus directement le président de la République et le ministre des Finances quand ils représentent la France à Bruxelles, ce qui est le cas de nombreuses démocraties parlementaires du nord de l’Europe, les auteurs préfèrent contourner les faiblesses de la Ve République et tenter d’y remédier au niveau européen.

Enfin, et c’est un problème plus fondamental de philosophie politique, si l’on souhaite établir les fondements d’une démocratie parlementaire pour la zone euro, ce T-DEM établit un nouveau législateur, chargé de contrôler un pouvoir exécutif qui n’en est pas vraiment un, mais il n’introduit aucun ordre juridique. Sans modification des traités, c’est en effet le droit européen et la Cour de justice de l’Union européenne qui demeureraient souverains. Dans un dispositif d’une grande incohérence juridique, l’Assemblée de la zone euro prendrait par exemple la décision de renflouer une banque sur la base de la législation votée par le parlement européen et non par elle-même. L’Assemblée de la zone euro encadrerait le pouvoir exécutif au nom d’un pouvoir de législateur dont, sans changement plus profond des traités, elle ne jouirait pas réellement, le T-DEM ne pouvant lui donner des prérogatives qui sont aujourd’hui celles des institutions et du parlement européens.

Par ailleurs, en matière de politique de mutualisation des dettes ou de fiscalité, une assemblée parlementaire de droit international ne saurait supplanter les traités européens. Ceux-ci fournissent en effet un cadre prescriptif avec notamment l’article 125 (clause de non-renflouement) ou les articles 113, 114 et 115 du traité sur le fonctionnement de l’Union européenne (TFUE) qui imposent que les décisions ayant trait à la fiscalité soient prises à l’unanimité des États-membres. Aussi, si l’ouvrage explique bien la méthode légale de création d’une telle assemblée reposant sur la jurisprudence de la Cour de justice de l’Union européenne concernant le Mécanisme européen de stabilité (MES), il serait en réalité impossible de lui donner un pouvoir autre que symbolique sans modifier en profondeur les traités européens. Les auteurs mettent donc le doigt sur le problème central quand ils pointent le besoin de démocratisation et les errements de l’organisation actuelle, mais la solution « clef en main » qu’ils proposent ne saurait répondre aux exigences qu’ils se fixent.

Une autre voie de réformes

Ce livre dresse un constat utile et largement partagé qui contribue [4] à un débat institutionnel et constitutionnel nécessaire en France et en Europe. Cependant, comme les technocrates qui pensent qu’un ministre des Finances de la zone euro aux prérogatives floues suffirait à résoudre les travers de la gouvernance de la zone euro en créant un gouvernement économique sans contrôle parlementaire, les défenseurs du T-DEM pensent qu’une assemblée parlementaire de la zone euro ainsi constituée pourrait répondre au déficit démocratique de l’Europe. Ces deux erreurs symétriques doivent nous pousser à adopter une approche holistique, qui réponde non seulement au déficit de pouvoir exécutif, mais aussi à l’impasse démocratique actuelle.

Une telle approche impose non seulement une refonte plus profonde des traités, mais aussi certainement des modifications constitutionnelles dans de nombreux pays européens. Il est certain que c’est un projet de longue haleine, rendu particulièrement complexe par les rendements décroissants de la méthode des petits pas et par le discrédit général dont souffrent les élites et les institutions européennes. Cependant, si l’on veut encore croire au gradualisme ou si l’on se résigne à l’impossibilité du grand soir institutionnel, il est possible de décrire une série de propositions transitoires qui puissent servir de tremplin à une réforme future de grande ampleur.

Par exemple, le traité sur la stabilité, la coordination et la gouvernance (TSCG, également nommé « pacte budgétaire européen ») s’est doté d’une clause de révision qui permettrait de l’intégrer dans l’ordre juridique européen et donc de le réviser. Le Mécanisme européen de stabilité (MES) devrait également être communautarisé et son rôle étendu pour qu’il serve d’embryon de budget de la zone euro. L’Eurogroupe (qui est également le conseil d’administration du MES) serait alors doté d’une existence formelle dans les traités. Le parlement européen, qui y était auparavant opposé, a désormais accepté l’idée qu’une sous-chambre de la zone euro est une nécessité et les débats récents, notamment à la suite du Brexit, ont ouvert de manière décisive la possibilité d’une architecture institutionnelle différenciée. Enfin, la présidence de l’Eurogroupe pourrait être assurée par le commissaire aux Affaires économiques et financières (ECFIN).

Ces réformes ne constituent cependant qu’un programme transitoire visant à remédier aux problèmes les plus urgents, et ne sauraient dispenser d’une réflexion plus profonde sur l’organisation du fédéralisme budgétaire européen et sur le partage des compétences entre les niveaux national et européen. Les gouvernements nationaux, comme ils le font vis-à-vis des collectivités locales, devraient céder des prérogatives et de la base taxable au niveau européen, offrant ainsi au gouvernement et au parlement de la zone euro la clarté et les ressources dont ils manquent cruellement aujourd’hui. Ce processus de fédéralisation de la gouvernance de la monnaie unique aboutirait in fine à l’instauration d’un véritable pouvoir exécutif européen, entre les mains de la Commission et non plus de l’Eurogroupe, à l’exercice d’un contrôle parlementaire par une sous-chambre du parlement européen et à l’établissement de prérogatives et de relations entre le niveau fédéral et les États-membres, permettant ainsi la transnationalisation de la démocratie que Jürgen Habermas appelle de ses vœux. Sans cela, de la même manière que le traité de Maastricht a accouché d’une monnaie unique ingouvernable et source de frustrations immenses, le T-DEM ne permettra pas de dépasser (même avec la disparition de l’Eurogroupe) le statu quo intergouvernemental dysfonctionnel. Il ne serait que le cache-sexe de Maastricht et se bornerait à lui apposer une démocratisation de façade.

Shahin Vallée

Fri, 22 Sep 2017 09:00:00 +0200

Les classes populaires, sujet politique

Recensé : Sophie Béroud, Paul Bouffartigue, Henri Eklert et Denis Merklen, En quête des classes populaires, un essai politique, Paris, La dispute, 2016, 216 p., 20 €.

Avec ce travail rigoureux, précis et relativement bref (216 pages), Sophie Béroud, Paul Bouffartigues, Henri Eckert et Denis Merklen réalisent une démonstration en acte de la possibilité de réarticuler les questions épistémologiques, politiques et poétiques. D’une manière ultime l’enjeu de ces pages est cependant politique. Il s’agit de savoir s’il faut, dans un contexte de fragmentation des classes populaires précarisées, faire le deuil d’une lutte des classes telle qu’elle avait été formalisée par la tradition marxiste. La réponse est très élaborée et aboutit à un « non » en forme de pari utopique sur l’inventivité.

Politique

L’ouvrage s’appuie sur une analyse des luttes, non seulement syndicales, mais aussi luttes des femmes, luttes antiracistes et luttes plus diffuses dans les quartiers sensibles où l’émeute est trop souvent restée inintelligible. Toutes habitent ces mondes populaires certes fragmentés, mais tentant de « résister à l’avenir qu’on voudrait leur imposer » (p. 211). Or ces tentatives, comme le disent les auteurs, permettent de renouer avec la perspective d’une « conscience de classe » car, avec ces luttes, ces groupes sociaux, ces fameuses classes populaires se constituent subjectivement et peuvent s’imaginer en nouveau sujet politique. Certes il s’agit encore de penser les modalités qui permettraient d’unifier ces fragments dans une conscience commune. Elle n’est pour le moment qu’embryonnaire, voire incertaine.

Même en mal d’unification, le sociologue et le politiste ne peuvent pas ne pas voir que la dépolitisation, la désaffiliation, la domination symbolique ne sont pas les seuls objets à observer et à comprendre aujourd’hui, bien au contraire. Voilà une bonne nouvelle. Il s’agit de saisir en lieu et place des refus des modes ordinaires de la politisation partidaire et des modes de représentation qui lui sont attachés, la montée en puissance d’une nouvelle politicité arc-boutée sur l’expérience vécue. Les auteurs appellent politicité tout témoignage de la condition politique active des êtres en société, quelle que soit la forme que prend cette activité. Cette politicité débouche sur la réalisation de nouveaux modes d’engagement et d’action autonomes. S’ils sont parfois difficiles à décrypter, comme les incendies de bibliothèque, ils sont d’autres fois inscrits à même la lettre volée des créations culturelles spécifiques à ces classes, comme le hip-hop et le rap, en particulier en banlieue. Loin de l’atomisation individuelle résultant de la précarisation de la condition salariale, l’affiliation est désormais de fait, territoriale et culturelle.

En tant que telles ces nouvelles affiliations témoignent d’une capacité à ne pas subir seulement la domination symbolique, mais à tirer les bénéfices, même parcimonieux, d’une scolarité de service public plus longue et donnant ainsi accès à un mode spécifique et neuf de créativité par l’usage de la langue. N’est-ce pas avoir conscience de ce gain que de réclamer que l’éducation, comme bien de l’État social, soit à la hauteur de la promesse d’égalité entre tous les citoyens qu’elle annonce ? La politisation consiste alors non plus à réclamer la redistribution sous forme consumériste des gains de la croissance, mais bien à revendiquer, parfois d’une manière paradoxale, cette égalité des citoyens qui n’est autre que l’égalité politique. À ce titre les nouvelles revendications ne se contentent plus de réclamer la survie et la consommation, elles revendiquent une vie bonne et autonome pour chacun et pour tous, ce qui constitue une véritable demande d’ethos démocratique et une critique ferme de la république actuelle, qui n’a plus rien de républicaine au sens que prend ce terme dans l’histoire révolutionnaire et dans celle du mouvement ouvrier.

Épistémologie

Cette proposition politique n’est ni péremptoire, ni produite dans une affirmation de vérité absolue. Elle demeure une hypothèse à tester, vérifier, ou réfuter. Elle est ici étayée sur une démonstration qui tient compte des travaux accumulés dans les champs respectifs des auteurs, sociologie du syndicalisme, du travail, des banlieues depuis les années 1980, voire, en amont, dans la fragilité assumée d’un changement de perspective épistémologique. Il s’agit de quitter les territoires de l’académisme sociologique et politiste sans en renier les apports substantiels, mais en explicitant la nécessité d’une critique active de certaines routines de la pensée.

Tout politique qu’il soit cet ouvrage est un ouvrage de savants qui prennent au sérieux leur responsabilité de savants et considèrent qu’elle consiste à choisir des positions épistémologiques qui conduiront à pouvoir se donner de meilleures lumières sur le présent et ainsi à pouvoir agir sur lui avec plus de lucidité. Cet enjeu épistémologique ne se fabrique pas dans ce livre parmi une offre qui existerait déjà, mais en passant au crible les écueils des travaux qui, tout engagés qu’ils soient du côté d’un désir d’émancipation, ont reconduit ou naturalisé des catégories sans adopter de véritable position critique.

La première catégorie inquiétée est celle même de classes populaires au pluriel, dont les auteurs considèrent qu’elle n’est plus désormais suffisamment interrogée dans ses implications idéologiques, car comme ils le soulignent, tout enjeu de nomination et de catégorisation est d’abord idéologique, la langue portant l’idéologie comme la nuée porte l’orage. Ils retrouvent là, sans le dire, les enjeux les plus massifs du marxisme inventif : ceux hérités, bien sûr, de « l’idéologie allemande », et des liens entre production sociale de la conscience et langage comme manière pour l’être humain de dire sa perception du monde vécu, sinon du monde réel, mais aussi ceux de la Critique de la raison dialectique de Jean Paul Sartre qui, dans « questions de méthode », revient longuement sur les rapports entre langage, langue et idéologie. Ceux aussi, enfin, de la tradition marxiste de l’analyse de discours à la française, inaugurée par des althussériens comme Régine Robin, puis Jacques Guilhaumou. Althusser d’ailleurs rôde souvent dans les pages de ce travail, aux côtés de Poulantzas, quand les auteurs convoquent l’idée d’une classe qui ne serait pas antécédente aux luttes, mais dérivée et coextensive des luttes. La fameuse conscience de classe est alors elle même coextensive aux luttes et se distingue ainsi d’une conscience vécue de domination aliénée.

Or à cet égard nos auteurs soulignent un fait. Alors que les sociologues les plus engagés se réclament par exemple de E. P. Thompson et de sa « formation de la classe ouvrière anglaise », parfois de Marx et de son universalité historicisée de la lutte des classes, ils continuent de traiter les classes sociales comme les étagements d’une société hiérarchisée qui se donnerait comme telle d’une manière quasi naturelle. Loin d’expliquer les classes par les luttes, et de tenir compte du fait que chaque classe se constitue dans le conflit, les études sociologiques font l’inverse et expliquent les luttes par les catégories et les situations économiques et sociales. Elles décrivent le monde en fabriquant des déterminations en lieu et place de l’historicité, qui par définition suppose de refuser les déterminations naturalistes au profit d’une analyse des contingences et des situations. Les formations sociales, si elles dépendent des rapports de production, sécrètent leur propre culture conflictuelle du fait des contradictions qui les habitent ; c’est à ce titre qu’elles sont historiques et contingentes. Or, c’est bien cette contingence potentiellement porteuse d’inventivité, de créations idéologiques comme armes de combat qui est trop souvent gommée dans la catégorisation « classes populaires ».

Historicité

L’effort proposé consiste donc à réintroduire cette variable historique dans une épaisseur temporelle réelle, à comprendre la teneur d’historicité des classes populaires, comprendre d’où elles viennent pour mieux comprendre ce qu’elles sont, ce qu’elles sont devenues et ce qu’elles peuvent devenir. Comprendre comment et pourquoi.

J’avoue ne pas avoir été complètement convaincue par l’usage de l’histoire proposé dans les premiers chapitres, un usage un peu éloigné des archives et peu critique à l’égard des débats historiographiques et idéologiques qui habitent la discipline, même dans les grandes synthèses sérieuses. Mais peu importe pour le moment, car ce que l’ouvrage indique, c’est un nouveau rapport d’usage pour l’interrogation sociologique faisant le détour par l’histoire. L’histoire ne sert plus à trouver une genèse rassurante et linéaire, mais à comprendre que les erreurs d’analyse sur le présent peuvent aussi relever d’erreurs d’analyse sur le passé, et que ce sont donc les interrogations sur le présent qui permettent de poser les bonnes questions sur le passé. La dénaturalisation passe par ce rapport dialectique au temps. Ainsi est-il proposé de ne plus considérer la fragmentation des mondes populaires comme une donnée matérielle nouvelle, mais bien comme délitement de la représentation académique, politique et syndicale d’une classe ouvrière homogène qui, en fait, n’avait jamais existé. Non pour dire qu’en vérité rien n’a changé, mais pour faire varier le questionnaire, et se demander, non pas comment la fragmentation est apparue, mais pourquoi elle est redevenue lisible alors que les fonctionnements de la représentation en avaient gommé les aspérités.
Si la notion de « classe ouvrière » n’est plus un ouvroir politique pertinent aujourd’hui pour l’intérimaire, le précaire, la femme dominée, les groupes ethniquement, sexuellement discriminés, etc., il faut donc varier les laboratoires historiques pour sortir d’un état de stupeur et élargir les focales en pensant à nouveau les processus de prolétarisation et les modes de résistance et d’affirmation qu’ils génèrent. Se demander ainsi quel genre de politicité existait à la veille de la Révolution française, savoir que même à l’apogée du concept de classe sociale et de classe ouvrière au sens marxien du terme, il n’y avait pas que l’exploitation qui suscitait une conscience de classe, mais aussi l’illettrisme, la répression policière, l’abandon ou la discrimination étatique, pourvu que des luttes se soient organisées pour en refuser la fatalité. On comprend alors que les enjeux théoriques de cette nouvelle alliance disciplinaire ne fait plus de l’histoire l’arrière-cour du présent comme genèse, origine ou fondation, mais lui demande d’étayer de nouvelles représentations dénaturalisantes du monde, d’offrir des ouvroirs imaginatifs en rendant lisibles des luttes restées dans l’ombre, et de redonner le courage de penser le présent et d’agir sur lui.

En pointant les ambiguïtés du « populaire », le sociologue comme l’historien récusent le relativisme qui pèse sur le terme s’il reste détaché des luttes d’émancipation. En effet le vocable « populaire », cantonné à une description sociologique classique de groupes sociaux, recèle une ambiguïté politique fondamentale. Le spectre est large, des catégories sociales pauvres qui peuvent être embrigadées aussi bien dans une référence au fascisme qu’au communisme. Pour comprendre et critiquer cette complexité des usages du populaire, l’histoire s’offre comme moment spécifique d’analyse critique.

Où en est-on avec la domination ?

Mais au delà de cette alliance disciplinaire et de ce retour de l’historicité sous de multiples faces, « c’est une critique épistémologique de la sociologie de la domination que cet ouvrage propose. En ayant troqué la lutte des classes pour les positions de groupe, l’exploitation pour la domination, Pierre Bourdieu a proposé des outils aptes à décrire un moment spécifique de l’idéologie des Trente Glorieuses où le symbolique supplantait selon lui l’économique et le politique. Face à la décomposition de la classe ouvrière, soit les chercheurs restaient figés et médusés dans un archéo-marxisme devenu inopérant, soit ils abandonnaient la notion de classe sociale et de lutte de classe. Les sociologues ont ainsi contribué à affirmer la « fin de la classe ouvrière ».

Cette lecture ne consiste nullement à renier Bourdieu, mais à affirmer sur un plan théorique que la domination n’est jamais totale et que chacun construit son espace « propre » de lutte et de subjectivation, et que lorsqu’on parle des classes populaires la découpe des objets doit en tenir compte. Des formes d’entraide, de solidarité, de marges d’action contestent de fait les normes dominantes de la société, des syndicats et des partis. Exploitation, domination, exclusion résultant du chômage de masse, effets de désaffiliation, vulnérabilité, aucun de ces phénomènes ne fait les « classes » populaires. Ces dernières se constituent en fonction des situations qu’elles doivent affronter, des luttes qu’elles doivent mener, des visions du monde produites qui sont chaque fois différentes. Il faut donc retrouver la question de la lutte des classes comme manière de réhistoriciser le présent. Les classes populaires se font elles-mêmes en se dotant de collectifs (antiracistes, contre les violences policières, contre la domination masculine, etc.) et en construisant le sens de ce qu’elles vivent par leurs productions culturelles (en particulier dans le domaine de la musique et de la littérature). Ce sont ces objets liés aux luttes effectives qui aujourd’hui doivent être découpés par les sciences humaines et sociales si elles veulent produire une contribution substantielle à la transformation radicale des mondes contemporains et à leur émancipation.

Sophie Wahnich

Thu, 21 Sep 2017 09:00:00 +0200

L'assemblée ou le plébiscite ?

Recensé : Richard Tuck, The Sleeping Sovereign. The Invention of Modern Democracy, Cambridge, Cambridge University Press, 2015, 295 p.

Défendre l’idéal démocratique aujourd’hui implique-t-il nécessairement d’institutionnaliser l’autogouvernement, c’est-à-dire le gouvernement du peuple par lui-même ? Au contraire, ravaler l’autogouvernement au rang des mythes politiques suppose-t-il d’abandonner l’idéal de la souveraineté populaire ? L’une des forces du dernier ouvrage de Richard Tuck, théoricien et historien de la pensée politique, est de renvoyer dos-à-dos les réponses positives à ces questions en mettant en cause le présupposé commun qui les informe, à savoir la conviction que le concept de démocratie repose sur l’assimilation de la souveraineté du peuple et de l’autogouvernement.

Pour R. Tuck, non seulement l’institutionnalisation du gouvernement du peuple par le peuple est pour la démocratie moderne une voie sans issue, mais reconnaître cette indispensable distinction entre souveraineté et gouvernement permet justement de réaliser la souveraineté du peuple au sens le plus authentiquement démocratique. Dans cette version développée des prestigieuses Seeley Lectures, prononcées à l’Université de Cambridge en 2012, le philosophe n’entend toutefois pas établir cette thèse sur le terrain de la théorie politique contemporaine : il plonge dans l’histoire de la pensée politique et constitutionnelle européenne et étatsunienne afin de reconstruire l’évolution de cette distinction entre souveraineté et gouvernement et d’étudier le rôle qu’elle a joué dans la bouillonnante réflexion constitutionnelle qui anime les États en voie de formation pendant et après les révolutions de la fin du XVIIIe siècle, en France et aux États-Unis.

La distinction souveraineté / gouvernement : condition de la démocratie moderne

« Pièce centrale » de l’ouvrage (p. xi), la distinction entre souveraineté et gouvernement est explicitement décrite comme la condition d’émergence d’une politique démocratique dans les grands États modernes (p. 56), puisqu’elle libère ces derniers de l’idéal archaïque confondant l’action du gouvernement et « l’activité de la démocratie » (p. ix-x). Dans la conception spécifiquement moderne de la démocratie, le peuple est le titulaire du pouvoir souverain – le pouvoir de déterminer ultimement les règles fondamentales qui affectent la structure légale et institutionnelle de la société politique – mais il confie le pouvoir de gouverner à des représentants élus, actant ainsi le renoncement à l’idéal du gouvernement continu du peuple par lui-même, impraticable dans les sociétés modernes. Les démocraties spécifiquement modernes sont donc des sociétés où « la masse des citoyens peut authentiquement participer à la politique tant que leur participation est limitée à un ensemble d’actes législatifs fondamentaux » (p. 249). Quoique souverain, le peuple n’y gouverne pas et la modalité adéquate de sa participation n’est pas la délibération conçue sous le modèle largement fantasmé des assemblées antiques (p. 5), mais le « plébiscite », « simple comptage des têtes dans la population, comptage qui ignore complètement les représentants » (p. 153). Utilisée par certains des États de la Confédération d’Amérique dans l’élaboration de leurs constitutions respectives et envisagée pour la première fois en France en 1789, cette institution est toujours au cœur de la vie démocratique de bien des États contemporains (p. 160-1, 180), lesquels sont dotés d’une « structure constitutionnelle par défaut » où le plébiscite a pour fonction de ratifier la législation constitutionnelle fondamentale, tandis qu’une assemblée d’élus légifère sur des questions « moins importantes » (p. 5).

Avant de se pencher sur l’histoire de cette institution, d’abord dans les projets de Girondins intéressés par les constitutions des premiers États-Unis (p. 146-180), puis dans la pratique constitutionnelle étatsunienne elle-même (p. 181-248), R. Tuck reconstruit ce qu’il prétend être la matrice conceptuelle de cette nouvelle vision de la démocratie : la distinction entre souveraineté et gouvernement.

Cette distinction apparaît pour la première fois au chapitre 6 de la Methodus ad facilem historiarum cognitionem (1566, 1572) où Bodin s’efforce, contre la théorie d’Aristote qu’il juge confuse, d’isoler les traits propres de la souveraineté (summum imperium) – droit d’autoriser et de changer les gouvernants, de faire les lois et de les abandonner (p.18-9) – qui ne doit pas être confondue avec « le gouvernement » (administratio) de la république. S’en trouve ainsi clarifié le modèle imprécis de la constitution mixte qui mettait à tort sur le même plan des pouvoirs hiérarchiquement distincts : chaque type de pouvoir souverain (monarchique, aristocratique ou démocratique) peut établir le type de gouvernement de son choix (monarchique, aristocratique ou démocratique) ; ainsi Rome, sous le Principat, était-elle demeurée une démocratie – gouvernée par un empereur. L’autre caractéristique du pouvoir souverain, sa nature « perpétuelle » (Bodin, La République, I, 8), permet également de montrer qu’un pouvoir absolu conféré pour un temps limité – comme l’est celui du dictateur à Rome – doit être considéré comme un simple instrument de gouvernement à la disposition du souverain (p. 23). Alors que cette distinction ne fut pas envisagée pour défendre idéologiquement la démocratie, les partisans du pouvoir monarchique aux XVIIe et XVIIIe siècles en ont rapidement perçu les implications radicales et ont cherché à contester cette innovation (p. 63 sq.).

R. Tuck se penche sur les pages que Hobbes consacre, au chapitre VII du De Cive, à « une analyse approfondie des différentes formes que peut prendre une démocratie » (p. 87). Dans ce passage commenté en détail (VII, 16), Hobbes décrit plus précisément les différentes formes que peut prendre l’élection d’un monarque par un peuple souverain – diversité qui découle des conditions auxquelles le peuple souverain a remis son pouvoir au roi. Si par exemple le peuple a élu un roi à vie tout en prévoyant, avant de se disperser, de se rassembler à la mort du monarque, alors le peuple demeure titulaire de la souveraineté et le roi n’en a que l’usage ; s’il l’a élu dans les mêmes conditions mais pour un temps limité, le roi n’est que le premier magistrat. C’est pour éclairer ce type de configuration, où un pouvoir souverain existe bien qu’il ne soit pas exercé, que Hobbes use de la métaphore du « monarque endormi », adaptée par R. Tuck pour en faire le titre de son livre et le cœur de sa thèse : les intervalles entre les assemblées d’un peuple souverain sont l’équivalent, en démocratie, des moments de sommeil du roi dans la monarchie.

C’est à Rousseau qu’il est revenu de convertir cette distinction conceptuelle en une composante essentielle d’une forme de démocratie adaptée aux sociétés modernes (p. 1-9, 125-145), ce qui suppose, contre Hobbes, de nier que la souveraineté originaire du peuple soit aliénable. Mais, aux yeux de R. Tuck, Rousseau est pour l’essentiel hobbésien (p. 128-141) : comme Hobbes, il place l’origine de la société politique dans la démocratie, envisage la volonté collective créée par le contrat comme le critère du bien et du juste, conçoit une forme de souveraineté qui n’a pas besoin d’être exercée pour exister, pense que les individus sont représentés par le souverain.

Ce sont cependant moins les filiations doctrinales entre les auteurs que les effets intellectuels des innovations conceptuelles qui intéressent R. Tuck, et il s’attache justement à mettre en évidence les implications importantes de la conception rousseauiste de la « démocratie radicale », où les « citoyens pouvaient tous être d’authentiques législateurs sur les questions fondamentales mais laisser les moins importantes à leurs agents » (p. 141). Il prend par là le contre-pied d’une lecture fréquente, qui fait de Sieyès le père du constitutionnalisme moderne : convaincu que la taille et la nature commerciale des sociétés modernes, de même que la nécessaire division du travail rendent la démocratie impraticable, Sieyès a théorisé l’exercice du pouvoir constituant par les représentants et l’abandon par les citoyens du pouvoir de faire la loi eux-mêmes (p. 165-73). R. Tuck s’intéresse au contraire à ceux qui, dans les débats constitutionnels français au cours de la Révolution, ont proposé l’introduction d’un élément plébiscitaire afin d’institutionnaliser une souveraineté sous-tendant la structure du gouvernement (Assemblée nationale comprise) mais indépendante d’elle (p. 143 sq.). En étudiant notamment la constitution de Pennsylvanie (1776), Brissot et Condorcet manifestent un vif intérêt pour la logique plébiscitaire, sans pour autant aller jusqu’à défendre l’idée d’une ratification constitutionnelle populaire consistant en un simple comptage des têtes (p. 146-50).

C’est à Jérôme Pétion de Villeneuve et Jean-Baptiste Salle que l’on doit les premiers projets de plébiscite dans le débat français, formés à l’occasion de discussions sur le veto royal en 1789. Toujours motivés par le souci de maintenir la souveraineté du peuple face au danger du pouvoir des représentants, Pétion et Salle cherchent en même temps à ne pas céder à la pression jacobine qui tendait, interprète R. Tuck, à brouiller la distinction entre souveraineté et gouvernement en exigeant que tout projet de loi pût être renvoyé devant les assemblées primaires (p. 143-60). Ainsi le projet « rousseauiste » de ces Girondins, qui consistait à poser la distinction entre souveraineté et gouvernement afin de « réintroduire quelque chose comme de la démocratie directe dans le monde moderne » (p. 162), apparaît comme directement opposé à celui de Sieyès et fournit les éléments d’une autre histoire de la modernité politique, dont la dernière séquence se déroule aux États-Unis.

En l’espace de moins d’un siècle, note R. Tuck, le recours au plébiscite dans la pratique constitutionnelle interne des États est passé du statut d’exception (Delaware 1776, Massachusetts 1778, New Hampshire 1783) à celui de norme majoritaire (p. 182-198).

Une métaphore piégée pour la démocratie

L’élégante métaphore du souverain endormi est une manière tout à fait singulière d’exprimer le sens de la distinction entre souveraineté et gouvernement que Hobbes entend illustrer par là, à savoir que « les actes de souveraineté cessent mais [que] la puissance est conservée » (De Cive, VII, 16). Un point non relevé par R. Tuck mérite d’être mentionné : l’introduction de la métaphore du sommeil vise chez Hobbes à éclairer la condition d’un peuple souverain gouverné par un roi en la comparant au moment où le monarque souverain dort. Or, l’une des différences importantes entre les deux situations réside assurément dans le type de puissance qui « est conservée » « dans l’un et l’autre cas » (ibid.) : seul le roi souverain est « un naturellement », et donc « possède toujours la puissance prochaine d’exercer les actes de souveraineté » (De Cive, VII, 13), alors que le peuple, lui, n’existe qu’en tant qu’il est assemblé : la souveraineté est inutilisable dans les intervalles séparant les assemblées du peuple. La mise en sommeil de la souveraineté qui, dans le cas du roi, n’en n’altère pas la disponibilité immédiate la rend au contraire hors d’atteinte dans le cas du peuple.

D’autre part et surtout, cette métaphore dit bien plus que l’idée d’un simple non-exercice permanent de la souveraineté. Dormir, c’est être temporairement dans un état de passivité tel que tout exercice ou toute sollicitation d’une quelconque faculté active – de perception, de vigilance, d’analyse, de comparaison, de discussion – est impossible. Suggérer que le peuple souverain pourrait s’assoupir paisiblement une fois le pouvoir confié au gouvernement, c’est alors non seulement négliger complètement un danger inhérent à la politique – à savoir la corruptibilité de tout détenteur d’un pouvoir, celui-ci fût-il simplement commis – mais c’est encore encourager la pente naturelle du gouvernement à abuser du pouvoir qui lui a été confié. De plus, si la démocratie exige que le peuple se prononce, plus ou moins régulièrement, sur les questions politiques fondamentales, n’est-il pas indispensable qu’il se maintienne, dans l’intervalle, éveillé et attentif ? Dans quel état d’ignorance et d’engourdissement sera-t-il au réveil, lorsqu’il lui faudra évaluer, juger et trancher entre plusieurs options qui engagent ses intérêts les plus importants ? S’il y a un sens à parler de mise en sommeil de l’exercice de la souveraineté populaire, ne faut-il pas dans le même temps penser les conditions d’une vigilance citoyenne continue ?

Au demeurant, les inquiétudes démocratiques suggérées par la métaphore du sommeil, pourtant retenue par R. Tuck pour exprimer un réquisit de la démocratie moderne, ne sont pas étrangères à certains auteurs ou courants de pensée évoqués dans le livre. Rousseau par exemple a bien compris le rôle essentiel que doivent jouer les citoyens, individuellement et collectivement, pour limiter la tendance tyrannique inévitable de tout gouvernement. Il défend dans les Lettres de la montagne, texte clef par lequel R. Tuck ouvre son enquête, le « droit de représentation », qui « donne inspection » (éd. Pléiade, vol. 3, p. 843) au peuple souverain, c’est-à-dire le « droit de veiller sur l’administration des lois » (p. 845), de « juger si elle [la loi] est suivie » (p. 854). Sans relever strictement de l’exercice du pouvoir législatif souverain, cette forme de contrôle populaire de l’exécutif est bien une activité civique à laquelle la métaphore du souverain assoupi aura bien du mal à donner sens. De même, R. Tuck souligne le rôle joué, chez ceux qui défendent l’introduction de systèmes plébiscitaires dans certains États des États-Unis, par la tradition radicale anglaise de critique de la corruption parlementaire, qui récusait que le peuple fût « annihilé ou absorbé dans le parlement », selon l’expression de James Burgh (cité p. 202), et insistait sur la nécessité d’un « contrôle populaire sur les activités du parlement excédant largement le simple acte de l’élection » (p. 198-9). Or, si le plébiscite est bien apparu à ses premiers défenseurs comme l’institution permettant de réaliser ce contrôle populaire tout en validant la distinction entre souveraineté et gouvernement, ce n’est vraisemblablement pas avec à l’esprit l’image d’un souverain endormi.

Ces remarques amènent à s’interroger, plus généralement, sur la nature de la démocratie telle que la conçoit R. Tuck. Quoiqu’il disqualifie de façon trop rapide les approches délibératives, lesquelles sont bien moins naïves qu’il le suggère, son enquête historique permet de saisir, mieux que la compatibilité, l’indissociabilité de l’idéal démocratique du peuple souverain et du principe de la représentation, inévitable dans les grandes sociétés contemporaines. Mais en confinant le rôle du peuple à des fonctions de législation ponctuelle sur les questions les plus importantes et en cherchant explicitement à « exclure » de la démocratie une grande part de la délibération collective (p. 5), R. Tuck propose un modèle qui s’affranchit de la nécessité de réfléchir aux conditions institutionnelles, sociales et culturelles qui structurent la vie démocratique d’une société et sont donc susceptibles de faire fonctionner ce modèle de manière satisfaisante. Comment « la masse des citoyens » pourrait-elle cependant « authentiquement participer à la politique » par un « ensemble d’actes législatifs fondamentaux » (p. 249) en l’absence d’un débat public nourri, d’une culture des droits, d’institutions organisant la contestation ? Si l’on admet que le désaccord moral est un trait permanent des sociétés contemporaines, peut-on même si aisément distinguer entre un niveau fondamental, confié au peuple souverain se prononçant par referendum, et un niveau moins fondamental, confié aux représentants élus ?

Ces questions n’enlèvent rien à l’originalité de l’enquête de R. Tuck ; elles suggèrent simplement que s’il a su mettre en évidence l’importance de certains aspects historiques et philosophiques de la logique démocratique plébiscitaire, son livre ne fait pas l’histoire de « l’invention de la démocratie moderne », comme l’avance de façon quelque peu aventureuse le sous-titre.

Christopher Hamel

Wed, 20 Sep 2017 09:00:00 +0200

Le discours économique de Stockholm

Recensé : Avner Offer, Gabriel Söderberg, The Nobel Factor. The Prize in Economics, Social Democracy and the Market Turn, Princeton, Princeton University Press, 2016, 344 p.

On attendait depuis longtemps l’ouvrage de référence sur l’histoire et les enjeux du prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel. Il nous est aujourd’hui livré par deux spécialistes d’histoire économique, Avner Offer, professeur à Oxford, et Gabriel Söderberg, chercheur à l’université d’Uppsala.

Cet ouvrage a pour premier mérite de proposer une thèse générale, fortement documentée, sur l’histoire du prix, qui relie étroitement celle-ci à l’histoire idéologique et politique de la Suède et du monde. Créé en 1969, dans le contexte très particulier des tensions entre la banque centrale et les gouvernements sociaux-démocrates suédois, le prix de la Banque de Suède est devenu, selon les auteurs, l’un des principaux lieux d’expression de la vision idéalisée du marché qui s’est progressivement imposée à la planète, sous l’effet d’une discipline économique devenue plus idéologique que scientifique. Les auteurs dévoilent certains des processus institutionnels ayant conduit au succès d’une récompense désormais inscrite dans la chronique médiatique.

Selon eux, deux grandes théories économiques à forte composante normative se sont opposé tout au long du XXe siècle : la « doctrine économique » fait reposer la définition du juste sur des mécanismes de marché, alors que la doctrine sociale-démocrate met en avant la sécurité collective, les services publics au sein d’une économie mixte qui corrige les inégalités dont sont victimes les plus défavorisés. Les auteurs, qui défendent très clairement la seconde, considérant la première comme une forme de pensée magique, estiment que le prix de la Banque de Suède est au cœur de la compétition historique entre les deux doctrines.

La théorie économique, cette machine de guerre post-moderne

Les auteurs voient en la science économique une discipline très faiblement fondée sur des données et des faits, qui déploie en revanche des trésors d’inventivité conceptuelle pour proposer des théories aussi efficaces socialement qu’empiriquement vides. C’est le cas de la théorie des anticipations rationnelles, qui se diffuse dans les années 1970, sur laquelle s’est appuyée la nouvelle macroéconomie classique. Cette dernière affirme que les individus sont capables de tirer parti de toute l’information disponible pour former leurs anticipations et que l’État, pas plus qu’une autre organisation collective, ne peut faire mieux que ces derniers. Elle peut être vue comme une machine de guerre contre les politiques sociales-démocrates. La domination de cette théorie, alors qu’elle reste fortement contestée, y compris par des lauréats du prix comme Joseph Stiglitz, Amartya Sen, Robert Shiller, Paul Krugman et d’autres apparaît comme une des clés de l’évolution de la discipline à partir des années 1970.

L’histoire du prix en sciences économiques est ainsi racontée en insistant sur sa dimension symbolique, la ritualisation qui le caractérise, et les arguments particuliers qui ont présidé à sa création. L’ouvrage insiste aussi, de façon assez nouvelle, sur la dimension épistémologique et méthodologique de la transformation de la représentation de ce qu’est la « science économique » à partir des années 1970.

La réussite de la nouvelle économie libérale serait liée, selon les auteurs, à ce que l’on peut appeler un « tournant post-moderne » dans la conception de la validation scientifique en économie. Ce tournant général, qui aurait éloigné la science économique des conceptions classiques de la relation entre théorie et empirie, serait illustré par les travaux de Deirdre McCloskey sur la rhétorique économique, nés dans le sillage de l’école de Chicago. Cette perspective, en renonçant à l’ancrage empirique et à ses contraintes, a contribué à légitimer la théorie des anticipations rationnelles et, plus largement, une conception toujours plus abstraite et normative de la science. Les auteurs montrent combien le statut de « science » qu’elle revendique est pour l’économie comme discipline académique un instrument politique fondamental dans le combat qu’elle mène contre les idées et les politiques sociales-démocrates.

Le rôle crucial de la banque centrale suédoise

Par un détour chronologique, le troisième chapitre constitue une plongée passionnante dans les débats monétaires et budgétaires de l’entre-deux-guerres. Il met en scène le combat de la doctrine des banquiers centraux, attachée à la neutralité monétaire (« sound money »), qui s’épanouit au sein de la Banque des règlements internationaux, face aux changements et mises en cause de plus en plus intenses, résultant de politiques toujours plus interventionnistes à partir des années 1930. Un lien étroit s’établit entre doctrine monétaire, « austérité budgétaire », et défense de l’autonomie des banques centrales. Ces dernières sont constituées en bastions de la doctrine économique de la monnaie saine et des grands équilibres. Ce chapitre permet donc de comprendre le contexte intellectuel et politique de la création du prix par la Banque de Suède, en montrant ce que la discipline doit à la pensée qui s’est développée au sein de cette institution.

La banque centrale suédoise a été le lieu d’une offensive inédite visant à asseoir son autonomie en s’appuyant sur la science économique en tant qu’elle est prétendument indépendante du politique. Les auteurs mettent d’abord en avant la façon dont les tensions entre le gouvernement social-démocrate et la banque centrale se sont exacerbées, au point d’inciter certains dirigeants de la Banque, Per Åsbrink en premier lieu, à créer une fondation scientifique largement financée par l’institution. Sur les conseils d’Assar Lindbeck, jeune économiste issu du courant social-démocrate mais converti aux principes fondamentaux du néo-libéralisme, la Banque de Suède célèbre son tricentenaire, en 1968, par la création hautement symbolique et politique d’un prix académique international.

Le prix Nobel dans la discipline économique

L’ouvrage met en évidence le contraste entre une institution, le comité Nobel d’économie, dont les tendances idéologiques, dès la présidence d’Assar Lindbeck, sont marquées à droite, et les grands équilibres politiques au sein de la discipline, qui la font plutôt pencher du côté social-démocrate. À partir de différentes enquêtes, les auteurs constatent que les lauréats sont souvent plus favorables au néo-libéralisme que les membres de la discipline, ce qui évidemment n’implique pas que tous le soient.

Le prix consacre des individus abondamment cités dans les revues, mais l’étude révèle aussi qu’il peut parfois donner un deuxième souffle à la dynamique réputationnelle d’un auteur relativement marginal, comme dans le cas de Hayek [1]. Les millions de dollars dépensés par la banque centrale ne l’auront donc pas été à perte, puisque le prix a permis de relancer la carrière symbolique de certains personnages emblématiques de la conversion au marché, cela pour le grand bénéfice collectif de la discipline (et en particulier de sa conception normative abstraite).

Ainsi émerge l’opposition de fond entre la science économique, telle qu’elle est pratiquée par les lauréats du prix, et la social-démocratie en tant que théorie politique visant à renforcer les sécurités collectives face à l’avenir, défendue par des acteurs politiques et activement promue par une petite minorité d’universitaires. Les auteurs s’appuient sur une étude précise des prises de position des différents lauréats du Nobel, sur la démarche scientifique (empirique ou formaliste), et sur la politique économique, et plus particulièrement sur la politique fiscale. Il en ressort qu’il existe une relation complexe, mais étroite, entre le formalisme et le rejet doctrinal des politiques sociales-démocrates. Certains sociaux-démocrates ont pu ponctuellement être consacrés par le prix (on pense bien sûr à Gunnar Myrdal, qui partage le prix avec Hayek en 1974), mais leur élection n’aurait finalement été qu’une caution pluraliste donnée, dans un contexte encore politiquement instable, à un processus fondamentalement biaisé.

Retour sur le contexte suédois

Les derniers chapitres de l’ouvrage analysent de façon très approfondie le contexte suédois. Bien illustré par la conversion d’Assar Lindbeck aux positions patronales, le contexte est plus largement mis en lumière par l’étude des différents enjeux de politique économique à travers lesquels se jouent l’opposition entre la politique sociales-démocrate et l’économie comme discipline académique, dont le Nobel sera finalement l’expression. Les auteurs livrent également une analyse historico-économique de la prétendue « sclérose » suédoise des années 1970, qui dément les « contes de fée » inventés par Lindbeck pour décrire les changements de l’État-providence et justifier les réformes néo-libérales. On peut lire ces chapitres comme une critique historique radicale du récit à travers lequel Lindbeck, âme du Nobel, a aussi très fortement pesé sur la politique économique suédoise en se parant de légitimité scientifique.

Cédant tardivement aux sirènes de la libéralisation des marchés des capitaux, l’économie suédoise fait face à une crise financière au début des années 1990. Celle-ci n’est nullement liée aux rigidités du marché du travail ou au fonctionnement de l’État-providence dénoncés par Lindbeck, mais résulte plutôt d’une politique d’austérité combinée à la libéralisation financière simultanément mise en œuvre dans les pays scandinaves. Lindbeck, auquel le gouvernement de droite confie la rédaction d’un rapport en 1992, en profite cependant pour faire avancer son programme déjà ancien de réformes du marché du travail, ce qui se solde par un demi-échec après le retour des sociaux-démocrates au pouvoir en 1994. Au delà de la Scandinavie, les dynamiques économiques et financières caractéristiques de la période néo-libérale, analysées de façon plus classique, font apparaître les liens entre la théorie économique classique, les réformes structurelles, le consensus de Washington, et les effets corrupteurs du resserrement des liens entre les acteurs publics et la finance.

L’économie et le monde

La « stratégie du coucou », par laquelle la science économique a posé son œuf dans le nid Nobel, a-t-elle réussi ? La légitimité d’un « prix Nobel d’économie » est toujours contestée au sein de la communauté scientifique et les incohérences doctrinales et politiques entre les lauréats continuent de miner l’image d’une discipline loin d’être aussi empiriquement fondée et autonome face aux pouvoirs économiques et politiques que ne l’est la physique. Le tournant libéral de marché est, quant à lui, un processus politique et intellectuel qui résulte moins d’une dynamique scientifique que d’un coup de force politico-idéologique porté par certains acteurs sociaux et institutionnels. La conclusion de l’ouvrage revient ainsi sur les multiples limitations intrinsèques de la discipline, telles qu’elles ressortent de l’examen des travaux et œuvres des lauréats, et en appelle à la construction d’une véritable science empirique des réalités économiques, fondée sur l’échange rationnel d’arguments, et prêtant attention aux évolutions historiques des politiques publiques.

Cet ouvrage important offre donc une thèse très originale : la science économique ne peut être comprise de façon isolée, indépendamment des doctrines et des normes concrètes qui sont mises en œuvre dans les politiques économiques et sociales et, plus particulièrement, dans les politiques sociales-démocrates.

La Suède n’est pas, de ce point de vue, un exemple parmi d’autres, mais l’épicentre des politiques sociales-démocrates, et le théâtre de luttes symboliques importantes entre économistes et acteurs politiques, au premier rang desquels Assar Lindbeck. Il n’est, finalement, pas indifférent que l’alliance entre la banque centrale, la profession économique et divers acteurs sociaux (médias, intellectuels, partis) se soit cristallisée dans cet étonnant coup symbolique survenu en 1968 au pays d’Alfred Nobel.

Les multiples formes du tournant néo-libéral

En proposant cette histoire originale, les auteurs ont quelque peu délaissé l’étude historique plus banale, mais difficile du point de vue des sources mobilisables, du processus de sélection et, plus précisément, de la façon dont est organisée, depuis les origines, la nomination des lauréats. Celle-ci se déroule en plusieurs phases et mobilise des économistes dans le monde entier, ce qui contribue à renforcer la cohésion interne de la discipline tout en régulant les rapports de force entre ses composantes. On peut aussi regretter qu’ils n’aient pas systématiquement mis en relation les prises de position idéologiques et méthodologiques des lauréats et leurs caractéristiques biographiques, ni étudié l’évolution des lauréats de ce point de vue [2].

Le point le plus délicat est sans aucun doute la centralité qu’accordent les auteurs à la compétition historique entre science économique et social-démocratie. S’il permet en effet de bien comprendre les origines et les spécificités suédoises du prix, on peut se demander jusqu’où ce schéma interprétatif peut s’étendre, y compris pour comprendre le pouvoir symbolique de l’« effet Nobel ». En particulier, quelle place accorder aux évolutions ayant lieu simultanément dans d’autres pays et d’autres espaces sociaux ? On pense en premier lieu aux États-Unis, dont la position dans le champ de la science économique devient de plus en plus clairement dominante au fil du temps. L’école de la nouvelle macroéconomie classique s’y impose selon une logique interne encore relativement méconnue, mais sans doute assez proche à certains égards de ce que les auteurs décrivent pour le cas suédois. Le tournant néo-libéral mondial renvoie enfin à divers changements d’ampleur qui traversent les banques centrales, les ministères des Finances, les organisations internationales puis les gouvernements durant les années 1970 et 1980, qui interagissent de façon subtile avec les changements propres à la discipline économique.

La contribution de cet ouvrage n’en reste pas moins particulièrement importante et stimulante pour les recherches futures sur ces différents sujets.

Frédéric Lebaron

Tue, 19 Sep 2017 09:00:00 +0200

Qui sait ?

Au début des années 1990, l’arrivée du web a vite été comprise par de nombreux chercheurs et chercheuses, notamment en mathématiques et en physique, comme un nouveau moyen de partager rapidement leurs résultats de recherche en les rendant immédiatement accessibles à tous leurs collègues et étudiants partout sur la planète [1]. Libérant la diffusion scientifique des contraintes liées au format imprimé, cette technologie numérique semble converger avec l’idéal de la science moderne que définit Robert Merton (1973 [1942]), selon lequel la science est le produit cumulatif d’une multitude de collaborations qui créent ensemble ce que J.-C. Guédon appelle la « grande conversation scientifique ». Cette conversation devient d’autant plus riche que les articles et livres qui la nourrissent circulent librement et facilement sur le web, en libre accès, au lieu de n’être accessibles que sur abonnement ou en les payant à la pièce, même quand il s’agit de fichiers .pdf. En particulier, la circulation améliorée et rapide des résultats de la recherche évite les redondances et les répétitions inutiles de travaux scientifiques et améliore la qualité de la science en suscitant de nouvelles idées, de nouvelles hypothèses, de nouveaux projets de recherche (Eysenbach, 2006 ; Wilder et Levine, 2016).

Cet argument de la « productivité scientifique accrue » grâce au libre accès est non seulement séduisant aux yeux des gestionnaires de la recherche, mais aussi parfaitement compatible avec l’impératif d’innovation (OCDE, 2015) au cœur des politiques scientifiques actuelles, parfois appelées « stratégies de recherche et d’innovation ».

À cela s’ajoute un argument plus politique en faveur du libre accès [2]. Cet argument prétend que le libre accès contribue à créer une « société du savoir » puisqu’il rend possible l’accès direct aux publications scientifiques par différents publics sans lien avec une université : des non-universitaires, mais aussi des diplômés et diplômées qui peuvent ainsi continuer à se former et à s’informer, notamment les membres des administrations publiques ou des organismes de la société civile, les enseignants et enseignantes pré-universitaires et les journalistes.

Ce dernier argument touche directement les pays d’Afrique francophone subsaharienne dont les universités manquent cruellement de ressources et n’ont certainement pas la capacité de s’abonner aux revues scientifiques onéreuses qui retiennent l’attention des chercheurs et chercheuses du Nord. Le libre accès est-il donc la solution aux lacunes documentaires de ces universités africaines et, ce faisant, un moyen crucial d’y faire décoller la recherche scientifique ? Je voudrais montrer que ce n’est pas le cas, et suggérer que le libre accès peut au contraire devenir un outil néocolonial en renforçant les injustices cognitives qui empêchent les chercheurs et les chercheuses d’Afrique de déployer pleinement leurs capacités de recherche au service du développement local durable de leur pays (voir Piron et al., 2016a). Est-il possible de faire du libre accès un outil d’émancipation et de justice cognitive ? Je réponds à cette question dans la deuxième partie du texte [3].

Le libre accès, outil de rattrapage ou du néocolonialisme ?

Le libre accès aux publications scientifiques est, comme on l’a vu, une occasion d’accélérer et de renforcer la circulation des savoirs autant parmi ceux et celles dont la recherche est le métier que parmi les utilisateurs de connaissances en général. Pourrait-il alors permettre aux universités d’Afrique francophone subsaharienne et d’Haïti [4] de combler leur « retard » en matière de documentation scientifique et ainsi de renforcer leur mission de recherche qui, à vrai dire, est quasi inexistante ?

Comme le montre la carte des publications scientifiques par pays dressée par J. Alperin, l’Afrique francophone subsaharienne a produit moins de 1 % des articles scientifiques dans le monde en 2011. Ces pays n’ont visiblement pas réussi à mobiliser ou choisi de se donner les moyens de produire les connaissances scientifiques dont ils ont besoin pour appuyer et guider leur développement durable, si bien qu’ils continuent de dépendre des recherches menées au Nord ou financées par le Nord. B. Mvé-Ondo (2005) rappelle le choc subi par les universités africaines au moment des ajustements structurels et de la réduction des budgets publics dans les années 1980 : diminution du nombre de postes universitaires, absence de politique scientifique susceptible de financer des recherches locales, obsolescence des infrastructures de recherche et des programmes d’enseignement, « clochardisation » des enseignants et enseignantes qui doivent chercher des revenus supplémentaires, exode continuel des cerveaux vers les pays du Nord, massification des effectifs étudiants et manque de ressources des bibliothèques universitaires. Notre enquête SOHA sur l’expérience universitaire en Afrique et Haïti confirme ce triste portrait en montrant toutes les injustices cognitives qui empêchent le développement d’activités de recherche scientifique dans ces pays (Piron et al., 2016a). Le libre accès se présente alors aisément comme un moyen de rattrapage, permettant au moins de combler les lacunes des bibliothèques et de l’enseignement souvent désuet.

Toutefois, ce raisonnement ne peut qu’en évoquer un autre bien connu, portant non pas sur le développement scientifique de l’Afrique, mais sur son développement en général. L’Afrique serait en retard sur le monde moderne, ce qui expliquerait son sous-développement, pour résumer brutalement cette conception tristement hégémonique des rapports nord-sud. Par charité, les pays du Nord se sentent alors obligés de l’aider à se développer, ce qui alimente toute l’industrie entourant l’aide au développement.

Cette vision a été puissamment critiquée par des penseurs (e.g. Escobar 2000, 2007) surtout issus des pays des Suds [5] qui estiment qu’elle érige en norme universelle un modèle de développement en fait issu de la modernité européenne, donc tout à fait local et non universel, malgré ses aspirations (Martín Alcoff, 2007).

Ce modèle du retard, violemment imposé par l’Occident au reste du monde par le biais de la colonisation, a été utilisé pour justifier l’exploitation économique et cognitive (Connell 2014) des continents colonisés sans laquelle la modernité n’aurait pu prospérer. La critique de ce modèle considère que l’aide au développement et l’industrie qu’elle a engendrée ont poursuivi cette exploitation même après les indépendances, nuisant à la montée réelle en autonomie des pays des Suds qui restent perpétuellement assistés et dépendants du Nord (Moyo 2009). Selon cette critique postcoloniale, la fracture économique et sociale actuelle entre le Nord et les Suds est la trace de l’impossibilité vécue par de nombreux pays ou communautés des Suds de se développer de manière souveraine, c’est-à-dire selon leurs propres normes et valeurs locales, ancrées dans leur territoire et leur histoire.

Je propose d’appliquer cette critique postcoloniale à l’idée du « rattrapage scientifique » que devrait opérer l’Afrique. N’existe-t-il qu’un seul modèle de développement scientifique, celui de la science occidentale héritière de la modernité colonisatrice, ou bien peut-on imaginer une science différente, africaine, tournée vers les préoccupations du continent ? Mvé-Ondo (2005) rappelle l’origine coloniale de la science africaine, son assujettissement continuel aux projets de recherche du Nord et à ses cadres théoriques (Connell 2016) et sa tendance à vouloir imiter la science occidentale sans effort de contextualisation, notamment dans la structuration et le fonctionnement des universités (Fredua-Kwarteng , 2015) et dans le maintien de l’usage d’une langue coloniale dans l’enseignement universitaire. Si l’on s’en tient à la perspective positiviste selon laquelle « la science » est universelle – même si son « essence » est symbolisée par le magazine américain Science –, alors effectivement la science africaine, c’est-à-dire celle qui se fait en Afrique, est en retard, et il faut l’aider à se développer pour qu’elle ressemble de plus en plus à celle du Nord.

Mais si on adopte la perspective critique, alors la science africaine devrait être un savoir africain, ancré dans des contextes africains, qui utilise des épistémologies africaines pour répondre à des questionnements africains, tout en utilisant aussi les autres savoirs du monde entier, y compris occidental, s’ils sont pertinents localement. Pour que cette science-là se développe, Mvé-Ondo propose de passer « d’une occidentalisation de la science à une science vraiment partagée » (p. 49) et appelle à une « mutation épistémologique », une « renaissance modernisante » de la science africaine au carrefour des savoirs locaux et de la science du Nord. Il fait ainsi peut-être écho à l’appel de Fanon (2002) pour une « pensée neuve » dans les pays du Tiers-monde, repris par les militants de la justice cognitive (Hall et Tandon, 2017 ; de Sousa Santos, 2008, 2016). Tant que cette mutation ne se fera pas, la science africaine qui se tourne vers le modèle du Nord souffrira d’une constante aliénation épistémique qui nuit à son développement.

La perspective critique nous amène aussi à « localiser » la science du Nord dans un contexte historique et géographique spécifique. De ce point de vue, cette science, loin d’être universelle, est globale. M’inspirant, comme Keim et quelques autres, de la théorie de Wallerstein (1996), je considère qu’elle est devenue un système-monde dont l’unité marchande est la publication scientifique qui circule entre de nombreuses instances à haute valeur économique, notamment des universités, des centres de recherche, des politiques scientifiques, des revues et un oligopole d’éditeurs scientifiques à but lucratif (Larivière, Haustein, et Mongeon, 2015).

De quoi se compose ce système-monde ? Au centre se trouvent les pays du Nord où sont produites l’immense majorité des publications-marchandises, en particulier les États-Unis, la Grande-Bretagne et l’Australie. La semi-périphérie est constituée par tous les autres pays, qu’ils soient du Nord ou du Sud « avancé » (Chine, Brésil, Afrique du Sud), qui gravitent autour de ce centre, cherchant à y pénétrer ou à l’imiter en adoptant de plus en plus la langue anglaise comme langue de publication et l’article indexé dans les bases de données américaines Web of Science ou Scopus comme unité de savoir scientifique. La périphérie désigne finalement tous les pays qui sont exclus de ce système, notamment en Afrique subsaharienne francophone : des pays qui ne produisent pas ou très peu de publications scientifiques indexées dans les bases de données américaines et trouvables par les moteurs de recherche usuels [6]. Rappelons que la carte d’Alperin, loin d’être une photographie de l’état général de la science dans le monde, est une image du système-monde que le Web of science essaie de construire et de régenter à partir de ses normes et des 33 000 revues qu’il indexe et dont il traque les citations mutuelles.

En somme, explique P. Hountondji (2001, p. 4),

la recherche scientifique postcoloniale reste fondamentalement extravertie : tournée vers l’extérieur, organisée pour répondre à une demande (théorique, scientifique, économique, etc.) qui vient du Centre du marché mondial. [Cette dépendance s’étend] aux équipements, à la documentation, aux paradigmes scientifiques produits au Centre.

Dans ce contexte, le libre accès peut apparaître comme un outil néocolonial, car il facilite l’accès des chercheurs et chercheuses des Suds à la science du Nord sans assurer la réciproque. Ce faisant, il redouble l’aliénation épistémique de ces chercheurs et chercheuses au lieu de contribuer à l’émancipation des savoirs créés dans les universités des Suds en les libérant de leur extraversion. En effet, en rendant encore plus accessibles les travaux produits au centre du système-monde, le libre accès maximise leur impact sur la périphérie et renforce leur utilisation comme référence théorique ou comme modèle normatif, au détriment des épistémologies locales, ce qui engendre des situations absurdes comme, par exemple, l’utilisation d’un cadre théorique lié au salariat en région parisienne pour analyser le travail des femmes du nord du Mali :

Les conséquences qui en découlent sont, notamment, les enseignants des pays des Suds qui ne citent et ne lisent que des auteurs venus du Nord et les imposent à leurs étudiants et les bibliothèques de nos universités qui font tout pour s’abonner aux revues savantes occidentales alors qu’elles ne traitent pas de nos problèmes. (Mboa Nkoudou, 2016)

Deux exemples illustrent ces effets aliénants du libre accès.

Research4life

Research4life est le nom collectif de 4 programmes en place depuis 2002 : Health Access to Research (HINARI), Research in Agriculture (AGORA), Research in the Environment (OARE) et Research for Development and Innovation (ARDI). Son slogan est « L’accès à la recherche pour les pays en développement » et sa mission est d’« offrir aux pays en développement un accès gratuit ou peu coûteux à du contenu scientifique et technique en ligne, évalué par les pairs, [afin de] réduire le fossé scientifique entre les pays à haut revenu et les pays à bas et moyens revenus ».

D’après son site web, ce programme d’aide au développement par la réduction de la fracture scientifique a, jusqu’en 2017, donné accès gratuitement ou à faible coût à plus de 77 000 revues scientifiques dans 8200 institutions de plus de 115 pays en développement. Les pays bénéficiaires sont classés en deux catégories : les pays A (72 pays) et les pays B (45 pays). Les pays de catégorie A bénéficient d’une gratuité totale alors que ceux de catégorie B doivent payer une somme forfaitaire pour accéder à ces ressources scientifiques. Notons qu’il existe d’autres programmes de ce type, par exemple le Low Cost Journals Scheme, aussi connu sous l’appellation de Protecting the African Library Scheme within Africa, The Journal Donation Project (un projet de la New School of Social Research), la JSTOR’s African Access Initiative et The Developing Nations Access Initiative.

Research4life et les programmes qui lui sont apparentés offrent à mes yeux un exemple parfait du néocolonialisme scientifique qui se cache sous l’apparence d’un geste charitable et généreux inspiré par l’idéal du libre accès. Il y a d’ailleurs une grande parenté entre la mission que se donne Research4life et la conception coloniale et postcoloniale du développement comme « rattrapage », comme si la seule façon de lutter contre l’injustice cognitive et la fracture scientifique était de distribuer charitablement le savoir du Nord au Sud, gratuitement ou à faible coût. Plusieurs aspects du fonctionnement du programme le montrent très clairement.

Tout d’abord, le consortium à l’origine de Research4life est loin d’être à but non lucratif ou désintéressé, puisqu’il inclut la International Association of Scientific, Technical & Medical Publishers et plus de 185 éditeurs scientifiques à la recherche de nouveaux marchés pour leurs produits, les revues scientifiques du Nord. Ensuite, les bibliothèques universitaires des Suds qui participent au programme ne peuvent pas choisir les revues qu’elles reçoivent, puisqu’il s’agit de « bouquets de revues » prédéfinis par des éditeurs du Nord. N’ayant pas de contrôle sur les revues qu’elles offrent à leurs lecteurs et lectrices, elles ne peuvent pas les sélectionner en fonction de leur pertinence pour les enjeux locaux, autre forme subtile d’aliénation épistémique. Troisièmement, ce programme encourage la perpétuation de la dépendance de ces bibliothèques envers un programme externe, conçu au Nord et mettant en valeur les produits du Nord, alors qu’il pourrait disparaître dès que cette volonté philanthropique s’épuisera ou dès que les partenaires commerciaux n’y trouveront plus de bénéfices.

Non seulement cet état de dépendance nuit à la découverte du véritable libre accès sur le web par les bibliothèques universitaires des pays des Suds, par exemple le moteur de recherche Base-search et son moissonnage des archives institutionnelles ouvertes, mais il mène à des situations absurdes, comme celle que j’ai constatée lors d’une visite en juin 2015 dans une bibliothèque universitaire d’Afrique francophone qui participait à Research4life. Le programme y avait installé deux ordinateurs donnant accès à ses revues. Mais pour éviter que des personnes non autorisées y aient accès, ces ordinateurs étaient protégés par des mots de passe qui changeaient tous les mois ! Lors de ma visite, les bibliothécaires avaient perdu le fil de ces changements, si bien que les ordinateurs de Research4life étaient inutilisables.

Ce programme produit donc une situation à l’opposé de ce qu’il annonce en fanfare sur son site, à savoir que « l’accès à la littérature scientifique améliore les conditions de vie des communautés du monde entier », phrase hélas vide de sens. Ce programme améliore surtout les débouchés des éditeurs du Nord sans contribuer à l’empowerment durable des bibliothèques universitaires des Suds.

Payer pour publier

Dans les pays du Nord, de nombreux chercheurs et chercheuses, surtout en STEM (Björk et Solomon, 2012) [7], estiment (à tort) que le libre accès signifie désormais « frais de publication demandés aux auteurs » (Kozak et Hartley, 2013). En effet, depuis le début des années 2000 (Marincola, 2003), plusieurs revues scientifiques se sont mises à demander des « frais de publication » (pouvant aller jusqu’à 5000 $ US par article) aux auteurs et auteures qui leur fournissent des articles gratuitement, indiquant que c’est le prix à payer pour leur passage au libre accès : si les lecteurs et lectrices ne doivent plus payer, alors ce sont les auteurs et les auteures qui paieront, d’autant plus que leur carrière ou leur désir de prestige exigent qu’ils et elles publient toujours plus : une nouvelle clientèle captive est née !

Même si, d’après des décomptes récents (Kozak et Hartley, 2013), environ un tiers des revues en libre accès imposent de tels frais, cette innovation commerciale semble actuellement porter ses fruits, puisque ces frais en viennent à sembler naturels aux chercheurs et aux chercheuses du Nord qui en transfèrent tout aussi naturellement le fardeau à leurs subventions de recherche, c’est-à-dire aux fonds publics. Ainsi, notre enquête à l’Université Laval (Piron et Lasou, 2015) montre que la moitié des personnes consultées pensent que toutes les revues en libre accès font automatiquement payer les auteurs et les auteures.

Pour les universitaires africains ou haïtiens qui doivent travailler dans des conditions matérielles très difficiles et qui n’ont qu’exceptionnellement accès à des fonds de recherche, tout ceci n’a aucun sens. Certes, la plupart des éditeurs scientifiques pratiquant les frais de publication annoncent qu’ils offrent charitablement des exemptions aux auteurs et auteures des pays les plus pauvres qui souhaiteraient publier chez eux. Mais les obstacles à de telles publications sont tellement nombreux, à commencer par la langue, l’absence de subvention de recherche ou d’équipement, etc., que cette charité semble bien hypocrite, et a fortiori arbitraire, puisqu’elle peut cesser à tout moment. Le libre accès apparait ici comme une nouvelle corde à l’arc du capitalisme cognitif florissant dans les pays du Nord, fondé sur un modèle d’affaires lucratif qui mise sur la captivité d’auteurs et d’auteures qui ne connaissent que la loi « publier ou périr ». Non seulement cette pratique commerciale est dénuée de toute pertinence au regard des conditions matérielles du travail intellectuel dans les universités africaines ou haïtiennes, mais elle va à l’encontre de la multiplication espérée de leurs publications scientifiques. C’est une injustice cognitive.

L’utopie du libre accès

Découvrant au fil de notre projet de recherche-action les avantages possibles du libre accès pour leurs travaux, c’est-à-dire l’accès gratuit à une documentation scientifique et technique non accessible autrement, les étudiants et étudiantes que nous avons rencontrés en Afrique francophone subsaharienne et en Haïti ont souvent pointé un paradoxe douloureux : « comment en profiter alors que notre accès au web, à un ordinateur et même à l’électricité n’est pas garanti ? » Les conditions déplorables de l’accès à Internet dans les universités africaines et haïtiennes où nous avons travaillé font du libre accès une utopie lointaine. L’accès à ces millions d’articles est-il vraiment libre s’il n’est pas matériellement possible ? Je réponds toujours à cette plainte parfaitement justifiée qu’il vaut mieux avancer à petits pas avec ceux et celles qui peuvent suivre qu’attendre, pour agir, que l’Afrique et Haïti soient parfaitement connectées…

Trouver des articles pertinents en libre accès sur le web exige des compétences numériques qui, nous l’avons constaté, sont rares parmi les étudiants et les étudiantes d’Haïti et d’Afrique pour qui le web se résume parfois à Facebook, par le biais de son programme Freebasics [8]. Rappelons que c’est presque toujours en arrivant à l’université que ces étudiants et étudiantes touchent pour la première fois à un ordinateur. Le rattrapage est rapide, mais bien des réflexes acquis dès l’école primaire dans les pays du Nord doivent s’installer avant même de pouvoir imaginer qu’il existe des textes scientifiques en libre accès sur le web pour compenser le manque de documents dans les bibliothèques. Dans les mots de l’étudiant haïtien Anderson Pierre, « une grande partie des étudiants ignore l’existence de ces ressources ou n’a pas les compétences numériques pour y accéder et les exploiter afin d’avancer son projet de recherche ».

À quelles conditions le libre accès peut-il être décolonial ?

À part Hall et Tandon (2017), peu de chercheurs et chercheuses en études postcoloniales ont vraiment réfléchi à la possibilité de « décoloniser » le libre accès pour en faire un outil d’émancipation. Centrés sur la dimension politique et épistémologique de la décolonisation de l’esprit (Thiong’O, 2016), ils et elles en oublient de réfléchir aux conditions de publication et de diffusion de leur propre production scientifique et de s’assurer de son accessibilité dans les pays des Suds (Piron, 2017). Les réflexions et expériences menées dans le cadre de notre recherche-action SOHA ont permis à l’inverse d’explorer plusieurs manières de faire du libre accès un outil d’émancipation et d’empowerment (Piron et al., 2016b).

Tout d’abord, nous avons explicitement formulé une utopie concrète fondée sur une contestation de l’hégémonie du système-monde de la science centré dans les pays du Nord. Nous pensons qu’« une autre science est possible », une science répondant aux enjeux du développement local durable au Nord comme au Sud, plurilingue (disponible dans les langues nationales en plus des langues coloniales), qui s’ouvre à la pluralité des épistémologies, dont l’universalisme est inclusif et non normatif, et qui, bien sûr, est disponible en ligne en libre accès sous la licence Creative Commons. Cette autre science prend ses distances avec l’économie du savoir qui domine les politiques scientifiques des pays de l’OCDE, mais sans se refermer sur elle-même : elle s’ouvre aux partenariats avec les acteurs du développement local que sont les PME, les administrations locales, mais surtout les membres de la société civile dans toute sa diversité. Et surtout, elle propose explicitement de rapatrier l’écosystème de la publication scientifique dans les universités, sans la médiation des acteurs économiques privés que sont les éditeurs scientifiques à but lucratif. En utilisant des logiciels libres comme Open Journal Systems, en développant le support à l’édition de revues dans les presses universitaires ou les bibliothèques, en regroupant les services de gestion de l’évaluation par les pairs entre plusieurs revues, en somme en réorganisant le processus éditorial au sein de l’université, il sera possible de retrouver une vie scientifique dans laquelle le libre partage des articles est normal, comme il l’était au début du XXe siècle (Langlais 2015), au lieu d’être audacieux.

Ensuite, nous proposons de repenser la définition usuelle du libre accès pour lui ajouter le mandat de renforcer la visibilité des travaux scientifiques produits dans les universités des Suds et de contribuer ainsi à une plus grande justice cognitive au sein de la production scientifique mondiale. Mais pour qu’il se mette au service de l’égalisation du niveau de visibilité et d’accessibilité des savoirs produits au Nord et dans les Suds, le libre accès doit prendre en compte la spécificité des savoirs produits dans les universités des Suds, en particulier en Afrique subsaharienne, et changer leurs normes de production. En effet, contrairement aux pays du Nord qui survalorisent la publication dans les revues scientifiques, les savoirs africains se trouvent surtout dans les mémoires, les thèses et les rapports de recherche, hélas rarement en ligne ou en libre accès (Ezema, 2013, Schöpfel et Soukouya, 2013). Invisibles dans les bases de données du Nord, ils n’en sont pas moins dotés de valeur et de pertinence dans de nombreux contextes où ils devraient pouvoir être accessibles librement. Il est fort triste de constater que les géographes de Ouagadougou connaissent mieux les travaux européens sur le Sahel que ceux de l’Institut supérieur du Sahel de Maroua au Cameroun.

L’aide au développement scientifique de l’Afrique, s’il en faut, devrait donc être orientée bien moins vers l’accès immédiat aux publications du Nord et bien plus vers le développement local d’outils et le renforcement des compétences numériques des universitaires et des bibliothécaires. Ces outils et ces compétences leur permettraient non seulement de profiter des bases de données en libre accès [9], mais aussi de numériser et de mettre en ligne et en libre accès les travaux scientifiques locaux dans des archives ouvertes, des revues ou des maisons d’édition en libre accès.

À ce propos, je souligne pour terminer deux initiatives issues de notre projet. La première vise la construction, sous la houlette du Conseil africain et malgache pour l’enseignement supérieur, d’une archive scientifique panafricaine ouverte, interopérable avec l’ensemble des archives ouvertes existantes, qui permettrait à toutes les universités d’Afrique francophone admissibles et qui le souhaitent de déposer en libre accès les travaux de leurs chercheurs et chercheuses, étudiants et étudiantes. La seconde est le fait d’un groupe d’étudiants et d’étudiantes bénévoles en Haïti qui ont entrepris de numériser et de mettre en ligne des travaux haïtiens de sciences sociales, récents ou classiques, dans la collection « Études haïtiennes » de la bibliothèque numérique indépendante en libre accès Les Classiques des sciences sociales. Cette collection contient en août 2017 près de 170 textes, dont les œuvres du très important sociologue haïtien Jean Price-Mars. Depuis la création de la collection en décembre 2013, plus de 445 000 téléchargements ont été recensés…

-  Linda Martín Alcoff, « Mignolo’s Epistemology of Coloniality », CR : The New Centennial Review, vol. 7, no3, 2007, p. 79–101.

-  Juan Pablo Alperin, « World Scaled by Number of Documents in Web of Science by Authors Living There », 2013.

-  Bo-Christer Björk et David Solomon, « Open Access versus Subscription Journals : A Comparison of Scientific Impact », BMC Medicine, vol. 10, 2012.

-  Raewyn Connell, « Using Southern Theory : Decolonizing Social Thought in Theory, Research and Application », Planning Theory, vol. 13, no 2, 2014, p. 210–23.

-  Raewyn Connell, « Les sciences sociales à l’échelle mondiale. Connecter les pages », in Florence Piron, Samuel Regulus et Marie Sophie Dibounje Madiba (dir.) Justice cognitive, libre accès et savoirs locaux. Pour une science ouverte juste, au service du développement local durable, Éditions science et bien commun, Québec, 2016.

-  Arturo Escobar, « Beyond the Search for a Paradigm ? Post-Development and Beyond », Development, vol. 43, no 4, 2000, p. 11–14.

- Arturo Escobar, « Post-Development as Concept and Social Practice », in Exploring Post-Developement. Theory and Practice, Problems and Perspectives, Routledge, Londres, Aram Ziai, 2007.

-  Gunther Eysenbach, « Citation Advantage of Open Access Articles », PLoS Biology, vol. 4.5, 2006.

-  Frantz Fanon, Les damnés de la terre, Paris, Découverte/Poche, 2002.

-  Eric Fredua-Kwarteng, « The Case for Developmental Universities », University World News, octobre 2015.

-  Jean-Claude Guédon, « Le libre accès ou le retour de la grande conversation. Entretien. », Framablog, 2010.

-  Budd L. Hall, Rajesh Tandon, « Decolonization of Knowledge, Epistemicide, Participatory Research and Higher Education », Research for All, vol. 1, no 1, 2017, p. 6-19.

-  Paulin J. Hountondji, « Le savoir mondialisé : déséquilibres et enjeux actuels », La Mondialisation vue d’Afrique, Université de Nantes/Maison Des Sciences de l’Homme Guépin, 2001.

-  Marcin Kozak et James Hartley, « Publication Fees for Open Access Journals : Different Disciplines—Different Methods », Journal of the American Society for Information Science and Technology, 2013, p. 2591-94.

-  Vincent Larivière, Stefanie Haustein, and Philippe Mongeon, « L’oligopole des grands éditeurs savants », Découvrir. Le magazine de l’Acfas, 2015.

-  Francesco M. Marincola, « Introduction of Article-Processing Charges (APCs) for Articles Accepted for Publication in the Journal of Translational Medicine », Journal of Translational Medicine, vol. 1, 2003.

- Walter Mignolo, Local Histories/Global Designs : Coloniality, Subaltern Knowledges, and Border Thinking, Princeton, Princeton University Press, 2012.

-  Thomas Hervé Mboa Nkoudou, « Le web et la production scientifique africaine  : visibilité réelle ou inhibée  ? », Blog du projet SOHA, 2016.

-  Robert Merton, « The Normative Structure of Science », in The Sociology of Science, University of Chicago Press, 1973, p. 267–78.

-  Dambisa Moyo, Dead Aid : Why Aid Is Not Working and How There Is a Better Way for Africa, New York, Farrar Straus Giroux, 2009.

-  Bonaventure Mvé-Ondo, Afrique  : la fracture scientifique / Africa : The Scientific Divide, Futuribles, 2005.

-  OCDE, L’impératif d’innovation - Contribuer à la productivité, à la croissance et au bien-être, Paris, OCDE, 2015.

-  Florence Piron, « Méditation haïtienne. Répondre à la violence séparatrice de l’épistémologie positiviste par une épistémologie du lien », Sociologie et Sociétés, vol. 49, no 2, à paraître en 2017.

-  Florence Piron, Samuel Regulus et Marie Sophie Dibounje Madiba (dir.) Justice cognitive, libre accès et savoirs locaux. Pour une science ouverte juste, au service du développement local durable, Éditions science et bien commun, Québec, 2016.

-  Florence Piron, Thomas Hervé Mboa Nkoudou, Anderson Pierre, et al., « Vers des universités africaines et haïtiennes au service du développement local durable  : contribution de la science ouverte juste », in Florence Piron, Samuel Regulus et Marie Sophie Dibounje Madiba, 2016 (a).

-  Florence Piron, Djossè Roméo Tessy, Sophie Dibounje Madiba, et al., « Faire du libre accès un outil de justice cognitive et d’empowerment des universitaires des pays des Suds », in Mohammed Ben Romdhane (dir.), Libre accès aux publications scientifiques entre usage et préservation de la mémoire numérique, Tunis, CCSD, 2016 (b).

-  Florence Piron et Pierre Lasou, Pratiques de publication, dépôt institutionnel et perception du libre accès. Enquête auprès des chercheuses et chercheurs de l’Université Laval, Québec, Université Laval, 2014.

- Joachim Schöpfel and Maebena Soukouya, « Providing Access to Electronic Theses and Dissertations : A Case Study from Togo », D-Lib Magazine, vol. 19. no 11/12, 2013.

- Boaventura de Sousa Santos, Another Knowledge Is Possible : Beyond Northern Epistemologies, Londres, Verso, 2008.

Boaventura de Sousa Santos, Épistémologies du Sud, Paris, Desclée de Brouwer, 2016.

-  Ngugi wa Thiong’O, Décoloniser l’esprit, Paris, La fabrique, 2011.

-  Immanuel Wallerstein, « Restructuration capitaliste et le système-monde », Agone, 1996, p. 207–33.

-  Richard Wilder et Melissa Levine, « Let’s Speed up Science by Embracing Open Access Publishing », STAT, 2016.

Florence Piron