Cultiver d’autres expertises sur les sciences et les technologies

François Thoreau

Les controverses touchant aux sciences et aux nouvelles technologies ont, bon gré, mal gré, démontré les limites d’une expertise scientifique qui se conçoit dans les termes trop étroits d’un positivisme rationaliste. Elles ont déstabilisé, au cœur d’une des institutions centrales de la modernité - la science - l’autorité de la « chose prouvée », au sens de ces faits objectifs qui s’imposent au collectif sans autre forme de procès, précisément parce qu’il devient de plus en plus compliqué de désenchevêtrer ces entités aux multiples facettes, ces « hybrides » (Latour, 1991). Dès lors, sous l’effet de cette déstabilisation, toute une série d’ouvertures des processus décisionnels ont vu le jour, à d’autres types d’expertise, ou encore de multiples initiatives de « participation du public ».

À l’heure où la question de l’expertise et de ses limites devient centrale pour le devenir de nos sociétés démocratiques (voir Bastenier dans ce numéro), l’occasion est belle de revenir sur les dynamiques de l’expertise dans le domaine des sciences et des technologies. Mais avec une mise en garde préalable : il faut se garder d’en faire prématurément le récit d’une success story, et ériger les tentatives participatives qui ont vu le jour jusqu’à présent en une panacée dont les vertus suffiraient, à elles seules, à éteindre les contestations — ce qui suppose déjà qu’atteindre un tel objectif d’extinction des controverses soit louable en soi. Cette contribution propose donc de revenir sur l’expertise « traditionnelle » et de situer, dans une perspective critique, les dispositifs conçus pour élargir le spectre de la décision politique, lorsqu’elle se rapporte aux sciences et aux technologies.

Limites de l’expertise

L’époque est marquée par la « prolifération des hybrides », selon le mot de Bruno Latour (1991). Ceux-ci se reconnaissent précisément à ce qu’on ne peut distinguer radicalement, à leur sujet, ce qui relèverait de problèmes spécifiquement scientifique, technologique ou politique. Ces dimensions sont inextricablement mêlées et indissociables les unes des autres. Si ces hybrides prolifèrent, c’est bien en raison de la cadence de l’irruption de nouvelles technologies dans notre quotidien, qui bouleversent sans cesse les conceptions — surtout les plus figées — que nous pouvions avoir de notre société. Mais c’est également en raison des vastes problèmes, notamment environnementaux, auxquels nous sommes confrontés, comme la question du réchauffement climatique.

Cette figure de « l’hybride », quand on y pense, s’est étendue bien au-delà des objets sociotechniques à strictement parler. Songeons, ainsi, à ce que la modélisation et les algorithmes sophistiqués ont fait à l’économie ces dernières années. Comment situer l’informatisation de nos vies, lorsqu’une proportion croissante des ordres de bourse est automatisée et réactive à la fraction de seconde ? L’hybride produit des problèmes qui sont impossibles à appréhender de façon monodimensionnelle, qui nécessitent de croiser de multiples approches telles que, pour en citer quelques-unes dans ce cas, une étude des dynamiques de marché et des phénomènes spéculatifs (les bulles et les crashs), de la sociologie des techniques (que devient le trader, à quelles nouvelles médiations l’obligent les évolutions constantes de son outil de travail ?), de l’économie politique, une philosophie de l’ordinateur — qui se définit par sa puissance de calcul et sa capacité à générer et organiser des flux d’informations —, voire encore de la philosophie politique (qu’advient-il de la démocratie lorsque les mouvements boursiers s’automatisent ?).

Dans le domaine des études sociales des sciences des technologies, de nombreux auteurs ont déjà démontré, solides études de cas à l’appui, les limites d’une expertise traditionnelle, c’est-à-dire strictement « scientifique », voire parfois « scientiste ». L’exemple le plus connu est celui des moutons du sociologue britannique Brian Wynne. Dans un chapitre intitulé « May the Sheep Safely Graze ? », Wynne (1996) démontre le caractère toujours incomplet du savoir scientifique, qui dépend du lieu où il est produit, des savoirs disponibles, de l’époque également. Il raconte l’histoire de moutons et de leurs éleveurs dans la région de Cumbria, au Nord-Ouest du Royaume-Uni. Ces moutons sont atteints de pathologies qui résultent, selon les projections théoriques des scientifiques, d’une exposition au nuage de Tchernobyl. Les éleveurs, quant à eux, attribuent l’apparition de ces problèmes à l’inauguration récente, à proximité, d’un centre de retraitement des déchets nucléaires. L’histoire donnera raison à ces derniers, déjouant la frontière étanche qui avait été tracée entre « savoirs experts » et « savoirs profanes ». Ainsi, l’expérience de ces éleveurs, « l’expertise d’usage », ou encore certains savoirs, dont la pertinence est éminemment contextuelle et locale, viennent petit à petit bouleverser l’autorité absolue de l’expertise scientifique, sur des questions scientifiques et techniques complexes, et dorénavant sujettes à controverses.

Il ne faudrait pas sous-estimer l’importance de ce bouleversement, dans la mesure où les savoirs pris en compte dans l’élaboration d’une décision sont lourds de conséquences. Car c’est bien de cela qu’il s’agit ; comme le formule très clairement Marc Mormont, « l’expertise n’a de sens que si elle fournit un savoir pour une décision, pour une action, pour un choix » (2002, p. 9). Ainsi, dans l’exemple des moutons de Cumbria, il ne s’agissait pas que d’une question de principe, d’avoir raison contre la science ; il s’agissait surtout de lever les restrictions sanitaires qui frappaient les éleveurs, leur faisant encourir d’importantes pertes économiques. Or, tant qu’une autorité absolue, décontextualisée, valide en tous temps et en tous lieux, était conférée aux pronostics des scientifiques, toute velléité d’intervenir dans le processus d’élaboration des savoirs, de la part des éleveurs, ne pouvait qu’être perçue comme la manifestation d’une ignorance qui faisait obstacle à la solution rationnelle. Tout au plus pouvait-on leur reconnaitre le réflexe corporatiste de la défense d’intérêts bien compris. Wynne montre l’insuffisance, dans ce cas, de la mobilisation d’un mode de connaissance unique afin de répondre à un problème complexe, et donc la possibilité, voire la nécessité, de reconnaitre comme valides une pluralité de savoirs exprimés sur des modes différents. Complémentaires, donc, plutôt qu’opposés.

Or, trop souvent encore aujourd’hui, c’est à l’expertise scientifique, et à elle seule, qu’est confiée la lourde tâche de se prononcer sur les problèmes les plus sensibles liés aux nouvelles technologies. Prenons le cas des nanotechnologies, cet ensemble de technologies dont la microscopique taille ouvre sur toute une série de propriétés des matériaux, qui nous étaient inconnues jusqu’alors. S’il y a bien une chose que l’on sait à propos des nanotechnologies, c’est que l’on n’en sait pas grand-chose ! C’est un domaine marqué par d’innombrables incertitudes. Or, les pouvoirs publics en ont bien pris conscience et ont cherché, dès le départ, à s’interroger sur toutes les conséquences du développement de ces nanotechnologies (Thoreau, 2012). Pourtant, pour l’essentiel, les questions qu’ils posent relèvent du strict domaine scientifique et il ne peut y être répondu que par les outils classiques de la méthode scientifique. Typiquement, ces questions restent majoritairement limitées à des questions de toxicologie, de risques quantifiables qui, en dépit de leur intérêt, ne sont pas les seules qui vaillent la peine d’être posées. C’est donc sur ce terrain du « risque » que se produisent les débats, de manière privilégiée. Ainsi, c’est un reproche récurrent formulé aux organisations et associations environnementales qui, parfois, déploient leur argumentaire dans les termes d’une « contre-expertise » scientifique, formulée donc en termes de risques. Lorsqu’elles agissent de la sorte, ces associations admettent de facto la légitimité du terrain sur lequel elles jouent, en s’appropriant les termes de la question tels qu’ils ont été formulés à l’avance par d’autres instances. Poser la question du risque, c’est postuler qu’il est possible de connaitre précisément et avec certitudes les conséquences exactes d’un développement scientifique. De manière croissante, la question des risques ne suffit plus à rendre compte des enjeux proprement politiques liés aux nouvelles technologies et aux institutions complexes qui président à leur destinée.

Nouveaux contextes institutionnels

En effet, cette prédominance de l’expertise scientifique, en dépit de ses limites, se double d’une confusion quant aux rôles respectifs de l’État, des industries et des instituts scientifiques, les uns et les autres s’entremêlant chaque jour un peu plus. Le meilleur exemple en est ces immenses centres de recherche et développement créés dans les années 1980 et 1990 par le gouvernement flamand (Derde industriële revolutie), à l’instar de l’Imec [1], et qui aujourd’hui sont des firmes majoritairement privées, qui opèrent à l’interface des milieux industriels et académiques. Ces formes institutionnellement hybrides prolongent et provoquent des complications sur la qualification des savoirs produits, surtout à une époque où ce type de modèle essaime allègrement et tend à devenir la norme. Ce qui pose question, dans ce cas, c’est le statut de l’expertise et les positions depuis lesquelles s’expriment des experts, dont c’est la possibilité de leur neutralité, cette fois, qui est remise en cause. Ainsi, récemment, une décision du gouvernement allemand a fait grand bruit, en ce qu’elle confiait une mission d’expertise sur les risques nanotechnologiques à une des industries les plus impliquées dans ce secteur, active dans la recherche à la fois scientifique et de débouchés commerciaux, à savoir BASF [2]. Ceci questionne la légitimité des sources d’expertise disponibles ou, plus précisément dans ce cas, habilitées à s’exprimer.

Bien sûr, ces questions doivent s’apprécier au cas par cas et il n’entre aucunement dans nos intentions d’intenter un procès général en « neutralité » aux experts scientifiques, ni de les condamner à l’incapacité définitive de produire tout savoir un tant soit peu pertinent. Force est, toutefois, de reconnaitre des carences dans le jeu des expertises prises en compte, en raison notamment d’une certaine « circularité » des savoirs produits, et des configurations dans lesquelles ils sont produits ; il n’est ainsi pas rare que les mêmes individus produisent la recherche scientifique, nouent des partenariats avec les milieux industriels et soient consultés au titre d’experts par des instances publiques. Cela favorise un certain hermétisme des savoirs qu’ils peuvent produire.

Prenons le cas de la gestion, par les autorités publiques belges, de la menace de pandémie de grippe A(H1N1), dont la trame s’est jouée durant l’année 2009. En dépit de sa simplicité apparente (« faut-il vacciner la population ? »), ce choix politique n’en appelait pas moins à toute une série d’informations et d’interprétations divergentes, par exemple sur le degré de plausibilité du risque de pandémie, ou encore sur d’éventuels effets secondaires du vaccin Pandemrix de la firme GlaxoSmithKlein (GSK). En tout état de cause, ce cas illustre un déficit d’expertise disponible, puisque parmi les personnalités habilitées à fabriquer l’expertise sur ce sujet, certaines se trouvaient parfois liées par voie contractuelle à des firmes pharmaceutiques, telles que GSK en l’espèce (Leloup, 2010). Bien souvent, ces mêmes personnes se voient mobilisées, au titre d’expert, par l’OMS (Thoreau, Cheneviere et Rossignol, 2012). Il y a donc, à tout le moins et sans que cela n’entache par principe l’authenticité des savoirs que ces experts produisent, une circularité préoccupante des savoirs experts, qui évoluent « en vase clos » ou, pour paraphraser Callon, Lascoumes et Barthe (2001), en milieu « confiné ». Ce que ce cas a mis en lumière, c’est l’importance d’ouvrir plus largement la définition des problèmes publics et des différentes voix capables de contribuer à leur mise en politique.

À ce stade, bornons-nous à poser le constat — plutôt banal, mais pourtant lourd de conséquences — que l’expertise scientifique traditionnelle craque par toutes ses coutures, sous l’ampleur des problèmes contemporains liés aux sciences et aux technologies. Plus elle cherche à les saisir fermement, plus ils lui échappent. Les hybrides ont eu raison du temps béni où une seule voix suffisait à faire entendre raison à tous. Innombrables sont les exemples qui démontrent dorénavant l’impossibilité de prévoir et de contrôler, avec certitude, les conséquences de la prolifération des risques et des menaces qui accompagnent les développements technologiques : songeons au scandale de la dioxine, à la crise de la vache folle et, plus récemment, à l’accident nucléaire de Fukushima où, plus d’un an après le tsunami, la situation peut encore à tout moment tourner à une catastrophe majeure [3]. Les experts ne sont plus en mesure de pouvoir exercer un contrôle ni de proposer une définition restrictive de ces problèmes en termes de « risques », c’est-à-dire de ce que l’on peut mesurer, prévenir, et encadrer à l’aide d’une règlementation adaptée. Formuler un problème complexe en de tels termes réducteurs, c’est faire fi de l’incertitude fondamentale qui le caractérise et qui fait de ce problème une menace, ou un danger, avec lequel il faut accepter — ou pas — de composer, plutôt qu’une probabilité à gérer.

Dispositifs participatifs

Face à une expertise qui ne suffit plus à dire le vrai, une fois pour toutes, qui n’est plus en mesure de stabiliser un ordre des choses, la nécessité d’ouvrir les processus décisionnels relatifs aux sciences et technologies s’est donc progressivement fait jour. Pour une science développée en laboratoire, il s’agit de réussir le grand saut dans le collectif, de cultiver la pertinence des savoirs qu’elle propose. Pour une technologie, ce passage implique la possibilité d’une altérité au contact des publics qu’elle s’apprête à affecter : si la technologie développée dans des complexes industriels de vaste envergure fait brutalement irruption dans le collectif, il y a fort à parier qu’elle se méprend, d’une façon ou d’une autre, sur les intérêts et les attentes de ceux auxquels pourtant elle se destine.

Pour répondre à ces limites de l’expertise, Callon, Lascoumes et Barthe ont proposé une innovation politique : les « forums hybrides ». Ces forums cherchent à composer avec ceux qui se mêlent activement de ce qui n’était pas supposé les regarder, sans les écarter d’un revers de la main comme des « obstacles », mais plutôt en s’activant à prendre au sérieux la controverse qu’ils provoquent. Ces auteurs s’intéressent aux cas où des groupes sociaux se sont manifestés par rapport à une évolution liée à une science ou une technologie, et qu’ils ont cherché à en contester le cadrage, c’est-à-dire la manière dont cette question se présentait et était posée par les experts. En d’autres termes, ils s’attardent sur les mouvements de contestation de l’expertise « autorisée » produite sur un sujet particulier, et les alternatives qu’ils proposent. À cette enseigne, les controverses sur les sciences et les technologies deviennent des moments d’apprentissage, plutôt que des entraves à la « bonne marche de nos sociétés sur la voie du progrès technologique ». De tels forums hybrides, selon ces auteurs, ont pour principale vertu de mettre en œuvre un principe de précaution qui ne se paye pas de mots, dans la mesure où ils permettent de « cultiver activement l’incertitude ».

Or, depuis environ la fin des années 1980 et l’émergence des biotechnologies modernes, les pouvoirs publics, bailleurs de fonds et promoteurs de l’innovation technologique, admettent la nécessité d’élargir le cadre des interrogations sur les technologies dites « nouvelles et émergentes ». C’est également valable pour d’autres de ces vastes ensembles technologiques que sont les nanotechnologies, ou encore la biologie de synthèse (la rencontre de la biologie et de l’ingénierie). Ainsi, la Commission européenne multiplie les consultations du public sur les nanotechnologies, par exemple lorsqu’il s’est agi de définir ce à quoi pouvait bien correspondre un « nano-matériau ». Aux États-Unis, dans le cadre du Human Genome Project qui avait pour objectif de séquence le génome humain, une vaste interrogation a été initiée autour des enjeux éthiques [4]. Au Royaume-Uni, un considérable projet consultatif s’est tenu autour des organismes génétiquement modifiés, intitulé GM Nation [5].

À ce stade, toutefois, ces mécanismes institutionnels n’ont pas démontré leur capacité à infléchir le cours tout tracé de ces technologies, conforme aux prévisions des experts, aux brevets et aux débouchés de marché que l’on en attendait. Les nanotechnologies, par exemple, restent guidées par des « feuilles de route » — des roadmaps — qui planifient étroitement leur devenir, découpé en plusieurs « générations » de produits, lesquels doivent arriver à maturité dans des périodes précisément délimitées (Bensaude-Vincent, 2009). Périodiquement, ces « roadmaps » sont évaluées et réajustées en fonction des accomplissements réels (Roco, 2010). Ainsi, en dépit d’une volonté affichée de « participation », ces développements restent marqués par un certain hermétisme aux publics concernés par ces technologies. En d’autres termes, le reproche couramment formulé à ces velléités participatives tient à leur manque d’effectivité. Les formes les plus institutionnalisées de « participation » sont ces plateformes multi-parties prenantes (multi-stakeholders), qu’affectionne tout particulièrement la Commission européenne. Il arrive encore trop souvent que de tels espaces produisent des rapports pontifiants, dénués de toute capacité à faire bouger les lignes, qui se satisfont de quelques mises en garde vagues et consensuelles.

Ce procès en effectivité est celui que formulaient les activistes du groupe Pièces et main-d’œuvre (PMO), en France, à l’occasion du débat national sur les nanotechnologies. En substance, ce grand débat public a eu lieu d’octobre 2009 à février 2010, et s’est tenu dans des conditions très chaotiques, une bonne partie des séances prévues (17 au total) devant être annulées, le tout aboutissant à des solutions abracadabrantesques pour maintenir un semblant d’échange par vidéo interposée, dans des lieux tenus secrets (Laurent, 2010). En effet, dès le mois de mai 2009, le gouvernement français avait lancé un grand programme de développement des nanotechnologies, intitulé « Nano-INNOV », doté d’un financement de 70 millions d’euros, sans compter les masses financières du « Grand emprunt » dirigées vers la R&D de pointe [6]. Tous ces financements témoignent indiscutablement d’une volonté politique de réaliser ces technologies nouvelles, dont les grands axes sont déterminés par des programmes tels que Nano-INNOV. C’est un très bon exemple où les activistes ont posé la question, et ont eu raison de le faire, de l’utilité d’un débat public, alors même que les grandes options politiques étaient déjà arrêtées. Ce faisant, ils ont questionné le sens d’une démarche qui pouvait, au mieux, offrir une catharsis à bon compte à un public irrationnel, au pire, servir de chambre d’entérinement et de légitimation de décisions prises par ailleurs.

Alors, bien sûr, il n’est pas question de tomber dans la théorie complotiste, dans ce cadre, et de dénoncer par principe toute tentative d’élargir le spectre des diverses expertises à prendre en compte dans le cadre des développements scientifiques et technologiques. Toutefois, il faut porter une attention soutenue aux dispositifs concrets qui mettent en œuvre une volonté participative, ou à la manière dont les institutions qui promeuvent ces développements réagissent, lorsque des publics se mêlent de ces questions. C’est là le défi, selon la philosophe des sciences Isabelle Stengers (2007, p. 54), « d’une production publique, collective de savoirs autour de situations qu’aucune expertise particulière ne peut suffire à définir, et qui demandent la présence légitime active, objectante, proposante, de tous ceux qui sont “concernés” ». Une telle intelligence collective nécessite de mettre en présence tous ceux qui disposent d’un savoir pertinent par rapport à un problème spécifique. Or, dans la forme et la matérialisation des dispositifs actuels, nous sommes encore loin du compte.

En conclusion, en matière de sciences et technologies, les controverses sont plus vives que jamais, à mesure que prolifèrent les hybrides situés à l’intersection des instruments scientifiques, de la R&D, des marchés économiques, de la propriété intellectuelle, des programmes de politique publique et… des publics qui seront affectés par toutes ces dynamiques à l’œuvre. Il est désormais illusoire de vouloir couvrir ces réalités multiples par la seule autorité d’une expertise scientifique. Loin de déplorer l’existence de ces controverses, il serait bien plus intéressant de les considérer pour ce qu’elles permettent, à savoir de véritables lieux d’apprentissage où différents savoirs pourraient enfin être confrontés et participer d’une mise en politique, au sens fort, de l’irruption des sciences et des technologies dans nos sociétés.

[1L’acronyme « Imec » signifiait, lors de la création de ce centre de R&D, Interuniversity Microelectronics Centre. À l’heure actuelle, toutefois, cette signification n’est plus en vigueur, « imec » — sans majuscule — étant devenu une marque, un logo, un sceau apposé sur un ensemble de prototypes, d’innovations technologiques et de know-how.

[2Bastamag, « Nanotechnologies : l’évaluation des risques confiée aux… multinationales », article d’Agnès Rousseau, en ligne : www.bastamag.net/article2393.html.

[3Le Nouvel Observateur, « Fukushima : et si le pire était à venir ? », un article de Vincent Jauvert.

[4Ce projet proposait une catégorisation des enjeux à prendre en considération, qui subdivise les enjeux de risques, que l’on peut appréhender par les instruments de la science (Health, Environment and Safety, hes) et, par ailleurs, les enjeux résiduels qui relèvent des sciences humaines (Ethical, Legal and Social Impacts, ELSI). En Europe, le terme « aspects » a été préféré à celui d’« impacts », connoté trop unilatéral, ce qui donne l’acronyme ELSA. Cette catégorisation a, depuis lors, fait école (voir par exemple les stratégies et les plans d’action de la Commission en matière de nanotechnologies).

[5Informations disponibles en ligne : www.gmnation.org.uk/ (consulté le 28 aout 2012).

[6« Conférence de presse sur les priorités financées par le grand emprunt », Paris, Élysée, 14 décembre 2009.

Bibliographie

  • Bensaude-Vincent B. (2009), Les vertiges de la technoscience, La Découverte.
  • Callon M., Lascoumes P., Barthe Y. (2001), Agir dans un monde incertain, Le Seuil, 2001.
  • Latour B. (1991), Nous n’avons jamais été modernes, La Découverte.
  • Leloup D.(2010), « Grippe A/H1N1 : Conflits d’intérêts », Politique, revue de débats, n°67.
  • Mormont M. (2002), « L’expertise en question », dans Brunet S. et al., L’expertise en questions. Domestiquer l’incertitude dans la société du risque, Peter Lang, p.9-18.
  • Roco M.C., Mirkin C. A. et Hersam M. C. (dir., 2010), Nanotechnology Research Directions for Societal Needs in 2020. Retrospective and Outlook, rapport World Technology Evaluation Center Inc. (WTEC), Springer.
  • Stengers I. (1997), « La proposition cosmopolitique », dans Lolive J. et Soubeyran O. (dir.), L’émergence des cosmopolitiques, La Découverte, p. 45-68.
  • Thoreau Fr. (2012), « Nanotechnologies et
 “innovation responsable” : 
sur la gouvernementalité d’un concept », dans Kermisch C. et Pinsart M.-G., Les nanotechnologies : vers un changement d’échelle éthique ?, eme.
  • Thoreau Fr., Cheneviere C. et Rossignol N. (2012), « Action publique et responsabilité gouvernementale : la gestion de la grippe a (h1n1) en 2009 », dans Courrier hebdomadaire du Crisp, n°2138-2139.
  • Wynne B. (1996), « May the sheep safely graze ? A reflexive view of the expert-lay knowledge divide », dans Lash S., Szerszynski B. et Wynne B. (dir.), Risk, environment and modernity. Towards a new ecology, Sage Publications, p. 44-83.