Chapitre 8. Adhésion du public et technologies de production émergentes

Winickoff David E.
Direction de la science, de la technologie et de l’innovation, OCDE

L’adhésion du public à la technologie joue pour beaucoup dans l’influence que l’innovation exerce sur la société, et elle doit donc être prise en compte dans l’élaboration des politiques qui touchent à la prochaine révolution de la production. On pense souvent, à tort, que la résistance à la technologie tient principalement au fait que le public méconnaît les avantages véritables de certaines technologies ou de l’innovation en général. La recherche en sciences sociales montre que cette résistance serait davantage due à des conflits de valeurs, à des préoccupations quant à la répartition des avantages attendus et à un manque de confiance dans les institutions de gouvernance, telles que les autorités de réglementation et les organismes techniques consultatifs. En règle générale, les pays et les innovateurs devraient, dans toute la mesure du possible, tenir compte des préoccupations et des objectifs sociaux dès le début du processus de développement. Cette exigence n’est guère facile à respecter, mais de bonnes pratiques apparaissent, qui peuvent montrer la voie à suivre. Elles consistent notamment à intégrer les flux de financement des travaux en sciences sociales et humaines, avec les sciences naturelles et physique, en utilisant des formes participatives de prospective et d’évaluation de la technologie pour dessiner les perspectives souhaitables, et en engageant les parties prenantes à des processus de communication clairement liés à l’action publique.Tout cela contribuera à instaurer la confiance et la crédibilité des systèmes d’innovation.

    

Introduction

L’adhésion du public à la technologie est une composante clé des politiques d’innovation (OCDE, 2016a). Il est essentiel d’en tenir compte dans l’élaboration des politiques qui touchent à la prochaine révolution de la production. Les vives inquiétudes du public peuvent infléchir l’orientation, le rythme et la diffusion de l’innovation, voire faire obstacle à ses progrès (Gupta, Fischer et Frewer, 2012). Et cela même lorsque la faisabilité technique et économique a été démontrée, que les arguments avancés pour justifier l’adoption semblent solides et que des investissements massifs ont été consentis. Les technologies émergentes se sont parfois heurtées à des préoccupations sociales et éthiques (CE, 2013). Dans le même temps, la résistance du public aux technologies peut donner naissance à des législations qui renforcent la confiance et guident l’innovation vers des voies acceptables (Rodricks, 2006 ; Packer, 2008 ; Davis, 2014).

L’attention prêtée à l’adhésion du public aux technologies de la prochaine révolution de la production pourrait bien être particulièrement décisive aujourd’hui. L’utilisation de la technologie peut être influencée par le contexte social et politique (Gupta, Fischer et Frewer, 2012). Le développement et l’adoption des technologies de production sont en passe d’influer considérablement les marchés du travail (The Economist, 2016), ce qui soulève de sérieuses questions quant à l’attitude du public à l’égard de ces nouvelles technologies et de son adhésion à ces dernières. Les enjeux pourraient être considérables : d’aucuns voient dans certains événements politiques de 2016 une réaction de la population aux politiques industrielles en vigueur et aux les effets de la technologie sur le marché du travail.

Il y a longtemps que l’opposition du public croît à l’égard de divers secteurs technologiques, notamment l’énergie nucléaire, les organismes génétiquement modifiés (OGM) et d’autres domaines des biotechnologies. En Europe, par exemple, en raison de la méfiance du public à l’égard des OGM, les niveaux de financement ont été plus faibles, les décisions réglementaires défavorables plus nombreuses et l’innovation moins dynamique dans ce secteur qu’ailleurs (Currall et al., 2006). L’investissement public peut aussi se retrouver « immobilisé » (impossible à exploiter). Ainsi, de nombreux pays ont investi dans la construction de réacteurs nucléaires dans les années 60 et 70, mais malgré l’avis d’experts qui en garantissaient la sûreté, la mobilisation politique a mis un coup d’arrêt à l’expansion du parc nucléaire à travers le monde (Winner, 1977).

Il ne faut pas en conclure que le public est contre la technologie. L’attitude générale des citoyens européens à cet égard est évaluée régulièrement par l’Eurobaromètre, avec un ensemble d’enquêtes menées pour le compte de la Commission européenne depuis 1973. S’il est difficile de se faire une idée de l’attitude du grand public concernant les technologies émergentes, on observe que les sociétés regardent généralement l’évolution technologique avec optimisme, même si celle-ci leur inspire quelques craintes. Lors d’une enquête majeure menée récemment en Europe, au moins la moitié des personnes interrogées ont indiqué qu’elles s’attendaient à ce que, d’ici 15 ans, l’évolution scientifique et technologique ait des effets positifs sur la santé et les soins médicaux (65 %), sur l’éducation et les compétences (60 %), sur le transport et les infrastructures de transport (59 %), sur la fourniture d’énergie (58 %), sur la protection de l’environnement (57 %), sur la lutte contre le changement climatique (54 %) et sur la qualité du logement (50 %) (CE, 2014a).

Pour évaluer l’adhésion du public, il faut toutefois dépasser la mesure des attitudes, et chercher à mieux comprendre les sources et les moteurs de cette adhésion. Il importe tout d’abord de comprendre que le public dont on parle ici est en fait multiple. Des travaux récents sur l’adhésion dans le contexte des énergies renouvelables montrent bien qu’il faut éviter de se limiter à une acception trop réduite de ce concept. Ces travaux soulignent que le phénomène ne dépend pas uniquement d’une acceptation politique large de la part du public et des parties prenantes clés, mais aussi de l’adhésion des consommateurs et des investisseurs, ainsi que de celle des collectivités au sein desquelles les nouvelles technologies sont introduites. Certains universitaires parlent du « triangle de l’adhésion » (Wüstenhagen, Wolsink et Bürer, 2007 ; Reith et al., 2013).

Le présent chapitre tire des enseignements applicables à la prochaine révolution de la production de travaux menés dans d’autres branches de la science et d’autres secteurs à fort coefficient de recherche tels que la santé, et examine les préoccupations que suscitent certaines technologies participant à cette révolution, en particulier l’intelligence artificielle, les biotechnologies industrielles et les nanotechnologies. L’accueil réservé par la société aux technologies émergentes par le passé devrait aider à éclairer les responsables de l’élaboration des politiques et d’autres acteurs clés afin de faire avancer ces technologies. On pense souvent, à tort, que la résistance à la technologie tient au fait que le public méconnaît les avantages véritables de certaines technologies ou de l’innovation en général. La recherche en sciences sociales montre que les conflits de valeurs fondamentales, les préoccupations quant à la répartition des avantages attendus et un manque de confiance dans les institutions de gouvernance, telles que les autorités de réglementation et les organismes scientifiques consultatifs, pourraient avoir un rôle plus important.

En règle générale, les pays et les innovateurs devraient, dans toute la mesure du possible, intégrer les préoccupations et les aspirations sociales dès le début du processus de développement. Cette exigence n’est guère facile à respecter, mais de bonnes pratiques voient le jouret montrent la voie à suivre. Elles consistent notamment à intégrer les flux de financement des travaux en sciences sociales et humaines, avec ceux de sciences naturelles et physique, en utilisant des formes participatives de prospective et d’évaluation de la technologie pour dessiner les perspectives souhaitables, et en associant les parties prenantes à des processus de communication clairement liés à l’action publique. Tout cela contribuera à instaurer la confiance et la crédibilité des systèmes d’innovation, deux facteurs indispensables à l’adhésion du public.

Technologies essentielles

Certaines technologies examinées dans le présent rapport sont déjà sources de préoccupations pour le public, et vont probablement continuer à l’être (CE, 2013). Cette section passe brièvement en revue les enjeux de l’adhésion du public aux biotechnologies, aux nanotechnologies, aux données massives et à l’intelligence artificielle. Certaines préoccupations du public concernant les technologies de production émergentes tiennent aux risques associés – notamment à l’influence que les nouvelles technologies pourraient exercer sur la santé et la sécurité des individus et sur l’environnement – et à l’idée que la surveillance actuelle est inadaptée pour anticiper les préjudices potentiels. D’autres concernent les questions d’intervention sur les processus du vivant, ou encore sur le pouvoir de décision et l’accès à la technologie elle-même, tel que le contrôle de la propriété intellectuelle ou la domination du marché. L’une des principales sources d’incertitude quant à la trajectoire de ces technologies reste le fait qu’elles convergent de façon inattendue, et créent encore d’autres technologies nouvelles. On pourrait prendre comme exemple la convergence entre les technologies de l’information et des communications (TIC) et les biotechnologies, qui ouvre des voies de recherche en biologie de synthèse, laquelle constitue un tremplin pour de nombreux autres types d’entités et d’outils biologiques.

Les biotechnologies industrielles

L’utilisation des biotechnologies à l’échelle industrielle pour les combustibles, les produits chimiques et d’autres produits est probablement l’une des composantes de la refonte du système de production (voir le chapitre 9). Bien entendu, les biotechnologies et les risques possibles pour la société sont une source persistante de conflits au sein de l’opinion publique, particulièrement lorsqu’il s’agit des OGM et de la biologie de synthèse. Dans les pays développés comme dans les pays en développement, les OGM suscitent des inquiétudes quant aux risques pour la santé et la sécurité, ainsi qu’à la capacité de limiter et d’inverser leur dissémination.

Les perceptions négatives se sont aussi focalisées sur un lien entre les biotechnologies, le brevetage des semences et la concentration industrielle dans le secteur agroalimentaire (Jasanoff, 2005). Ces préoccupations ont été levées différemment selon les pays, certains adoptant les cultures génétiquement modifiées à un rythme beaucoup plus lent que d’autres. Des approches réglementaires très disparates reflétant l’hétérogénéité de l’accueil réservé par l’opinion aux biotechnologies se sont soldées par des dérèglements dans les échanges internationaux et parfois même par des différends pour lesquels l’Organisation mondiale du commerce (OMC) a été saisie (Pollack et Shaffer 2009).

Concernant la biotechnologie, les démarches entreprises des pouvoirs publics dans le but de répondre aux inquiétudes liées à la technologie misant sur l’évaluation des risques ne sont parfois que partiellement concluantes. Dans le domaine des biotechnologies, les désaccords portant sur les risques sanitaires et environnementaux tiennent, au moins en partie, à des convictions profondes quant à la relation entre l’homme et l’environnement, à l’éthique de la manipulation de la « nature » par l’homme et aux craintes d’une appropriation de la biologie par le secteur privé (Jasanoff, 2005), mais, faute souvent d’une autre voie pour débattre des implications morales de la technologie, le risque de sécurité environnementale et sanitaire devient un sujet majeur de préoccupation (Winickoff et al., 2005).

La bioproduction ne dépend pas des matières premières agricoles génétiquement modifiées, mais elle implique assurément des stratégies biochimiques techniques perfectionnées pour décomposer et reformuler le matériel génétique à grande échelle. Il faudra que les pouvoirs publics anticipent les préoccupations du public quant aux avancées biotechnologiques récentes qui rendent ces approches possibles. Les avancées récentes en génie génétique, en particulier ce qu’on appelle l’« édition génomique », ont déjà provoqué un débat dans l’opinion au sujet des avantages et effets nocifs potentiels de cette technologie, notamment lorsqu’il s’agit de modifier la lignée germinale humaine (encadré 8.1). La biologie de synthèse, en particulier le développement de nouvelles séquences d’ADN de novo a également soulevé la controverse au sein de l’opinion. Le discours public sur ces technologies, à l’intérieur des pays et entre eux, aura probablement une forte incidence sur les biotechnologies industrielles (McNutt, 2015).

Encadré 8.1. L’édition génomique face à la société

Avec les techniques d’édition génomique, et notamment celles reposant sur le système CRISPR-Cas9 (désigné par la revue Science comme l’innovation radicale de l’année 2015), les scientifiques sont désormais en mesure de modifier une séquence d’ADN en des endroits précis d’un chromosome. Ces techniques sont employées avec succès pour transformer la manipulation des génomes dans toutes sortes d’applications. L’édition génomique doit rendre plus faciles et moins onéreuses la conception et la construction d’organismes présentant les caractéristiques que l’on souhaite. Elle a été utilisée avec de bons résultats sur des organismes d’importance commerciale telles que les plantes cultivées et les animaux d’élevage, ouvrant ainsi la voie à l’élaboration de nouvelles méthodes de lutte contre les ravageurs et les maladies, et à des gains d’efficience dans la sélection végétale et animale. Dernièrement, le système CRISPR a été utilisé en République populaire de Chine pour modifier le génome d’embryons humains non viables, et des expériences similaires ont été approuvées au Royaume-Uni (Callaway, 2016).

Certaines communautés scientifiques ont adopté une démarche proactive, ouvrant un débat public sur le CRISPR, un système qui pourrait être utilisé dans divers domaines, tels que la médecine, la sélection animale et la gestion de l’environnement. La technique a soudainement rendu plus plausibles des applications de la biotechnologie potentiellement sujettes à controverse, comme une modification précise du génome humain. En mars 2015, un groupe de scientifiques et de spécialistes de l’éthique, dont les Prix Nobel David Baltimore (Caltech) et Paul Berg (université Stanford), a proposé un moratoire mondial sur les modifications du génome humain susceptibles de se transmettre aux générations futures. En décembre 2015, la National Academy of Science (États-Unis), l’Académie chinoise des sciences et la Royal Society (Royaume-Uni) ont organisé un sommet réunissant des experts du monde entier pour débattre des enjeux scientifiques et éthiques, ainsi que des questions de gouvernance liés à la recherche en matière d’édition génomique appliquée à l’homme (Reardon, 2015).

Les nanotechnologies

On prévoit que l’ingénierie à l’échelle moléculaire par le biais des nanotechnologies jouera un rôle important dans la prochaine révolution de la production (voir le chapitre 4). Au début des années 90, les pouvoirs publics et le secteur privé ont vanté les nanotechnologies comme constituant l’une des clés de la croissance économique future et un outil nouveau pour résoudre les problèmes de la société. Les entreprises, les pouvoirs publics et les milieux universitaires ont consenti des investissements considérables dans ces technologies et leur commercialisation (Barben et al., 2007). L’optimisme autour des possibilités de transformation positive de la société par les nanotechnologies a stimulé la croissance de l’innovation dans ce domaine, mais cet enthousiasme s’est accompagné d’inquiétudes et de protestations. Des personnalités en vue telles que Bill Joy et Son Altesse royale le prince Charles, mais aussi des groupes de militants, dont Greenpeace (Arnall, 2003) et le Groupe d’action sur l’érosion, la technologie et la concentration (Groupe ETC, 2003), ont tiré la sonnette d’alarme. Dans la revue Wired, Joy (2000), par exemple, a envisagé un scénario catastrophe intitulé « grey goo » (gelée grise) dans lequel des nanorobots autorépliquants pouvaient anéantir la vie. D’autres se sont dits préoccupés par les dangers pour l’environnementet les conséquences indésirables de ces technologies (Tenner, 2001), leurs effets sur la vie privée et la sécurité (MacDonald, 2004), et le risque qu’elles accentuent les inégalités économiques (Meridian Institute, 2005).

Ces préoccupations du public concernant les nanotechnologies ont croisé l’hostilité existante envers les biotechnologies, comme en témoigne la demande répétée du Groupe ETC – une organisation de la société civile axant son action sur les effets socioéconomiques et écologiques des nouvelles technologies et organisatrice d’une mobilisation contre la biotechnologie agricole – qu’un moratoire soit adopté sur certaines formes de recherche et développement (R-D) en nanotechnologies en raison de préoccupations concernant la santé et la sécurité de l’environnement (Barben et al., 2007).

Avertis par l’expérience de l’opposition du public aux aliments génétiquement modifiés en Europe, les responsables de l’élaboration des politiques ont commencé à craindre que les nanotechnologies se heurtent à une large résistance du public. Dans certains pays, ils ont pris des mesures pour promouvoir des considérations sociétales plus vastes, en les intégrant dans la R-D en nanotechnologies dès les premiers stades. Des mesures telles que le co-financement de travaux de recherche en sciences sociales et humaines, et diverses formes de participation du public étaient censées garantir une science attentive aux besoins de la société, et une prise de décision plus efficace.

Aux États-Unis, par exemple, à l’inverse des mesures prises précédemment, un texte législatif a été adopté en 2003, visant à intégrer la recherche sociale et la contribution du public « en amont » dans la politique de R-D en nanotechnologies. Cette priorité accordée à l’intégration précoce ou simultanée de travaux sur les préoccupations sociales était comparable à la démarche adoptée dans le cadre du programme de recherche sur les conséquences éthiques, juridiques et sociales du Projet sur le génome humain, aux États‐Unis. De même, l’Union européenne, les Pays-Bas, le Brésil et la Colombie ont lancé des travaux de recherche en sciences sociales sur les nanotechnologies, qu’ils ont reliés à la prise de décision (Barben et al., 2007). Une enquête récente réalisée par l’OCDE (2013) a permis de constater que 11 des 25 pays interrogés disposaient d’une politique relative au développement responsable des nanotechnologies, et que plusieurs autres étaient en train d’en élaborer une.

Des inconnues demeurent quant aux effets des nanoparticules sur la santé et l’environnement, ce qui continue d’alimenter l’inquiétude du public et des autorités de réglementation. Aujourd’hui, on trouve des nanomatériaux fabriqués dans plus de 1 300 produits commercialisés, dont du matériel médical, des tissus, des additifs pour carburants, des produits cosmétiques et des matières plastiques (US EPA, 2016). Les approches réglementaires continuent d’évoluer, alors même que les nanomatériaux entrent dans les flux de déchets. Dans un examen récent des travaux publiés sur le traitement des eaux usées (recyclage, incinération, mise en décharge et traitement des eaux usées), l’OCDE a mis en évidence un grave déficit d’information au sujet de l’élimination finale de ces nanomatériaux (OCDE, 2016a).

Les données massives

L’un des moteurs de la prochaine révolution de la production sera la numérisation, et il est possible que de larges corpus d’informations personnelles soient recueillis et utilisés dans les nouveaux processus de production. De vastes programmes gouvernementaux de collecte et d’exploitation des données massives à des fins de surveillance et de sécurité nationale soulèvent de grandes inquiétudes dans l’opinion, mais d’autres domaines sont aussi l’objet de vifs débats au sein de la population. Ainsi, les responsables des politiques de santé à travers le monde cherchent à regrouper diverses données de santé sur des millions de personnes pour permettre la recherche comparative sur l’efficacité des traitements et faciliter la mise en place d’une architecture de données massives innovante pour la recherche et la découverte (Institute of Medicine, 2014). L’un des principaux objectifs est d’intégrer les données sanitaires générées à l’échelle de l’individu dans les secteurs public et privé afin d’étoffer la base de données probantes destinée aux soins cliniques, de suivre la qualité des données et de contribuer à la découverte de biomarqueurs permettant d’élaborer des diagnostics et des médicaments plus efficaces (Krumholz, 2014).

Les défis que pose l’intégration d’ensembles de données de santé et d’architectures de l’information hétérogènes sont d’ordre technique, éthique et social. Collecter des données de santé pour la recherche au sein des centres de soins jette un flou d’un type nouveau sur la frontière entre soins cliniques et recherche. La réalisation d’analyses prédictives pour stratifier les populations soulève des inquiétudes sur le plan de la justice, car ces analyses peuvent servir à inclure certaines populations dans des interventions thérapeutiques ou des essais cliniques intéressants ou, au contraire, à les en exclure. En outre, l’obtention du consentement éclairé habituel est impossible compte tenu du nombre et de l’ampleur des utilisations potentielles (Faden, Beauchamp et Kass, 2014). Au Royaume-Uni, l’absence de réponse aux interrogations relatives à la protection de la vie privée et à la confidentialité des données a déclenché une vaste polémique parmi les médecins cliniciens, et parmi des groupes de défense des malades et du grand public, ce qui a terni l’image des autorités nationales de la santé (Kirby, 2014). Les incertitudes sociales poussent de nombreux gouvernements à nouer des partenariats et à établir un dialogue public avec les patients, les établissements de santé et d’autres parties prenantes pour trouver des solutions acceptables aux questions relatives à la vie privée, au contrôle et à la justice. Dernièrement, les pays de l’OCDEse sont attaqués à certains problèmes soulevés par la gestion des données de santé dans leur Recommandation du Conseil sur la gouvernance des données de santé (OCDE, 2017).

L’intelligence artificielle

Les technologies de l’intelligence artificielle peuvent transformer la société, mais posent aussi divers problèmes éthiques, réglementaires et sociaux (États-Unis, 2016). Des assistants automatisés aux voitures sans conducteur, l’intelligence artificielle devrait croître rapidement. Cepoint de vue est largement partagé par les ministères de la Science (G7, 2016). Certains regardent cette innovation avec optimisme : ses défenseurs font valoir qu’elle peut tout à la fois stimuler l’innovation et donner un coup de fouet à la productivité économique, voire, plus largement, améliorer la condition humaine. D’après les travaux de recherche de l’OCDE, « les données massives utilisées pour alimenter les algorithmes d’apprentissage automatique peuvent stimuler les entreprises, notamment dans les domaines de la publicité, des soins de santé, des services d’utilité publique, de la logistique, du transport et de l’administration publique » (Bradbury, 2016). Cependant, il est manifeste que l’inquiétude quant aux risques, aux avantages et aux problèmes éthiques qui leur sont associés ne cesse de grandir. Le Professeur Stephen Hawking a déclaré, non sans provocation, que « le développement intégral de l’intelligence artificielle pourrait signifier la fin de la race humaine » (Cellan-Jones, 2014). Parmi les préoccupations du grand public, on trouve notamment la crainte de voir l’intelligence artificielle supplanter certains catégories d’emploi (Smith et Anderson, 2014), ainsique les questions de sécurité (Marks, 2016). Une enquête récente en Grande-Bretagne a permis de constater qu’une personne sur trois pensait que l’essor de l’intelligence artificielle constituait une menace pour l’humanité (British Science Association, 2016).

Dans un article paru en juin 2015 dans la revue Nature (Sarewitz, 2015), le Professeur Dan Sarewitz, spécialiste des politiques scientifiques, a appelé à un dialogue public mondial éclairé sur l’intelligence artificielle et ses effets potentiels. Pour autant, aucun mécanisme solide de gestion des risques, des avantages et des problèmes éthiques n’a encore été institutionnalisé (Calo, 2014). Cela tient en partie au fait que l’intelligence artificielle est encore en cours de développement, et en partie au fait que l’étendue et la diversité des applications rendent difficile la mise en place d’un cadre réglementaire complet. De surcroît, certains considèrent avec scepticisme l’intervention des pouvoirs public dans ce domaine, arguant qu’il est trop tôt pour réglementer en la matière (McAfee, 2015) et que toute intervention pourrait entraver le développement technologique et les avantages potentiels pour la société (Brundage et Bryson, à paraître). D’autres pensent, au contraire, que la réglementation peut, en soi, favoriser l’innovation, et que l’intelligence artificielle a déjà une incidence sur notre vie quotidienne. À cette fin, le Bureau des politiques scientifiques et technologiques (Office of Science and Technology Policy) de la Maison Blanche et les parlements européen et britannique mènent, ou ont mené, des ateliers publics sur les technologies et les politiques relatives à ce domaine. D’aucuns ont préconisé la constitution de commissions nationales sur la robotique (Calo,2014). Il est important de noter que de nombreux spécialistes ont demandé des fonds pour conduire les premières recherches sur les dimensions humaine et sociale des technologies de l’intelligence artificielle, parallèlement aux travaux de recherche technique. Gagner l’adhésion du public à la R-D en intelligence artificielle aura une importance critique pour l’avenir de cette discipline.

Comprendre l’adhésion du public

L’adhésion ou le rejet du public à l’égard de la technologie est un phénomène complexe, difficile à expliquer. On trouvera ci-après l’analyse de publications en sciences sociales et de pratiques existantes utiles pour proposer des stratégies permettant d’introduire la technologie dans la société de manière acceptable.

Perception du risque et sophisme du modèle de déficit public

Pendant un temps, on a pensé que la résistance du public à la technologie était principalement due à un manque d’information ou d’éducation. Cette théorie repose en partie sur des études classiques qui montrent une divergence dans la façon d’évaluer les risques selon que l’on est un profane ou un spécialiste (Slovic, 1987). Ces différences suivent un schéma et révèlent un biais en faveur de certaines caractéristiques technologiques. Les technologies considérées comme irréversibles, échappant à tout contrôle humain et/ou susceptibles de présenter des défaillances catastrophiques sont généralement perçues comme plus risquées par le grand public que par les spécialistes. De la même façon, le fait que les technologies soient nouvelles et moins bien connues, imperceptibles par l’homme (comme les nanoparticules, qui sont invisibles à l’œil nu) et que les nuisances engendrées se manifestent de manière différée tend à susciter une inquiétude plus forte dans la population (Slovic, 1987). Plusieurs technologies de la prochaine révolution de la production possèdent une partie de ces caractéristiques. Ainsi, les biotechnologies et les nanotechnologies font preuve d’une évolution rapide, ont des propriétés physiques nouvelles et les éléments qu’elles construisent sont souvent invisibles à l’œil nu.

Les études de ce type de perception du risque ont parfois conduit les pouvoirs publics à privilégier les campagnes d’éducation pour amener le public à adhérer aux technologies. Or, les examens de la corrélation entre éducation et adhésion aux technologies sont, au mieux, peu concluants. Sur les questions controversées, il n’y a absolument aucune corrélation et, selon les mots d’un spécialiste : « on trouve des citoyens bien informés et moins bien informés des deux côtés de la controverse » (Bauer, 2009). Ce constat fait écho à d’autres travaux de sciences sociales qui montrent que lorsque des valeurs et des identités personnelles profondément ancrées sont en jeu, les rapports fondés sur la science sont rejetés même par les plus instruits. Ainsi, il est ressorti d’une vaste étude que les personnes croyantes, y compris celles qui possèdent le plus haut niveau de formation scientifique, réfutent généralement certains préceptes fondamentaux de l’évolution (Kahan, 2015).

L’éducation et l’information sont importantes pour façonner et encadrer le discours public sur la technologie, mais l’attitude des citoyens dépend fortement du contexte social et politique ainsi que de la culture de la confiance entre ces mêmes citoyens, les organismes de réglementation et les entreprises. On trouvera dans les sections qui suivent des éléments supplémentaires sur ce point.

Confiance accordée aux institutions

La résistance du public aux technologies nouvelles et la perte de confiance dans les autorités chargées de la réglementation sont étroitement liées. Dans une étude importante des facteurs contribuant à la mauvaise image des OGM dans l’opinion publique de nombreuses régions d’Europe, Gaskell et al. font remarquer que « dans un monde de plus en plus complexe, la confiance fonctionne comme un substitut à la connaissance » (Gaskell et al., 1999). D’après ces auteurs, la résistance aux OGM en Europe est étroitement liée à un manque de confiance dans les procédures réglementaires.

Encadré 8.2. La consultation publique menée par la HFEA au sujet de la recherche sur l’ADN animal et les embryons : hybrides et remplacement mitochondrial

Au Royaume-Uni, la HFEA a été créée en 1990 pour autoriser/homologuer et surveiller la fécondation in vitro (FIV) et les centres d’insémination dans l’ensemble du pays, ainsi que les institutions dirigeant la recherche embryonnaire et le stockage de gamètes et d’embryons (Jasanoff, 2005). En 2007, elle a lancé une consultation publique pour chercher à établir si la population estimait que les scientifiques devaient être autorisés à créer des embryons contenant de l’ADN animal dans le cadre de leurs travaux de recherche embryonnaire (HFEA 2007 ; Blackburn-Starza, 2007). Le programme, intitulé Hybrids and Chimeras (Hybrides et chimères), a donné lieu à une consultation publique pour faciliter l’engagement du public et a été appuyé par Sciencewise, un programme mené par le Bureau de la science et de l’innovation (Office of Science and Innovation), qui a pour but d’aider les responsables des politiques à mener des activités visant à faire participer la population.

La consultation, qui s’est déroulée d’avril à juillet 2007, a pris diverses formes. Un sondage d’opinion a cherché à recueillir les points de vue d’un échantillon représentatif de la population. Des débats publics ont approfondi ces constatations générales et soulevé de nouvelles questions, insistant sur l’effet de la délibération et des nouvelles informations sur l’opinion des participants. Une consultation par écrit et une réunion publique ont également été organisées. Les résultats de la consultation publique ont été analysés comme en a attesté la HFEA, laquelle a ensuite décidé que la recherche sur les hybrides cytoplasmiques devrait être autorisée pour aller de l’avant, avec prudence et moyennant une surveillance attentive (HFEA, 2007).

Plus récemment, la HFEA a recueilli l’avis du public et soumis au Parlement une proposition préconisant d’autoriser le remplacement mitochondrial dans les embryons destinés à être implantés. Le Parlement a accepté la recommandation, avec un large soutien du public.

D’autres travaux sur la confiance dans la réglementation corroborent ce point. Dans les années 90 au Royaume-Uni, par exemple, une polémique publique a éclaté à propos de la mauvaise gestion de l’insécurité et des éventualités possibles par les autorités de réglementation lors de la crise de l’encéphalopathie spongiforme bovine (ESB ou maladie de la vache folle). De nombreux commentateurs estiment que cette crise, surtout la perte de confiance dans le système de contrôle de la sécurité sanitaire des aliments, est à l’origine de la forte résistance aux aliments OGM au Royaume-Uni, même après que ceux-ci ont été déclarés sûrs par les autorités chargées de la réglementation (Pidgeon, Kasperson et Slovic, 2003). Cet exemple montre qu’une fois la confiance perdue, il est difficile de la retrouver, même dans d’autres contextes.

À l’inverse, on pourrait citer l’exemple de l’adhésion à la médecine et à la technologie reproductive, toujours au Royaume-Uni, où une institution de réglementation spécialisée, l’Autorité pour la fertilisation et l’embryologie humaines (Human Fertilisation and Embryology Authority, HFEA), a été créée en 1990, avant l’arrivée de nombreuses avancées sujettes à controverse. La HFEA a réussi à anticiper les épineuses questions du contrôle, et a fait état des problèmes au grand jour (encadré 8.4). Les décisions qui en ont résulté concernant la recherche et les applications de la recherche en embryologie et la médecine reproductive ont emporté une large adhésion.

Le battage médiatique autour des technologies – l’exagération des avantages qu’elles procurent – peut miner la confiance dans les institutions gouvernementales et scientifiques. La mise en exergue de la nouveauté et des avantages à court terme peut entraîner de la déception et un certain scepticisme au sein de l’opinion (Rayner, 2004). Dans les domaines de la recherche sur les cellules souches et de leurs applications cliniques, par exemple, on a observé une tendance persistante à l’exagération des prévisions par les communautés scientifiques, les organismes de financement et les médias (Kamenova et Caulfield, 2015). Ce phénomène a attisé la polémique en Californie, où une initiative publique de 3 milliards de dollars sur la recherche sur les cellules souches amorcée en 2004 a permis d’obtenir des avancées scientifiques, mais n’est pas parvenue à procurer les avantages concrets pour la santé qui avaient été annoncés.

Valeurs et incertitudes relatives à la gouvernance du risque et aux avis scientifiques

L’une des clés pour renforcer la confiance dans les institutions réglementaires consiste à renforcer la confiance dans les approches et les procédures d’analyse sous-jacentes, parmi lesquelles l’analyse du rapport risques-avantages occupe une position centrale. Les spécialistes des sciences sociales ont tiré des enseignements des erreurs que les organismes pouvaient commettre en matière de prise de décision fondée sur le risque et d’avis scientifique.

Les organes de réglementation ou de conseil technique doivent être transparents sur la façon dont les incertitudes sont prises en compte et sur la manière dont les hypothèses fondées sur des valeurs sont intégrées dans la modélisation des risques/bénéfices. Des polémiques telles que celles qui ont entouré l’épidémie d’ESB mentionnée plus haut, ou la catastrophe de Fukushima au Japon, montrent qu’il est nécessaire, dans toutes les communautés d’experts et dans le grand public, de prendre davantage conscience des limites inhérentes aux modèles de risques et du fait que les décisions réglementaires fondées sur des connaissances scientifiques s’accompagnent inévitablement de jugements de valeur (Pfotenhauer et al., 2012). Ceux-ci interviennent, par exemple dans le choix des faits ou des types d’expertise considérés comme pertinents pour déterminer à quel moment les éléments de preuve réunis sont suffisants, dans la méthode retenue pour gérer les avis divergents et dans les décisions d’agir malgré l’incertitude.

Encadré 8.3. Le choix des valeurs dans le domaine du conseil scientifique et technologique : exemples et enseignements tirés de l’expérience

Des travaux de recherche portant sur les études scientifiques et technologiques ont décrit l’interaction de la science et des valeurs dans les décisions, à l’intersection de la science et de l’action publique. En particulier, ils ont fait la preuve d’un processus de délimitation là où la science et la société se rencontrent, parfois appelé « travail sur les limites ». Le travail sur les limites peut se définir comme une méthode permettant de distinguer, d’un côté, les connaissances utiles pour l’action publique et, de l’autre, la pseudo-science, la politique ou les valeurs. C’est un processus de délimitation par lequel les décisions des pouvoirs publics portant sur les éléments probants à retenir se trouvent du côté étiqueté « bonne science » de la fracture entre connaissance objective et science illégitime, politisée ou fausse (Jasanoff, 1990).

Le travail sur les limites est jugé nécessaire pour atteindre deux objectifs au moins : veiller à ce que la recherche réponde aux besoins des utilisateurs (souvent les responsables de l’élaboration des politiques) et préserver la crédibilité de la science proprement dite. Comme excellent exemple de ce type de travail, on pourrait citer les tentatives des pouvoirs publics pour établir une distinction nette entre évaluation des risques et gestion des risques, les facteurs sociaux et économiques n’intervenant qu’en phase de gestion. Cette distinction occupe également une place prépondérante dans le droit international du commerce, et dans la façon dont celui-ci reconnaît les formes valides ou non de règlement sur la santé et la sécurité sanitaire des végétaux (Winickoff et al., 2005). Elle se retrouve aussi dans la réglementation sur les substances chimiques cancérogènes : il est souvent impossible d’établir un risque pour les humains à partir de preuves directes, si bien que les décisions réglementaires reposent dans bien des cas sur des essais sur l’animal, par exemple, qui sont interprétés avec une grande part d’incertitude et pas mal de divergences, même au sein des cercles d’experts. Résultat, l’issue de la controverse quant à la nécessité de réglementer certains composés chimiques dépend au moins autant des procédures et institutions utilisées pour résoudre les conflits que des objectifs de la science proprement dite (Jasanoff, 1990).

L’existence, dans la politique scientifique, de différends fondés sur des valeurs ne remet pas en cause la validité des évaluations de la technologie : elle plaide plutôt en faveur d’une gestion active des limites par les institutions chargées de régir le risque technologique, et indique que les appels à la seule objectivité scientifique n’ont guère de chances d’apaiser les inquiétudes qu’inspirent les technologies émergentes.

Dernièrement, les pays ont reconnu l’importance de l’ouverture, de l’intégrité, de la transparence et de la redevabilité pour parvenir à des avis scientifiques crédibles (OCDE, 2015). Ainsi, au lieu de formuler les questions appelant un avis scientifique dans des termes exclusivement technocratiques, les pays ont commencé à ouvrir le processus pour le rendre plus inclusif et ont procédé de manière plus scrupuleuse pour décrire les incertitudes et déterminer les questions auxquelles la science ne peut pas répondre à elle seule. Aux États‐Unis, une étape a été franchie dans les années 80 quand les militants luttant contre le syndrome de l’immunodéficience acquise (SIDA) ont acquis les connaissances techniques et la stature politique nécessaires pour participer à des groupes d’experts chargés de trancher des questions telles que les critères scientifiques à remplir pour prendre part aux tests cliniques (Epstein, 1996). Depuis lors, des groupes de patients, « spécialistes non professionnels » de leur domaine, sont souvent associés aux groupes de travail sur les politiques de santé. En outre, les questions de politique générale sont de plus en plus souvent élaborées et formulées au sein d’instances multipartites (OCDE, 2015).

Le document OCDE (2015) décrit comment certains organismes scientifiques consultatifs ont adopté de nouvelles procédures et pratiques susceptibles de contribuer à limiter les polémiques autour des avis scientifiques et à renforcer la confiance du public dans les systèmes consultatifs. Ces procédures et pratiques sont les suivantes :

  • Clarification des responsabilités. Si on leur demande de traiter une question, les organismes consultatifs doivent s’assurer que cette tâche est compatible avec leur mandat et leurs compétences techniques.

  • Renforcement de la transparence. Les conflits d’intérêts potentiels ou avérés sont à l’origine d’une grande partie de la perte de confiance des citoyens dans les structures en place et les politiques fondées sur la science. Il est probable que les experts auront eu des contacts, et souvent des relations contractuelles, avec un certain nombre des parties prenantes concernées par les questions qu’ils ont à examiner. Il est donc nécessaire d’améliorer et de normaliser la définition des « intérêts » en jeu et d’établir des règles transparentes de détermination de ces intérêts.

  • Consultation des parties prenantes. On entend généralement par parties prenantes les personnes physiques ou morales susceptibles d’être concernées par les décisions prises à la suite d’avis scientifiques, ce qui peut comprendre des personnes ayant des intérêts économiques en jeu et des groupements de la société civile (ONG, syndicats, organisations de patients, etc.). Pour prendre en compte les effets potentiels de leurs avis, un nombre croissant d’organismes consultatifs intègrent une forme ou une autre de consultation des parties prenantes, en parallèle des évaluations classiques menées par leurs experts.

  • Participation directe de la société civile. Certains organismes consultatifs sont allés un peu plus loin et ont intégré dans leur comité d’experts des représentants de la société civile, parmi lesquels des groupes de parties prenantes (organisations professionnelles, associations de consommateurs) et des non-spécialistes. Certains craignent que la participation de non-scientifiques à des comités scientifiques consultatifs ne nuise à la qualité des avis, mais on a pu noter, dans nombre de cas, que ces personnes avaient acquis un niveau de connaissance suffisant pour bien comprendre les enjeux.

  • Information du public et communication ouverte. Pour communiquer des avis scientifiques en associant plus pleinement la société, les organismes scientifiques consultatifs vont devoir faire un usage plus efficace des médias sociaux.

Diversité des méthodes de réglementation selon les pays

Il n’existe pas de méthode universelle pour mettre en place un système solide et crédible de conseil technique et de surveillance réglementaire. En fin de compte, les sociétés diffèrent dans la façon dont elles prennent leurs décisions fondées sur le risque et dont elles fournissent au public des justifications en matière de science et de technologie (Jasanoff, 2005). Un important corpus de travaux en sciences sociales comparant les processus de prise de décision fondée sur le risque, dans plusieurs systèmes politiques nationaux, montre comment des différences dans la formulation des enjeux et la politique scientifique peuvent conduire à des différences systématiques dans l’évaluation de la santé, de la sécurité et du risque environnemental selon les pays. Malgré ces différences, il est clair que, dans de nombreux pays, la transparence renforce la crédibilité en règle générale.

Jeter les bases d’une adhésion du public

Des décennies de travaux en sociologie de la technologie ont montré que la trajectoire du développement technologique n’est pas gravée dans le marbre ni prédéterminée, mais peut dépendre de facteurs humains au niveau des individus ou de l’action publique, ainsi que d’événements historiques (Bijker, Pinch et Hughes, 2012). Il est vrai que la transformation du système de production entraînera un grand nombre de choix de recherche et de choix technologiques pertinents possibles, qui seront faits de manière non coordonnée par des personnes allant du personnel des organismes de financement aux entrepreneurs et aux travailleurs, en passant par les responsables des institutions qui soutiennent l’innovation. Mais il est vrai aussi que les stratégies et les investissements nationaux auront une influence sur la direction du changement technologique. La stratégie et la politique en matière d’innovation peuvent-elles s’attaquer à la question de l’adhésion du public dès le début ? La présente section passe en revue un certain nombre de stratégies et de mécanismes qui pourraient contribuer à créer les conditions de cette adhésion selon le besoin.

Prospective

Les technologies entrant dans la prochaine révolution de la production, des biotechnologies industrielles à l’impression 3D, semblent prêtes à transformer les marchés et, potentiellement et plus largement, les sociétés. Il est clair toutefois que plusieurs avenirs sont possibles. Si l’un des objectifs de l’action publique est de renforcer l’adhésion du public aux technologies de la prochaine révolution de la production, une des premières étapes consiste à coup sûr à entreprendre des activités de prospective pour déceler les tendances dans les domaines innovants, et à veiller à la coordination, autant que possible, pour atteindre une série de résultats optimaux sur le plan social. Les exercices de prospective ne peuvent pas prédire l’avenir, mais ils peuvent aider à déterminer et à évaluer de manière systématique et transparente les facteurs sociaux, technologiques, économiques, environnementaux et politiques qui, à tel ou tel égard, auront une incidence sur l’avenir (voir le chapitre 9). Bien conçues, les politiques d’innovation peuvent aider à orienter les trajectoires technologiques vers les objectifs convenus, comme la transition énergétique à grande échelle ou certaines visions de la médecine et de la santé humaine. L’un des avantages qu’il y a à entreprendre des activités de prospective tient aux processus adoptés, notamment le renforcement des réseaux de parties prenantes et de l’adhésiondu public aux technologies.

Comme exemples de processus prospectifs, on pourrait citer l’élaboration de feuille de route technologique, l’utilisation de données bibliométriques et de données sur les brevets pour réfléchir sur l’avenir de la technologie et la sollicitation d’experts. Dans le domaine des nanotechnologies, par exemple, le Conseil de la recherche économique et sociale (Economic and Social Research Council, ESRC) du Royaume-Uni a commandé plusieurs scénarios de convergence des technologies afin d’éclairer sa stratégie de recherche (Barben et al., 2007). Il sera important de dessiner les grandes lignes des évolutions technologiques possibles pour mieux en comprendre les répercussions sociales et pour définir les moyens de gagner l’adhésion du public pendant le processus d’innovation. Certains travaux visant à institutionnaliser cette réflexion à plus long terme sur les politiques sont en cours. Ainsi, en Allemagne, le ministère fédéral de l’Économie et de l’Énergie et celui de l’Éducation et de la Recherche ont créé un organisme de coordination afin de réunir les parties prenantes autour de l’évaluation d’une stratégie à long terme pour l’avenir du secteur.

Évaluation participative de la technologie

Un autre mécanisme visant à comprendre et renforcer l’adhésion du public aux technologies consiste à mettre en place des processus d’évaluation sociétale de la technologie. Apparue dans les années 60, l’évaluation de la technologie a été adoptée progressivement dans de nombreux pays et a évolué au fil du temps à partir des enseignements tirés de l’expérience. Dans de nombreux pays de l’OCDE, la politique d’innovation est aujourd’hui guidée par une forme ou une autre d’évaluation sociétale de la technologie réalisée par divers acteurs, parmi lesquels on retrouve des comités d’éthique nationaux ainsi que d’autres organismes publics chargés d’évaluer, dans une perspective large, les risques liés aux effets sociaux, à la santé et à la sécurité. Certaines de ces évaluations sont ouvertes à un plus grand éventail de participants et comprennent des procédures permettant aux parties prenantes et au grand public d’apporter leur contribution (Durant, 1999).

Ce vaste ensemble de processus d’évaluation sociétale de la technologie repose notamment sur une analyse formelle des risques, mais peut également embrasser les conséquences sociales à plus long terme de l’adoption de la technologie, parfois difficiles à réduire aux risques immédiats en matière de santé et de sécurité. Les questions à examiner portent sur la répartition des avantages et des coûts potentiels, sur les conséquences de la propriété intellectuelle dans le domaine, sur la possibilité que certaines trajectoires apportent un plus grand avantage social et sur les sources d’incertitude dans l’évaluation de la technologie. Ces processus doivent aussi prendre en compte les bénéfices potentiels de l’innovation.

De façon générale, on est passé de formes d’évaluation plutôt fondées sur le travail des experts à des modèles plus participatifs (voir ci-après). Née des polémiques autour de technologies telles que l’énergie nucléaire, aux États-Unis, l’évaluation de la technologie s’est d’abord concentrée sur l’apport de connaissances objectives et probabilistes concernant les trajectoires futures des technologies émergentes. Avec le temps, on s’est rendu compte que les hypothèses retenues lors de l’identification du cadre (définition des problèmes, champ d’action et méthodes, par exemple) façonnaient les conclusions de l’évaluation de la technologie (Ely, van Zwanenberg et Stirling, 2011). En particulier, l’importance exagérée accordée aux conséquences techniques pouvait occulter des questions cruciales liées aux incidences sociales, éthiques et politiques des technologies. Pour ces raisons, les pays ont commencé à adopter des formes plus inclusives, ouvertes et délibératives d’évaluation de la technologie.

Certains mécanismes de cette évaluation font intervenir des procédures publiques formelles qui alimentent directement les décisions d’action publique et de gouvernance en matière d’innovation, en particulier à travers des organismes consultatifs d’experts. L’une des méthodes consiste à faire appel aux académies scientifiques ou aux autorités de réglementation pour évaluer les aspects les plus techniques des technologies émergentes. Il est également possible de créer des organismes consultatifs publics. Entre autres exemples de ces approches, on citera la Fondation du Conseil danois de la technologie, le Conseil Nuffield de la bioéthique (Nuffield Council on Bioethics) au Royaume-Uni et les comités présidentiels de bioéthique aux États-Unis. Des groupes de ce type pourraient être chargés de rédiger des rapports sur des technologies particulières, lesquels rassembleraient des données probantes au moyen de travaux de recherche et de témoignages de la population et pourraient éclairer la justification publique. Des enquêtes publiques et des entretiens avec les parties prenantes sur les technologies émergentes pourraient servir à évaluer les technologies et à jauger l’opinion à un moment donné. Des auditions visant à recueillir des éléments d’information auprès de publics divers pourraient aussi être utilisées pour éclairer les autorités de réglementation.

Comme on l’a vu plus haut, les initiatives récentes d’évaluation de la technologie ont pris une forme plus participative. Ces approches portent différents noms : « évaluation constructive de la technologie » (Schot et Rip, 1996), « évaluation participative de la technologie » (Guston et Sarewitz, 2002) ou « évaluation en temps réel de la technologie », pour ne citer que ces quelques exemples. Elles soulignent l’intérêt d’associer les citoyens et les parties prenantes à l’analyse des spécialistes pour aboutir à une évaluation efficace. L’une des raisons de cette évolution est qu’étant donné que, par nature, l’évaluation de la technologie n’échappe pas aux jugements de valeurs, il paraît nécessaire que les citoyens fassent entendre leur voix dans ces processus. En outre, il est de plus en plus souvent admis que les non-spécialistes et autres parties prenantes possèdent des connaissances utiles à cette évaluation, qui ne seraient pas prises en compte autrement. Les risques toxicologiques en sont un bon exemple. Les personnes qui utilisent des substances potentiellement toxiques sur leur lieu de travail sont les mieux placées pour expliquer, par exemple, comment naissent les risques d’exposition dans certains endroits, compte tenu des habitudes de travail. Pour donner un autre exemple évident, toute évaluation des risques liés aux pesticides devrait prendre en considération les pratiques quotidiennes des personnes qui travaillent dans les champs, en cherchant à déterminer,par exemple, si elles ont l’habitude de porter des vêtements de protection.

Les modes plus participatifs d’évaluation de la technologie tiennent compte du fait que le public a plus de chances d’accepter des évaluations auxquelles il a participé et que, selon toute probabilité, les résultats de ces évaluations seront plus fiables si diverses parties prenantes y ont été associées. Ces approches pourraient comprendre des éléments comme une cartographie sociotechnique, qui combine l’analyse des parties prenantes avec la représentation graphique des innovations techniques récentes ; une expérimentation précoce pour déterminer et gérer les effets non prévus ; un renforcement du dialogue entre le public et les innovateurs ; des sondages d’opinion menés auprès du public ; des groupes de discussion ; et l’élaboration de scénarios (Guston et Sarewitz, 2002).

Encadré 8.4. Ateliers autour de scénarios aux fins d’évaluation de la technologie

Atelier Parliaments and Civil Society in Technology Assessment (PACITA, Les parlements et la société civile dans l’évaluation de la technologie) : scénarios élaborés pour la Norvège, le Danemark, l’Autriche, la Bulgarie, la Catalogne (Espagne), la Wallonie (Belgique), la République tchèque, l’Irlande et la Hongrie.

Comme il est expliqué dans la Déclaration de Lund (une déclaration européenne concluant que la recherche européenne devrait être axée sur les grands problèmes et servir avant tout à relever les grands défis de la société), on considère que la gestion du vieillissement de la société est un problème central en Europe. On qualifie de « double défi démographique » le fait que la population vieillissante a de plus en plus besoin de services de santé alors que la population active diminue. Les nouvelles technologies seront donc importantes pour assurer les soins de santé dans l’Union européenne.

Pour tenir compte des défis et possibilités associés à diverses technologies (maisons intelligentes, appareils de localisation et robots, par exemple) et pour fournir aux responsables de l’élaboration des politiques plusieurs options d’action, l’Union européenne a élaboré un projet qui a réuni des parties prenantes et divers publics dans des ateliers organisés autour de scénarios et qui a abouti à un rapport d’orientation.

Un groupe de parties prenantes a été constitué en regroupant des spécialistes d’horizon divers. Des descriptions de technologies et un aperçu des évolutions futures possibles ont été réunis, et un ensemble de scénarios relatifs à l’utilisation potentielle de ces technologies dans une société vieillissante ont été élaborés. Des ateliers ont ensuite été organisés autour de ces scénarios dans les pays mentionnés plus haut afin d’examiner les similitudes et les différences en Europe dans les attentes et les préférences relatives aux défis technologiques en question. Chaque atelier a réuni des parties prenantes, patients et usagers, chercheurs et développeurs de technologies, et décideurs intervenant à plusieurs niveaux de responsabilité. Les observations, les réponses d’ordre général, les problèmes et les idées ont été recueillis lors de ces ateliers délibératifs, enregistrés et communiqués aux responsables de l’élaboration des politiques.

Participation de la population et débat public

Il est de plus en plus largement admis que, parallèlement aux processus formels d’évaluation de la technologie, la participation des parties prenantes et de la population sur la question des enjeux de la science, de la technologie et de l’innovation est un élément essentiel pour aboutir à des politiques robustes en matière de science et d’innovation. Dans leur étude de l’adhésion aux technologies des énergies renouvelables, Reith et al. (2013) ont relevé trois interventions susceptibles d’améliorer l’adhésion de la société aux technologies émergentes : fournir une meilleure information au public (publicité, journaux, sites web et excursions sur site, par exemple), renforcer la coopération et la participation (aux processus décisionnels et aux arrangements financiers) et consulter la population et l’associer à l’action (réunions et dialogues publics, par exemple). Ces approches sont prometteuses pour l’analyse et la mise en œuvre d’autres technologies émergentes (Reith et al., 2013).

La participation du public pourrait se définir comme « un processus participatif à travers lequel les membres de divers publics expriment leurs opinions et leurs préoccupations, et font part de leurs recommandations sur une question technoscientifique. Ces initiatives font du public non pas un receveur passif de connaissances spécialisées, mais un acteur important façonnant les technologies et leurs trajectoires » (Winickoff, Flegal et Asrat, 2015). Les mécanismes de participation du public vont de la consultation (à l’aide d’enquêtes, par exemple) à des initiatives davantage axées sur le dialogue (consultations citoyennes, évaluation participative de la technologie). La participation du public peut aider à orienter la science et l’innovation vers des objectifs socialement souhaitables, à renforcer le bagage scientifique des citoyens ainsi que leur soutien et leur implication, et à élargir l’éventail des possibilités envisagées dans le développement et la conduite des travaux de recherche.

Les différentes justifications d’une plus grande participation du public à la science et à la technologie peuvent être examinées utilement sous trois angles : normatif, instrumentaliste et essentiel (Fiorino 1990 ; Stirling, 2007). Sur le plan normatif, on peut arguer que la gouvernance de la science et de l’innovation sans participation réelle des parties intéressées est contraire aux idéaux de la démocratie. Les citoyens doivent avoir la possibilité de dire si et en quoi la science et la technologie ont une incidence sur leur vie. L’argument instrumentaliste s’intéresse à l’adhésion du public à la science et à la technologie : associer d’emblée le public aux mesures sujettes à controverses peut éviter une levée de boucliers et renforcer la confiance entre les scientifiques et les non-experts. Enfin, l’argument essentiel fait valoir que la participation du public, et en particulier la prise en compte des points de vue de non-spécialistes, peut améliorer la qualité et la pertinence des connaissances produites, ainsi que l’utilité des technologies.

La « participation du public » à l’élaboration des politiques d’innovation comprend souvent un large éventail d’instruments. On trouvera au tableau 8.1 une typologie des mécanismes de participation tirés de Rowe (2005), exemples à l’appui. L’une des formes de participation pourrait être qualifiée de « communication » et englobe des instruments qui transmettent l’information, des responsables de l’élaboration des politiques (ou autres promoteurs des technologies) au public. Dans ces initiatives, l’information circule dans un seul sens. Pour autant, une communication bien conçue peut avoir des effets considérables en faveur d’une innovation responsable, notamment parce que la transparence contribue à renforcer la confiance du public dans les avis scientifiques. Une communication pertinente peut prendre diverses formes : plans de recherche stratégique rendus accessibles au public, soit sur papier, soit en ligne ; ou stratégie « science ouverte », qui désigne « une approche de la recherche reposant, premièrement, sur un accès plus facile aux données issues de la recherche publique, rendu possible par les outils et plateformes des TIC ; deuxièmement, sur une collaboration élargie dans les domaines scientifiques, ce qui inclut la participation de non-scientifiques ; et, troisièmement, sur l’emploi d’outils non traditionnels de gestion du droit d’auteur pour diffuser les résultats de la recherche » (OCDE,2016b).

tableau 8.1. Typologie des mécanismes de participation du public et exemples de politiques nationales

Principales caractéristiques des politiques

Principaux instruments d’action

Exemples de politiques nationales

Communication

Information en ligne

Publication de plans de recherche/mesures de réglementation sur un site web accessible au public

Plates-formes électroniques publiques (Lituanie) ; bulletin d’information public (Pologne)

Science ouverte

Accès libre à la recherche universitaire

Scientific Electronic Library Online (Afrique du Sud) ; Déclaration d’Ankara sur l’accès libre et Comité national de la science ouverte (Turquie)

Consultation

Contribution du public à l’établissement de l’ordre du jour

Enquêtes, retour d’informations en ligne, remontée d’informations, etc.

Programme Idées pour le changement (Colombie) ; feuilles de route de la technologie (Turquie) ; programme national de recherche (Pays-Bas) ; Argentina Innovadora 2020 (Argentine) ; The Great New Zealand Science Project

Participation

Gouvernance anticipative

Activités de prospective concernant l’évaluation de la technologie

PACITA (République tchèque) ; processus de prospective BMBF (Allemagne)

Dialogue sur les priorités de la recherche

Ateliers publics visant à déterminer les grandes questions de société

Dialogue sur les technologies futures (Allemagne) ; catalogue INNO+ (Danemark)

Science citoyenne

Centre autrichien de science citoyenne

La participation peut aussi prendre la forme d’une « consultation publique », dans le cadre de laquelle les responsables de l’élaboration des politiques (ou d’autres promoteurs des technologies) entreprennent de recueillir des éléments de compréhension auprès du public. La consultation publique ne comprend généralement pas de dialogue formel entre le public et les responsables. Néanmoins, les informations sollicitées par ces derniers auprès de la population peuvent aider à guider des activités d’innovation socialement responsables. Entre autres exemples de consultations publiques, on citera la sollicitation formelle de l’avis de la population concernant les priorités de la recherche ou la conduite d’enquêtes d’opinion, sur la science et la technologie par exemple.

Contrairement aux formes de participation susmentionnées, la « participation du public » comprend un dialogue formel entre les responsables de l’élaboration des politiques et la population. Le débat est primordial dans les initiatives participatives. Experts et non-spécialistes s’échangent des informations, ce qui peut faciliter l’apprentissage mutuel, voire l’évolution des opinions tant des responsables que des membres du public participant aux discussions. Les méthodes participatives d’évaluation de la technologie sont un exemple de participation du public.

La tendance croissante à l’adoption de mécanismes de participation du public dans les politiques d’innovation porte à croire que ces mécanismes sont jugés bénéfiques par les pays. Leur mise en œuvre effective se heurte toutefois à certains problèmes. Premièrement, il peut être difficile de réunir des publics représentatifs pour ce type d’exercice. Certains processus participatifs ne sont considérés comme légitimes que par les publics qui y prennent part directement. Ce phénomène a été qualifié de « problème fondamental d’échelle » (Lövbrand et al., 2015 ; Stilgoe, Lock et Wilsdon, 2014) et souligne la nécessité d’envisager les opérations de participation comme un élément parmi d’autres d’une politique d’innovation plus responsable. L’une des autres difficultés est de faire en sorte que les politiques de la science, de la technologie et de l’innovation (STI) tiennent compte des résultats des opérations de participation du public. Il y a un risque que le manque de participation du public ne complique la tenue d’un véritable débat, et contribue au contraire à légitimer les politiques en place. En outre, cette participation a d’autant plus de chances d’avoir un effet que les technologies en sont à un stade plus « en amont » ou ne sont pas encore verrouillées (Collingridge, 1980). Autrement dit, la participation du public sera particulièrement efficace dans le cas de technologies émergentes,mais pourra s’avérer plus délicate pour des technologies déjà bien ancrées.

Le programme de traitement des déchets nucléaires de la Suède offre un bon exemple de processus délibératif ayant réussi à réduire les fractures entre experts et profanes pour aboutir à une décision socialement acceptable concernant l’avenir d’une technologie. Dans les années 2000, en réponse aux préoccupations sociales causées par le choix d’un site de stockage des déchets nucléaires, les autorités suédoises ont constitué et présenté un « dossier sécurité » en en faisant un outil majeur pour susciter le débat public sur le sujet, et le processus a abouti à une installation agréée et approuvée par le public (Long et Scott, 2013 ; Société nucléaire européenne, 2009). Les documents réunis dans le dossier comportaient des arguments techniques, exprimés dans des termes accessibles aux non-spécialistes, expliquant pourquoi le site proposé était considéré comme sûr. Ils décrivaient clairement en quoi les informations utilisées dans le dossier étaient jugées de qualité. Ils décrivaient aussi ce que l’on prévoyait de faire pour améliorer la compréhension, les résultats attendus de ces initiatives et les progrès que les précédentes initiatives visant à faciliter la compréhension avaient permis d’obtenir. Lors d’une réunion de suivi, les résultats d’expérimentations récentes ont été comparésaux résultats qui avaient été prédits. Au fil du temps, la transparence de ce processus a permis à chacun de comprendre de plus en plus finement comment il fonctionnait (Long et Scott, 2013).

L’expérience en matière d’innovation dans la santé montre comment les patients, les participants à la recherche et le public non-expert, s’ils sont consultés au cours de la R-D, peuvent favoriser l’innovation et l’orienter vers des besoins réels. Dans le domaine des maladies rares, par exemple, les organisations de défense des malades ont organisé leurs propres banques biologiques, recruté des chercheurs pour travailler sur leurs maladies, co‐inventé des outils d’intervention et joué un rôle consultatif clé dans la conception des systèmes d’éthique de la recherche applicables aux essais cliniques.

Intégration en amont des questions éthiques, juridiques et sociales

Les préoccupations sociales potentielles et la question de l’adhésion du public ne doivent pas être laissées pour la toute fin du processus de développement des technologies. On admet de plus en plus souvent qu’il est essentiel de prendre ces questions en compte dans les décisions de financement de la recherche, la pratique de la science et le développement et la commercialisation des technologies. Comment peut-on procéder ?

La première génération d’approches visant à intégrer les préoccupations sociales plus larges dans le développement et l’évaluation de la technologie consistait à s’intéresser aux enjeux éthiques, juridiques et sociaux. Depuis le Projet sur le génome humain, au début des années 90, les mécènes de la science, dans de nombreux pays de l’OCDE, ont tenté de prendre ces enjeux en considération. Les responsables de la planification de ce projet, conscients que la cartographie et le séquençage du génome humain allaient avoir des conséquences majeures pour les individus, les familles et les sociétés, ont décidé de consacrer plus de 3 % de leur budget à l’étude de ses répercussions éthiques, juridiques et sociales. Dans le domaine des nanotechnologies, 2.4 % des fonds alloués au titre de la National Nanotechnology Initiative, aux États-Unis ont été consacrés à la recherche sur les enjeux éthiques, juridiques et sociaux, et aux Pays-Bas, 25 % du programme national de recherche sur les nanotechnologies sont allés à la recherche sur le risque et à l’évaluation de la technologie (OCDE, 2013). Cette démarche a fait école et nombreux sont les pays, notamment les pays de l’OCDE, qui se sont efforcés d’intégrer des travaux en sciences sociales et humaines dans les flux de financement.

De nouveaux mécanismes cherchent à intégrer les considérations sociales non pas en bout de chaîne, mais au cours du développement des technologies, afin de soutenir l’innovation au lieu de la freiner. Parmi les exemples d’approches globales de ce type on citera l’US National Nanotechnology Initiative et le programme Horizon 2020 de la Commission européenne (encadré 8.5).

Encadré 8.5. Gouvernance anticipative

La US National Nanotechnology Initiative (NNI), lancée en 2003, gère un budget de recherche de plus de 1 milliard USD par an. Elle met l’accent sur la nécessité d’une commercialisation au service de la compétitivité d’une part et d’une meilleure compréhension des répercussions sociétales d’autre part. Elle a donné lieu à la création de deux centres pour enquêter sur les « nanotechnologies dans la société ». Ces centres ont élaboré une approche de « gouvernance anticipative » qui vise à renforcer la capacité de la société à prendre part aux innovations dans le domaine des nanotechnologies. La gouvernance anticipative comprend au moins trois composantes et tend à réaliser les objectifs suivants :

  • Prise en compte des valeurs humaines dans le débat autour de la technologie, souvent à travers la participation directe des parties prenantes et du public. Aux États-Unis, le réseau de formation scientifique informelle à l’échelle nanométrique (Nanoscale Informal Science Education, NISE) a fait de la participation du public l’un de ses principaux thèmes.

  • Élaboration de scénarios et prospective pour aider à comprendre les dimensions sociales du changement scientifique et technique. Entre autres exemples de programme, on citera le programme Scenarios of Converging Technologies (Scénarios sur les technologies convergentes) à l’université d’Oxford et l’initiative d’élaboration de scénarios en accès libre menée dans le cadre du projet NanoFutures dans les centres sur les nanotechnologies et la société.

  • Intégration de la participation et de la prospective dans les travaux scientifiques et techniques pour accroître la capacité des spécialistes des sciences naturelles à appréhender les aspects sociétaux de leur travail, et pour donner aux spécialistes des sciences sociales des perspectives plus claires sur les technologies de pointe (Guston, 2008).

Dans le prolongement des mesures évoquées plus haut – de l’examen des enjeux éthiques, juridiques et sociaux au débat public en passant par l’évaluation de la technologie –, une attention accrue a été accordée à la recherche et à l’innovation responsables (RRI) dans le cadre d’action de l’Union européenne. La notion de RRI combine plusieurs éléments : évaluation en amont, participation du public, accès libre, égalité entre les sexes, formation scientifique, éthique et gouvernance. Elle vise à élargir les questions relatives à l’innovation scientifique et technologique, à anticiper leurs conséquences et à associer la société au débat sur la façon dont la science et la technologie peuvent répondre aux préoccupations et aux objectifs sociétaux. Les RRI – le concept et l’ensemble d’outils – ont considérablement évolué depuis leur introduction dans le discours politique de l’Union européenne en 2011.

Encadré 8.6. Comprendre la notion de recherche et d’innovation responsables (RRI)

La définition d’une recherche et d’une innovation responsables varie selon les administrations et les cercles universitaires, et traite ce concept différemment, comme une stratégie de gouvernance, un cadre d’action et un processus. Les principales définitions sont les suivantes :

  • Approche anticipant et évaluant les répercussions potentielles et les attentes de la société concernant la recherche et l’innovation, dans le but de favoriser la conception d’une recherche et d’une innovation inclusives et durables. Cette définition implique que les acteurs sociaux (chercheurs, citoyens, responsables de l’élaboration des politiques, entreprises et organisations du secteur associatif) travaillent ensemble tout au long du processus de recherche et d’innovation afin de mieux harmoniser le processus et ses résultats avec les valeurs, les besoins et les attentes de la société (CE, 2017).

  • Cadre d’action dans le domaine des sciences, visant à importer des valeurs sociales générales dans les processus d’innovation technologique tout en étayant la prise de décision institutionnelle dans des conditions d’incertitude et d’ambiguïté. À cet égard, la recherche et l’innovation responsables recentrent la gouvernance technologique, des débats classiques sur les risques vers des discussions sur une gestion éthique de l’innovation (Schroeder et Ladikas, 2015).

  • Processus transparent et interactif par lequel les acteurs sociaux et les innovateurs deviennent mutuellement réceptifs les uns aux autres, dans le but de parvenir à une acceptabilité (éthique), une durabilité et une désirabilité sociale du processus d’innovation et de ses produits commercialisables (pour permettre une bonne intégration des avancées technologiques dans notre société) (Schomberg, 2013).

L’une des idées maîtresses des RRI est le désir de « relier la pratique actuelle de la recherche et de l’innovation à l’avenir qu’elle promet et qu’elle contribue à façonner » (Owen, Bessant et Heintz, 2013). « La prédiction est impossible », comme l’a déclaré un universitaire, « mais l’anticipation d’avenirs possibles et pluriels est vitale » (Stilgoe, Bessant et Heintz, 2013).

Les RRI ne sont pas considérées comme une stratégie de mise en œuvre de mesures de responsabilité, de redevabilité, de renforcement de la réglementation ou d’une autre forme d’examen éthique. En revanche, les parties prenantes sont encouragées à étudier collectivement les moyens de faire avancer les objectifs sociétaux grâce à la technologie, en prenant en considération toute la palette d’implications morales, éthiques, juridiques et sociales de la recherche et de l’innovation (Owen et al., 2013). Dans le cadre du programme Horizon 2020 de l’Union européenne, les RRI sont une mesure essentielle pour atteindre l’objectif « Science avec et pour la société » de la Commission européenne. Les gouvernements doivent s’assurer que les politiques, les cadres réglementaires et les initiatives de financement intègrent les principes de RRI afin de concrétiser les promesses de solutions intelligentes, inclusives et durables aux problèmes sociaux examinés dans ce que l’on appelle la Déclaration de Rome (CE, 2014b).

Conclusion

La transformation en cours du système de production entraînera un grand nombre de choix en matière de recherche et de technologie dans l’ensemble des chaînes de valeur et des secteurs. Toutefois, les stratégies et les investissements nationaux peuvent et vont exercer une profonde influence sur l’orientation du changement technologique. Concernant l’adhésion du public, il existe d’importants précédents technologiques dont les responsables de l’élaboration des politiques, les entreprises et la société doivent tenir compte. Le cas des biotechnologies semble indiquer que les efforts déployés par les pouvoirs publics pour répondre aux inquiétudes de la population liées aux technologies de la prochaine révolution de la production en s’intéressant surtout aux risques physiques immédiats et non aux préoccupations sociales à plus long terme pourraient poser problème. Dans le cas des nanotechnologies, les mécènes de la science ont investi dans les sciences sociales et dans la concertation par la création de centres sur les nanotechnologies et la société, et la résistance du public a été faible. Les données massives et l’intelligence artificielle sont des domaines dans lesquels le dialogue social a vraiment été engagé, mais pour lesquels il existe peu de lieux institutionnalisés de communication et d’apprentissage.

Les travaux en sciences sociales publiés sur l’adhésion du public abordent certains points essentiels pour les responsables de l’élaboration des politiques :

  • Compréhension de la science par le public. L’éducation et l’information sont importantes pour façonner et encadrer le discours public sur la technologie, mais l’attitude des citoyens dépend fortement du contexte social et politique ainsi que de la culture de la confiance entre ces mêmes citoyens, les organismes de réglementation et les entreprises.

  • Confiance. La résistance du public aux technologies nouvelles et la perte de confiance dans les autorités chargées de la réglementation sont étroitement liées. La logique, les choix de valeurs et les incertitudes qui sous-tendent les méthodes d’analyse telles que l’analyse risques-bénéfices devraient être transparents. Le battage autour des avantages à court et long termes peut in fine nuire à la confiance dans les institutions gouvernementales, privées et scientifiques.

  • Avis scientifiques. La confiance requiert en premier lieu des organismes réglementaires et consultatifs spécialisés crédibles, qui devraient se caractériser par leur ouverture, leur intégrité, leur transparence et leur capacité à rendre des comptes. Il n’existe pas de méthode universelle unique permettant de mettre en place un système solide et crédible de conseil technique et de surveillance réglementaire. Au bout du compte, les sociétés doivent s’appuyer sur le meilleur de leurs traditions institutionnelles de justification publique des questions techniques.

Les responsables de l’élaboration des politiques qui cherchent à éviter le rejet de la technologie par le public disposent d’un certain nombre de mécanismes et de bonnes pratiques.

  • Anticipation. L’une des premières mesures efficaces consiste à entreprendre des activités d’anticipation, telles que la prospective, afin de détecter les tendances dans les domaines innovants, d’imaginer les avenirs possibles et d’assurer une coordination aussi étroite que possible des acteurs sociaux pour parvenir à un éventail de résultats optimaux sur le plan social. Les exercices de prospective ne peuvent pas prédire l’avenir, mais ils peuvent aider à déterminer et à évaluer de manière systématique et transparente diverses conditions qui le façonnent.

  • Évaluation participative de la technologie. Différentes formes d’évaluation participative de la technologie sont aujourd’hui menées par divers acteurs, parmi lesquels des comités d’éthique nationaux et d’autres organismes publics chargés d’évaluer, dans une perspective large, les effets sur la société en général et les risques pour la santé et la sécurité. Les questions à examiner doivent concerner : la répartition des avantages et des coûts potentiels associés à une technologie particulière ; les conséquences de la propriété intellectuelle sur le terrain ; l’existence éventuelle de voies permettant de tirer le meilleur avantage social possible ; et les sources d’incertitude dans l’évaluation de la technologie. Ces processus doivent aussi prendre en compte les avantages potentiels de l’innovation.

  • Participation du public. La participation du public peut aider à orienter la science et l’innovation vers des objectifs socialement souhaitables, à renforcer le bagage scientifique des citoyens ainsi que leur soutien et leur implication, et à élargir l’éventail des possibilités envisagées dans le développement et la conduite des travaux de recherche. Cette participation a d’autant plus de chances d’avoir un effet que les technologies en sont à un stade peu avancée ou qu’elles ne sont pas verrouillées, et que de bonnes pratiques ont été élaborées.

  • Intégration des questions éthiques, juridiques et sociales plus en amont dans la R-D. Il est essentiel de prendre ces questions en compte dans les décisions de financement de la recherche, la pratique de la science et le développement et la commercialisation des technologies. Des démarches telles que la « gouvernance anticipative » et « la recherche et l’innovation responsables » offrent des cadres possibles pour y parvenir, mais il faudra poursuivre le travail d’élaboration et d’expérimentation des mécanismes à utiliser.

Références

Arnall, A.H. (2003), Future Technologies, Today’s Choices: Nanotechnology, Artificial Intelligence and Robotics: A Technical, Political and Institutional Map of Emerging Technologies, Greenpeace Environmental Trust, Londres.

Barben, D. et al. (2007), « Anticipatory governance of nanotechnology: Foresight, engagement, and integration », The Handbook of Science and Technology Studies, E. Hacket et al. (dir. pub.), MIT Press, Cambridge, MA.

Bauer, M. (2009), « The evolution of public understanding of science – Discourse and comparative evidence », Science Technology & Society, vol. 14, n° 2, pp. 221-40.

Bijker, W., T. Pinch et T. Hughes (dir. pub.) (2012), The Social Construction of Technological Systems: New Directions in the Sociology and History of Technology (Anniversary edition), MIT Press, Cambridge, MA.

Blackburn-Starza, A. (2007), « HFEA launches public consultation on “hybrid” embryos », BioNews, vol. 405, 30 avril, www.bionews.org.uk/page_13053.asp (consulté le 17 janvier 2017).

Bradbury, M. (2016) « There’s an algorithm for that. Or there soon will be », Blog OECD Insights, http://oecdinsights.org/2016/05/18/theres-an-algorithm-for-that-or-there-soon-will-be/ (consulté le 17 janvier 2017).

British Science Association (2016), « One in three believe that the rise of artificial intelligence is a threat to humanity », British Science Association News, www.britishscienceassociation.org/news/rise-of-artificial-intelligence-is-a-threat-to-humanity (consulté le 17 janvier 2017).

Callaway, E. (2016), « UK scientists gain licence to edit genes in human embryos », Nature, vol. 530, n° 7588, p. 8.

Calo, R. (2014), « The case for a federal robotics commission », Brookings Institute Project on Civilian Robotics, www.brookings.edu/research/the-case-for-a-federal-robotics-commission/ (consulté le 17 janvier 2017).

CE (Commission européenne) (2017), « Horizon 2020 » site Internet, https://ec.europa.eu/programmes/horizon2020/en/h2020-section/responsible-research-innovation.

CE (2014a), « Special Eurobarometer 419: Public perceptions of science, research and innovation », Commission européenne, Bruxelles, http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf.

CE (2014b), Rome Declaration on Responsible Research and Innovation in Europe, Commission européenne, Bruxelles, https://ec.europa.eu/research/swafs/pdf/rome_declaration_RRI_final_21_novembre.pdf.

CE (2013), « Options for strengthening responsible research and innovation », Commission européenne, Bruxelles, http://ec.europa.eu/research/science-society/document_library/pdf_06/options-for-strengthening_ en.pdf.

Cellan-Jones, R. (2014), « Stephen Hawking warns artificial intelligence could end mankind », BBC News, 2 décembre, www.bbc.com/news/technology-30290540 (consulté le 17 janvier 2017).

Collingridge, D. (1980), The Social Control of Technology, Open University Press, Milton Keynes.

Currall, S.C. et al. (2006), « What drives public acceptance of nanotechnology? », Nature Nanotechnology, vol. 1, n° 3, pp. 153-55, http://dx.doi.org/10.1038/nnano.2006.155.

Davis, F.R. (2014), Banned: A History of Pesticides and the Science of Toxicology, Yale University Press, New Haven, https://doi.org/10.1093/envhis/emv178.

Durant, J. (1999), « Participatory technology assessment and the democratic model of the public understanding of science », Science and Public Policy, vol. 26, n° 5, pp. 313-19, http://dx.doi.org/10.3152/147154399781782329.

Ely, A., P. van Zwanenberg et A. Stirling (2011), « New models of technology assessment for development », http://steps-centre.org/publication/new-models-of-technology-assessment-for-development/.

Epstein, S. (1996), Impure Science: AIDS, Activism, and the Politics of Knowledge, University of California Press, Berkeley.

ETC (Erosion, Technology and Concentration) Group (2003), « The big down: From genomes to atoms – Atomtech: Technologies converging at the nano-scale », www.etcgroup.org/sites/www.etcgroup.org/files/thebigdown.pdf.

Faden, R.R., T.L. Beauchamp et N.E. Kass (2014), « Informed Consent, Comparative Effectiveness and Learning Health Care », New England Journal of Medicine, vol. 370, 20 février, pp. 766-768, http://dx.doi.org/10.1056/NEJMhle1313674.

Fiorino, D.J. (1990), « Citizen participation and environmental risk: A survey of institutional mechanisms », Science, Technology & Human Values, vol. 15, n° 2, pp. 226-243.

G7 (2016), « Communiqué », réunion des ministres de la Science et de la Technologie, Tsukuba, Ibaraki, Japon, www.g8.utoronto.ca/science/2016-tsukuba.html.

Gaskell, G. et al. (1999), « Worlds apart? The reception of genetically modified foods in Europe and the US », Science, vol. 285, n° 5426, pp. 384-87, http://dx.doi.org/10.1126/science.285.5426.384.

Gupta, N., A.R.H. Fischer et L.J. Frewer (2012), « Socio-psychological determinants of public acceptance of technologies: A review », Public Understanding of Science, vol. 21, n° 7, pp. 782-95, http://dx.doi.org/10.1177/0963662510392485.

Guston, D.H. (2008), « Innovation policy: Not just a jumbo shrimp », Nature, vol. 454, n° 7207, pp. 940-41, http://dx.doi.org/10.1038/454940a.

Guston, D.H. et D. Sarewitz (2002), « Real-time technology assessment », Technology in Society, vol. 24, n° 1, pp. 93-109.

HFEA (Human Fertilisation and Embyology Authority) (2007), « Hybrids and chimeras: A report on the findings of the consultation », Human Fertilisation and Embyology Authority, www.hfea.gov.uk/docs/Hybrids_Report.pdf.

Jasanoff, S. (2005), Designs on Nature: Science and Democracy in Europe and the United States, Princeton University Press, Princeton, NJ.

Jasanoff, S. (1990), The Fifth Branch: Science Advisers as Policymakers, MIT Press, Cambridge, MA.

Joy, B. (2000), « Why the future doesn’t need us », Wired Magazine, 1 avril, www.wired.com/2000/04/joy-2/.

Kahan, D. (2015), « Climate science communication and the measurement problem », Advances in Political Psychology, vol. 36, pp. 1-43.

Kamenova, K. et T. Caulfield (2015), « Stem cell hype: Media portrayal of therapy translation », Science Translational Medicine, vol. 7, n° 278, n° 278, pp. 4-278, http://dx.doi.org/10.1126/scitranslmed.3010496.

Kirby, T. (2014), « Controversy surrounds England’s new NHS database », The Lancet, vol. 383, n° 9918, p. 681, http://dx.doi.org/10.1016/S0140-6736(14)60230-0).

Long, J. et D. Scott (2013), « Vested Interests and Geoengineering Research », Issues in Science and Technology, n° 29, http://issues.org/29-3/long-4/.

Lövbrand, E. et al. (2015), « Who speaks for the future of Earth?: How critical social science can extend the conversation on the anthropocene », Global Environmental Change, vol. 32, pp. 211-18.

MacDonald, C. (2004), « Nanotechnology, privacy and shifting social conventions », Health Law Review vol. 12, n° 3, pp. 37-40.

Marks, P. (2016), « AI needs oversight – Time to set standards for autonomous tech », New Scientist, 21 juillet, www.newscientist.com/article/2098277-ai-needs-oversight-time-to-set-standards-for-autonomous-tech/.

« @nathanielkoloc (17 mai 2015), I think it’s way too early for explicit AI policy/regulation, but check out futureoflife.org/home @bfeld », https://twitter.com/amcafee/status/599937227834044416.

McNutt, M. (2015), « Breakthrough to genome editing », Science, vol. 350, n° 6267, pp. 1445-1445, http://dx.doi.org/10.1126/science.aae0479.

Meridian Institute (2005), « Nanotechnology and the poor: Opportunities and risks », www.merid.org/~/media/Files/Projects/nano-waterworkshop/NanoWaterPaperFinal.ashx.

OCDE (2017), « Recommendation of the Council on Health Data Governance », OCDE, Paris, www.oecd.org/health/health-systems/Recommendation-of-OECD-Council-on-Health-Data-Governance-Booklet.pdf.

OCDE (2016a), Nanomaterials in Waste Streams: Current Knowledge on Risks and Impacts, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264249752-en.

OCDE (2018), Science, technologie et innovation : Perspectives de l’OCDE 2016, OECD Publishing, Paris, http://dx.doi.org/10.1787/sti_in_outlook-2016-fr

OCDE (2015), « Scientific advice for policy making: The role and responsibility of expert bodies and individual scientists », OECD Science, Technology and Industry Policy Papers, n° 21, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5js33l1jcpwb-en.

OCDE (2013), « Responsible development of nanotechnology: Results from a survey activity », OCDE, Paris, www.oecd.org/officialdocuments/publicdisplaydocumentpdf/?cote=dsti/stp/nano(2013)9/final& doclanguage=en.

Owen, R., J. Bessant et M. Heintz (dir. pub.) (2013), Responsible Innovation: Managing the Emergence of Science and Innovation in Society, John Wiley & Sons, Chichester, http://doi.org/10.1002/9781118551424.

Owen, R., P. Macnaghten et J. Stilgoe (2012), « Responsible research and innovation: From science in society to science for society, with society », Science and Public Policy, vol. 39, n° 6, pp. 751-60, http://dx.doi.org/10.1093/scipol/scs093.

Packer, J. (2008), Mobility without maihem: Safety, Cars, and Citizenship, Duke University Press, Durham, NC.

Pfotenhauer, S.M. et al. (2012), « Learning from Fukushima », Issues in Science and Technology, vol. 28, n° 3, pp. 79-84.

Pidgeon, N.F., R.E. Kasperson et P. Slovic (dir. pub.) (2003), The Social Amplification of Risk, Cambridge University Press, Cambridge.

Pollack, M.A. et G.C. Shaffer (2009), When Cooperation Fails: The International Law and Politics of Genetically Modified Foods, Oxford University Press, Oxford.

Rayner, S. (2004), « The novelty trap: Why does institutional learning about new technologies seem so difficult? », Industry and Higher Education, vol. 18, n° 6, pp. 349-355.

Reardon, S. (2015), « Global Summit Reveals Divergent Views on Human Gene Editing », Nature, vol. 528, n° 7581 (8 décembre 2015), p. 173, http://dx.doi.org/10.1038/528173a.

Reith, S. et al. (2013), « Public acceptance of geothermal electricity production », GEOELEC, Deliverable n° 4.4, www.geoelec.eu/wp-content/uploads/2014/03/D-4.4-GEOELEC-report-on-public-acceptance.pdf.

Rodricks, J.V. (2006), Calculated Risks: The Toxicity and Human Health Risks of Chemicals in Our Environment, 2e édition, Cambridge University Press, Cambridge.

Rowe, G. (2005), « A Typology of public engagement mechanisms », Science, Technology & Human Values, vol. 30, n° 2, pp. 251-90, http://dx.doi.org/10.1177/0162243904271724.

Sarewitz, D. (2015), « CRISPR: Science can’t solve it », Nature, vol. 522, n° 7557, www.nature.com/news/crispr-science-can-t-solve-it-1.17806.

Schomberg, R. (2013), « A vision of responsible research and innovation », in R. Owen, J. Bessant et M. Heintz (dir. pub.), Responsible innovation, Managing the responsible emergence of science and innovation in society, John Wiley & Sons, Chichester, http://doi.org/10.1002/9781118551424.

Schot, J. et A. Rip (1996), « The past and future of constructive technology assessment », Technological Forecasting and Social Change, vol. 54, pp. 251-68.

Schroeder, D. et M. Ladikas (2015), « Towards principled Responsible Research and Innovation: Employing the difference principle in funding decisions », Journal of Responsible Innovation, vol. 2, n° 2, pp. 169-183, http://dx.doi.org/10.1080/23299460.2015.1057798.

Slovic, P. (1987), « Perception of Risk », Science, vol. 236, n° 4799, pp. 280-85, http://dx.doi.org/10.1126/science.3563507.

Smith, A. et J. Anderson (2014), « AI, robotics, and the future of jobs », Pew Research Center, Internet, Science & Tech, www.pewinternet.org/2014/08/06/future-of-jobs/

Société européenne de l’énergie nucléaire (2009), ENS Nnews, numéro 25, www.euronuclear.org/e-news/e-news-25/forsmark.htm.

Stilgoe, J., S.J. Lock et J. Wilsdon (2014), « Why should we promote public engagement with science? », Public Understanding of Science, vol. 23, n° 1, pp. 4-15.

Stirling, A. (2007), « “Opening up” and “closing down”: Power, participation, and pluralism in the social appraisal of technology », Science, Technology & Human Values, vol. 33, n° 2, pp. 262-94, http://dx.doi.org/10.1177/0162243907311265.

Tenner, E. (2001), « Unintended consequences and nanotechnology », in Social Implications of Nanoscience and Nanotechnology, vol. 241-45, Arlington, National Science Foundation, VA.

The Economist (2016), « Britain’s manufacturing sector is changing beyond all recognition », The Economist, 5 novembre, www.economist.com/node/21709597/print.

US EPA (United States Environmental Protection Agency) (2016), « Research on evaluating nanomaterials for chemical safety », US Environmental Protection Agency, www.epa.gov/chemical-research/research-evaluating-nanomaterials-chemical-safety (consulté le 4 février 2016).

Winickoff, D.E. et al. (2005), « Adjudicating the GM food wars: Science, risk, and democracy in world trade law », Yale Journal of International Law, vol. 30, n° 1, pp. 81-123.

Winickoff, D.E., J.A. Flegal et A. Asrat (2015), « Engaging the global south on climate engineering research », Nature Climate Change, vol. 5, n° 7, pp. 627-34, http://dx.doi.org/10.1038/nclimate2632.

Winner, L. (1977), Autonomous Technology: Technics-out-of-Control as a Theme in Political Thought, MIT Press, Cambridge, MA.

Wüstenhagen, R., M. Wolsink et M.J. Bürer (2007), « Social acceptance of renewable energy innovation: An introduction to the concept », Energy Policy, vol. 35, n° 5, pp. 2683-91, http://dx.doi.org/10.1016/j.enpol.2006.12.001.