Auteurs : Peter J. Bentley, Miles Brundage, Olle Häggström, Thomas Metzinger
Organisation affiliée : STOA (Unité de la prospective scientifique)
Type de publication : Compilation d’articles d’opinions
Date de publication : Mars 2018
Lien vers le document original
Introduction (Philip Boucher)
Entre optimisme débridé ou peur paralysante, une position rationnelle unique sur l’avenir de l’IA, s’il devrait y en avoir une, serait certainement plus nuancée. Tant que nous n’en saurons pas davantage sur les incidences de l’IA et sur la capacité de l’humanité à y réagir, il est important de créer des lieux de discussion au sein desquels nous pouvons analyser ces questions, y réfléchir et en discuter et, si nécessaire, y apporter les réponses adéquates. Cette discussion doit rester ouverte à un large éventail de disciplines.
Les trois lois de l’intelligence artificielle : en finir avec les mythes largement répandus (Peter J. Bentley)
Deux types d’IA ont toujours coexisté: celle du monde réel et celle de la fiction. L’IA du monde réel est celle qui nous entoure: la reconnaissance vocale de Siri ou de l’Echo, les systèmes cachés de détection des fraudes de nos banques ou encore les systèmes de lecture des plaques minéralogiques utilisés par la police. Les technologies de l’IA sont déjà intégrées aux logiciels et aux machines qui nous entourent. Elles ne constituent toutefois que des formes de technologie astucieuse; elles sont l’équivalent informatique des rouages et ressorts des machines mécaniques. Tout comme un rouage ou un ressort ne se transforme pas comme par magie en un robot tueur, nos logiciels intelligents intégrés à leurs produits ne peuvent pas se transformer en une IA malveillante. L’IA du monde réel sauve des vies en déclenchant des mécanismes de sécurité (freinage automatique des voitures, voire même véhicules autonomes). L’IA du monde réel nous aide à optimiser les processus ou à prédire les pannes, à améliorer l’efficacité ou à réduire les déchets nocifs pour l’environnement.
L’autre type d’IA, y compris cette IA générale super-intelligente qui va tous nous exterminer, n’est que fiction. Les chercheurs travaillent en général sur le premier type d’IA.
Mythe 1 : une IA auto-modifiée se rendra super-intelligente
Nos recherches dans le domaine de la vie artificielle nous révèlent que l’intelligence n’existe que pour répondre à des besoins urgents. En l’absence du bon type de problèmes à résoudre, l’intelligence ne peut se faire jour ni progresser. Faute de nouveaux défis à résoudre en permanence, et sans récompense en cas de réussite, nos IA ne gagneront pas un point de QI supplémentaire. Un robot capable d’accomplir efficacement une tâche n’augmentera jamais ses capacités si nous ne l’obligeons pas à progresser.
La première loi de l’IA nous explique que l’intelligence artificielle est un objectif extrêmement difficile à atteindre, qui nécessite des efforts considérables et des conditions parfaites. L’IA n’ira jamais plus loin que le niveau d’intelligence que nous l’encourageons (ou la forçons) à acquérir, sous la contrainte.
Mythe 2 : moyennant des ressources suffisantes (neurones/ordinateurs/mémoire), une IA sera plus intelligente que les humains
Certains observateurs affirment que «plus est synonyme de mieux». Si un cerveau humain compte cent milliards de neurones, une IA comptant mille milliards de neurones simulés sera plus intelligente qu’un être humain. Si un cerveau humain est l’équivalent de tous les ordinateurs sur l’internet, une IA lâchée sur l’internet possèdera une intelligence humaine. En fait ce n’est pas la quantité qui compte, mais l’organisation de ces ressources, comme l’explique la deuxième loi de l’IA.
Dès lors, la création d’une intelligence toujours plus avancée, ou la capacité à résoudre des problèmes toujours plus variés, est un processus d’innovation permanent qui nécessite l’invention de nouvelles structures adaptées à chaque nouvelle difficulté. L’un des grands problèmes de la recherche en IA consiste à déterminer les structures ou les algorithmes qui permettent de résoudre chacun de ces problèmes. La recherche en est encore à ses premiers balbutiements dans ce domaine, c’est pourquoi les IA actuelles ne sont encore dotées que d’une intelligence extrêmement limitée.
La deuxième loi de l’IA nous explique que les ressources ne suffisent pas. Nous devons encore concevoir de nouveaux algorithmes et de nouvelles structures au sein des IA (et à l’appui de celles-ci) pour chaque nouveau problème qu’elles sont amenées à résoudre
Mythe 3: la vitesse des ordinateurs doublant tous les 18 mois, les IA vont utiliser cette puissance de calcul pour progresser de manière exponentielle
Certains observateurs affirment que la rapidité brute de calcul permettra de surmonter toutes les difficultés rencontrées en matière de création d’IA. Pour peu qu’elle utilise des ordinateurs suffisamment rapides, une IA parviendra à apprendre et à nous dépasser dans la réflexion. Malheureusement, ce point de vue ne tient pas compte de l’incidence d’un autre phénomène exponentiel qui freine fortement le développement des IA, à savoir les essais.
Tous les chercheurs en IA ne connaissent que très bien cette dure vérité: pour créer une IA, il est nécessaire de l’entraîner et de tester de manière poussée toutes ses capacités dans son environnement prévu à chaque étape de sa conception.
Cet énorme besoin de tester les IA a des implications d’une portée considérable. Il est impossible de concevoir de meilleures IA sans les tester à chaque étape. Google a procédé à des essais de ses véhicules autonomes pendant des années et continue de le faire (en juin 2016, Google avait réalisé au total 2 777 585 km d’essais de son parc de véhicules en mode autonome).
La troisième loi de l’IA nous apprend qu’à mesure que l’intelligence progresse, le temps nécessaire à la tester est susceptible d’augmenter de manière exponentielle. À terme, ces essais peuvent imposer des limites pratiques à l’intelligence artificielle réalisable et fiable. Tout comme il devient de plus en plus difficile d’accélérer à mesure que l’on approche de la vitesse de la lumière, il devient de plus en plus difficile d’améliorer l’intelligence à mesure que nous créons des cerveaux plus intelligents.
Conclusion
Claude Shannon fut l’un des plus grands pionniers de l’informatique et de l’IA. En 1961, il affirmait: “«Je suis convaincu que, d’ici dix ou quinze ans, nos laboratoires produiront quelque chose ressemblant de fort près aux robots de science fiction.» Il pensait qu’au milieu des années 1970, les machines marcheraient, parleraient et réfléchiraient de manière autonome. Néanmoins, quarante ans plus tard, c’est à peine si nous parvenons à faire marcher un robot, et, évidemment, aucun d’entre eux ne pense seul. Aujourd’hui, certaines enquêtes (rassemblant une diversité de points de vue) prédisent qu’il existe une «probabilité de 50 % que l’IA dépasse l’être humain dans tous les domaines d’ici à 45 ans». Tout cela, nous l’avons déjà entendu des centaines de fois. Et cette prévision s’avérera pourtant tout aussi erronée.
Montée en puissance de l’humanité : les raisons d’un optimisme conditionnel à l’égard de l’intelligence artificielle (Miles Brundage)
Bien que les risques liés au développement de l’IA aient suscité un grand intérêt ces derniers temps, il n’y a eu que peu de discussions systématiques sur les avantages que l’IA pourrait plus précisément nous apporter à long terme.
Motifs d’optimisme : accélération des tâches
La compétence évolutive de l’IA favorise l’exécution d’un grand nombre de tâches plus rapidement que ne le permettrait une autre approche, qu’il s’agisse de tâches accessibles aux êtres humains (moyennant suffisamment de temps et de ressources) ou de tâches que l’être humain est incapable de réaliser en raison de ses limites cognitives ou organisationnelles. La traduction automatique en est un excellent exemple: chaque amélioration des systèmes de traduction automatique, aussi petite soit-elle, peut être appliquée relativement rapidement à un large éventail de paires de langues et à des millions d’utilisateurs.
L’accélération des tâches propre à l’IA pourrait avoir des conséquences plus radicales si elle était appliquée à un éventail plus large de domaines, y compris dans des domaines nécessitant des niveaux élevés d’intelligence et de réflexion comme les sciences et l’ingénierie. Compte tenu de la vitesse des ordinateurs qui peut s’avérer nettement plus élevée que celle du cerveau humain (avec des milliards d’opérations par seconde pour une unité de calcul donnée, contre quelques centaines chez l’humain) ainsi que de la possibilité d’étendre les systèmes d’IA à un nombre élevé de matériels informatiques, l’IA générale pourrait donner lieu à de rapides percées dans les domaines scientifique et technique.
Motifs d’optimisme : amélioration de la coordination
Des systèmes d’IA plus sophistiqués, s’ils sont bien appliqués, pourraient permettre de résoudre certains des conflits sociaux les plus tenaces à l’heure actuelle au moyen d’une coordination améliorée. Nos outils de coordination sont toutefois limités, d’une part parce qu’il est difficile de surveiller le comportement d’êtres humains pour déceler les signes de violation d’un accord, et d’autre part parce qu’il peut s’avérer difficile d’établir la confiance entre les personnes et les groupes lorsque les intentions des parties sont illisibles. Chacun de ces obstacles à la coopération pourrait être atténué par l’application de l’IA dans le cadre de l’exécution des accords. J’aborde chacun d’entre eux tour à tour.
La surveillance au moyen de systèmes d’IA présente un avantage potentiel considérable: ces systèmes peuvent être utilisés afin de surveiller plus efficacement le respect des accords intra- et internationaux et, potentiellement, de mieux suivre la coopération dans des domaines tels que le contrôle des armements, les mesures de protection de l’environnement et la cybercriminalité. Une partie du problème est lié au respect des accords internationaux (même d’accords largement bénéfiques tels que ceux relatifs à la non-prolifération) et tient au fait que les activités en ligne et hors ligne, même si elles sont plus faciles à détecter qu’elles ne l’ont jamais été, font néanmoins l’objet d’une surveillance faillible qui laisse le champ libre à des activités illégales telles que la vente clandestine d’informations nucléaires.
Des systèmes d’IA plus sophistiqués, s’ils sont bien appliqués, pourraient permettre de résoudre certains des conflits sociaux les plus tenaces à l’heure actuelle au moyen d’une coordination améliorée
Deuxièmement, l’IA est capable de libérer les régimes de surveillance et, plus généralement, la gouvernance de certains aspects de partialité et de corruption propres à l’homme, et ce justement car elle peut éliminer le facteur humain de certains processus décisionnels. Ces mesures permettraient de négocier et de faire appliquer un plus large éventail d’accords, ce qui pourrait contribuer à éliminer de nombreuses formes de criminalité et à accroître le champ d’action potentiel d’institutions politiques efficaces.
Motifs d’optimisme : société des loisirs
Je ne prendrai pas position sur le temps qu’il faudra pour que la technologie permette d’automatiser tous les emplois humains, mais j’affirme uniquement que ce scénario est possible en principe et probable à l’avenir. Cette conclusion découle logiquement du fait que la cognition et le comportement humains sont des processus physiques qui pourront tôt ou tard être reproduits par d’autres systèmes physiques, à savoir les ordinateurs et (pour les emplois nécessitant une activité physique) les robots. Si ce niveau de capacité technique devait être atteint, il conviendrait de renégocier d’une façon ou d’une autre le contrat social, ce qui pourrait revêtir différentes formes. Un revenu minimal pourrait être versé à tous les membres de la société afin de garantir un niveau de vie de base. Les citoyens et les gouvernements pourraient aussi s’accorder sur la valeur du travail et décider de maintenir l’une ou l’autre forme d’emploi rémunéré (même superflu technologiquement parlant), par exemple en interdisant l’automatisation de certains emplois.
À quel point cette société des loisirs serait-elle meilleure que nos sociétés actuelles ou que les sociétés qui les ont précédées? Bien meilleure: il est difficile d’estimer le niveau de prospérité qu’une telle société pourrait atteindre. On peut toutefois au moins raisonnablement s’attendre à ce qu’elle soit au moins égale à toutes les sociétés créées jusqu’ici par l’homme étant donné l’absence de limites physiques claires à la capacité de générer ce niveau de vie une fois toutes les tâches automatisées.
Il convient d’évoquer enfin, eu égard à la création d’une société des loisirs éthique, le bien-être des systèmes d’IA eux-mêmes, pour autant que ce concept leur soit applicable. Il est possible d’éviter certains dilemmes éthiques par une conception réfléchie et responsable des systèmes: nous pourrions nous efforcer de concevoir par défaut les systèmes de façon à ce qu’ils soient incapables de ressentir de la souffrance, même s’ils sont conscients. Ces problèmes devront être résolus à long terme, mais une chose est claire: compte tenu de ce que nous savons aujourd’hui, une société des loisirs rendue possible par l’IA semble offrir la possibilité de parvenir de manière éthique à un niveau élevé de loisirs et de prospérité.
Conclusion
Cette nouvelle Renaissance pourrait échouer pour de nombreuses raisons. Nous pourrions nous quereller sur les gains relatifs que nous tirerions de l’IA et nous embourber dans des conflits internationaux en perdant de vue les gains absolus nettement plus importants et accessibles à tous, mais nous pourrions aussi mettre en place un système d’IA qui semble de prime abord traduire nos valeurs et qui, au final, entraîne une stagnation culturelle et affaiblisse l’humanité. Toutefois, comme dans le cas des difficultés techniques évoquées ci-dessus, je ne vois aucune raison de penser que ces défis politiques sont insurmontables.
Observations sur l’intelligence artificielle et l’optimisme rationnel (Olle Häggström)
Il existe différents types de risques. Le risque le plus étroitement lié aux avantages économiques estimés est l’incidence que peut avoir une automatisation fondée sur l’IA sur le marché du travail. En ce qui concerne les véhicules autonomes, l’intégralité d’un secteur du marché du travail comptant notamment des millions de chauffeurs de poids-lourds, de bus et de taxis risque de disparaître entièrement en 20 ans à peine. Toutes ces personnes trouveront-elles un emploi ailleurs ou bien se retrouveront-elles au chômage? D’autres secteurs du marché du travail risquent de subir le même sort. À long terme, le scénario extrême dans lequel les machines sont plus performantes que l’homme dans tous les emplois, avec pour résultat un taux de chômage de 100 %, n’est peut-être pas irréaliste.
Si cela semble modérément alarmant, imaginez les conséquences de l’évolution de l’IA pour les armements autonomes. Si une grande puissance militaire se lance dans la mise au point d’armes utilisant l’intelligence artificielle, une course mondiale aux armements est pratiquement inévitable et son issue est inéluctable: les armes autonomes deviendront les kalachnikovs de demain. Elles finiront tôt ou tard sur le marché noir et aux mains de terroristes, de dictateurs désireux de mieux contrôler leurs populations, de seigneurs de la guerre en quête d’épuration ethnique, etc.
Ces deux risques (risque d’inégalités économiques dues à la montée du chômage et risque d’une course aux armements dotés de l’IA) doivent être pris au sérieux, et il convient de déterminer la mesure de leur gravité et la manière de les atténuer.
Risque engendré par une superintelligence
Imaginons que les chercheurs atteignent un jour leur objectif de longue date, celui de créer une IA superintelligente, à savoir une machine qui dépasse clairement les humains dans tous les domaines de compétences que nous qualifions d’intelligence. À ce stade, nous ne pouvons plus espérer garder le contrôle. L’expérience de pensée connue sous le nom d’Armageddon du trombone peut faire office de mise en garde. Elle vise à mettre en lumière qu’aucune intention malveillante n’est nécessaire pour qu’une percée dans l’IA devienne dangereuse: nous n’avons pas besoin d’une histoire mettant en scène un savant fou qui cherche à détruire la planète pour se venger de l’humanité. Même des ambitions apparemment innocentes, comme maximiser la production de trombones, peuvent aboutir à des scénarios dangereux.
Il existe de nombreuses approches possibles de la création d’un logiciel intelligent. On observe actuellement un grand bond en avant de l’«apprentissage profond », qui consiste essentiellement en une renaissance et un développement plus approfondi d’anciennes techniques de réseaux neuronaux qui donnaient autrefois des résultats peu convaincants mais qui aujourd’hui, grâce à la vitesse des ordinateurs et à la disponibilité de jeux de données énormes pour entraîner les machines permettent de résoudre des problèmes complexes les uns à la suite des autres. Il s’agit d’un exemple de système de «boîte noire», selon lequel, les ingénieurs qui parviennent à créer une IA ne comprennent bien souvent pas son raisonnement.
Il est possible qu’aucune de ces approches n’aboutisse jamais à une IGA [Intelligence générale artificielle], mais il semble raisonnable d’envisager au moins la possibilité que l’une d’entre elles, ou qu’une combinaison d’approches, aboutisse finalement à une IGA. Il convient plutôt d’admettre avec prudence et réflexion qu’elle pourrait apparaître au cours des prochaines décennies, des prochains siècles, voire jamais.
Il semble fort probable que, dans une telle situation, nous perdrons le contrôle et que notre destin dépendra de ce que cette IA décidera de faire. Pour éviter d’arriver à une telle situation, il convient, entre autres, d’encadrer l’IA et de l’empêcher d’influencer le monde d’une autre manière qu’au moyen d’un canal de communication étroit soigneusement contrôlé par des administrateurs humains de la sécurité. Imaginons donc également que cette IA superintelligente est sortie de sa boîte de pandore et qu’elle est en mesure de circuler librement. Que va-t-elle donc décider? Du fait de ce mécanisme, il est peu probable qu’une IA superintelligence nous permette de manipuler son objectif ultime. Nous devons donc attribuer à l’IA les objectifs qui nous semblent préférables avant qu’elle n’atteigne la superintelligence. Tel est l’objectif du programme de recherche sur l’alignement de l’IA
Conclusion
Si nous nous y préparons avec le soin nécessaire, l’apparition d’une superintelligence pourrait être la meilleure chose qui ne soit jamais arrivée à l’humanité, mais elle s’accompagne également d’un risque élevé de catastrophe. Ce risque ainsi que les risques plus prosaïques liés à l’IA évoqués précédemment méritent notre attention. L’apocalypse provoquée par l’IA n’est pas une certitude, mais il s’agit d’une possibilité suffisamment plausible pour que nous nous efforcions de trouver comment l’éviter.
Vers une charte mondiale de l’intelligence artificielle (Thomas Metzinger)
De nombreux experts pensent que nous approchons d’un tournant de l’histoire au cours de la décennie à venir, et que la fenêtre temporelle permettant de définir l’éthique appliquée de l’IA va se refermer. Les institutions politiques doivent par conséquent définir et mettre en œuvre un ensemble minimal mais suffisant de règles éthiques et juridiques pour l’utilisation bénéfique et le développement futur de l’IA. Elles doivent également mettre sur pied un processus de discussion critique rationnel et fondé sur des données factuelles visant à mettre à jour, à améliorer et à réviser en permanence le premier ensemble de contraintes normatives.
Le problème du « nivellement par le bas »
Nous devons élaborer et mettre en œuvre pour la recherche en IA des normes de sécurité à l’échelle mondiale. Une charte mondiale de l’IA est nécessaire étant donné que ces normes ne pourront être efficaces que si elle s’accompagne l’engagement contraignant en faveur de certaines règles de tous les pays participants qui investissent dans les activités de recherche et développement concernées. Compte tenu du contexte actuel de compétitivité économique et militaire , la sécurité de la recherche en IA sera très probablement revue à la baisse pour accélérer les progrès et réduire les coûts, notamment par un transfert vers des pays appliquant des normes de sécurité moins strictes et n’offrant que peu de transparence politique.
L’Union [Européenne] devrait élaborer immédiatement une charte européenne de l’IA. Parallèlement, l’Union devrait lancer un processus politique menant à l’élaboration d’une charte mondiale de l’IA. L’Union devrait consacrer des ressources au renforcement systématique de la coopération et de la coordination internationales.
Prévention d’une course aux armement intelligents
Les citoyens de l’Union ont intérêt à ce qu’une course aux armements dotés de l’IA, par exemple entre la Chine et les États-Unis, soit empêchée à un stade précoce. Encore une fois, il est peut-être déjà trop tard, et l’influence de l’Europe est évidemment limitée, mais il convient d’interdire et de ne pas financer sur le territoire de l’Union les recherches et le développement d’armements autonomes offensifs. En outre, si l’humanité se lance dans une course aux armements à ce nouveau niveau technologique, le processus historique d’une course aux armements pourrait devenir lui-même autonome et résister aux interventions du monde politique.
L’Union devrait interdire toutes les recherches portant sur des armes autonomes offensives sur son territoire et chercher à conclure des accords internationaux. Pour les applications militaires purement défensives, l’Union devrait financer des recherches sur le degré maximal d’autonomie des systèmes intelligents qui semble acceptable d’un point de vue éthique et juridique. Sur le plan international, l’Union devrait lancer une initiative de grande ampleur visant à empêcher une course aux armements dotés d’IA en recourant à tous les moyens diplomatiques et politiques disponibles.
Un moratoire sur la phénoménologie synthétique
Il est important que tous les responsables politiques comprennent la différence entre intelligence artificielle et conscience artificielle. La création intentionnelle ou non d’une conscience artificielle est hautement problématique du point de vue éthique parce qu’elle pourrait engendrer une souffrance artificielle et une conscience de soi chez les systèmes intelligents autonomes. Un risque potentiel est d’augmenter considérablement la souffrance générale dans l’univers, par exemple par des copies en cascade ou par la reproduction rapide de systèmes conscients à grande échelle.
L’Union devrait interdire toute recherche présentant un risque ou ayant pour objectif direct de développer une phénoménologie synthétique sur son territoire, et chercher à conclure des accords internationaux. Compte tenu du degré actuel d’incertitude et de désaccord dans le domaine naissant de la conscience des machines, il est urgent de promouvoir, de financer et de coordonner des projets de recherche interdisciplinaires pertinents (dont la philosophie, la neuroscience et l’informatique). Les thèmes pertinents spécifiques sont notamment les modèles conceptuels, neurobiologiques et informatiques d’expérience consciente, de conscience de soi et de souffrance fondés sur des données factuelles.
Dangers pour la cohésion sociale
De nombreux experts pensent que le risque le plus immédiat et le mieux défini est celui d’un chômage de masse résultant de l’automatisation. La mise en œuvre de la technologie de l’IA par des parties prenantes financièrement puissantes pourrait donc entraîner un accroissement des inégalités de revenus et d’autres inégalités ainsi que des schémas dangereux de stratification sociale. L’IA pose néanmoins de nombreux autres risques pour la cohésion sociale, par exemple par des médias sociaux privés et autonomes visant à solliciter l’attention du public et à l’«emballer» pour une utilisation ultérieure par leurs clients, ou encore par la «création de toutes pièces» d’une volonté politique au moyen des stratégies de «suggestion» à grande échelle et des architectures de choix contrôlées par l’IA et opaques pour les citoyens dont elles contrôlent le comportement Ici aussi, il est très probable que la plupart des risques pour la cohésion sociale soient encore inconnus à l’heure actuelle, et il se peut que nous ne les découvrions que par hasard. La technologie d’IA constitue actuellement un bien privé. Les institutions politiques démocratiques ont le devoir de transformer une grande partie de cette technologie en un bien commun bien protégé, qui appartienne à l’humanité dans son ensemble.
Au sein de l’Union, les gains de productivité découlant de l’IA doivent être distribués de manière socialement équitable. L’Union devrait étudier soigneusement la possibilité d’un revenu de base inconditionnel ou d’un impôt négatif sur le revenu sur son territoire. Il convient de mettre sur pied des programmes de recherche sur la possibilité de lancer le moment voulu des initiatives de reconversion aux compétences créatives et sociales des couches de la population qui se voient menacées.
Éthique de la recherche
Toute recherche devrait inclure des mesures d’identification et de réduction des risques rationnelles et fondées sur des données factuelles (y compris pour les risques à prévoir dans un avenir lointain), et les scientifiques devraient se montrer vigilants et chercher à anticiper, en particulier lorsqu’ils sont les premiers à prendre conscience de nouveaux risques grâce à leurs travaux. La communication avec le public, si nécessaire, doit se faire spontanément. Il s’agit de prendre le contrôle et d’agir avant l’apparition d’une situation future plutôt que de réagir aux critiques de personnes non spécialisées par un ensemble de règles formelles préexistantes.
Toute charte mondiale de l’IA, ou son précurseur européen, devrait toujours être accompagnée d’un code de déontologie guidant les chercheurs dans leurs travaux pratiques au quotidien. Il convient de former une nouvelle génération d’éthiciens spécialisés dans les problèmes liés à l’IA, aux systèmes autonomes et aux domaines connexes.
La métagouvernance et l’écart de vitesse
Il existe un «problème de rythme»: les structures de gouvernance existantes sont tout simplement incapables de réagir assez vite à ce problème. Le contrôle politique est déjà largement à la traîne de l’évolution technologique. C’est exactement ce que désigne le terme de «métagouvernance»: une gouvernance de la gouvernance face aux risques et aux avantages potentiels d’une croissance exponentielle dans des secteurs spécifiques de développement technologique.
L’Union devrait investir dans la recherche et dans le développement de nouvelles structures de gouvernance permettant aux institutions politiques établies de réagir aux problèmes et appliquer concrètement de nouvelles réglementations bien plus rapidement qu’aujourd’hui.
Les Wathinotes sont soit des résumés de publications sélectionnées par WATHI, conformes aux résumés originaux, soit des versions modifiées des résumés originaux, soit des extraits choisis par WATHI compte tenu de leur pertinence par rapport au thème du Débat. Lorsque les publications et leurs résumés ne sont disponibles qu’en français ou en anglais, WATHI se charge de la traduction des extraits choisis dans l’autre langue. Toutes les Wathinotes renvoient aux publications originales et intégrales qui ne sont pas hébergées par le site de WATHI, et sont destinées à promouvoir la lecture de ces documents, fruit du travail de recherche d’universitaires et d’experts.
The Wathinotes are either original abstracts of publications selected by WATHI, modified original summaries or publication quotes selected for their relevance for the theme of the Debate. When publications and abstracts are only available either in French or in English, the translation is done by WATHI. All the Wathinotes link to the original and integral publications that are not hosted on the WATHI website. WATHI participates to the promotion of these documents that have been written by university professors and experts.