Terminale spécialité - Thème 6 - L’enjeu de la connaissance

pdf ppt 

Sommaire

INTRODUCTION
A. LA NOTION DE « SOCIÉTÉ DE LA CONNAISSANCE » (PETER DRUCKER, 1969), ÉMERGENCE, PORTÉE ET DÉBATS
1. Des précurseurs
2. Peter Drucker et la « société de la connaissance » (1969)
3. Un concept en débat
B. LA NOTION DE COMMUNAUTÉ SAVANTE, COMMUNAUTÉ SCIENTIFIQUE EN HISTOIRE DES SCIENCES
1. Le temps des académies et des sociétés savantes
2. La naissance de la communauté scientifique moderne
C. LES ACTEURS ET LES MODALITÉS DE LA CIRCULATION DE LA CONNAISSANCE
1. Les revues scientifiques, reflet d’une géopolitique de la connaissance
2. De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public
3. La révolution numérique
CONCLUSION
I. PRODUIRE ET DIFFUSER DES CONNAISSANCES (AXE 1)
A. DONNER ACCÈS À LA CONNAISSANCE : GRANDES ÉTAPES DE L’ALPHABÉTISATION DES FEMMES DU XVIE SIÈCLE À NOS JOURS DANS LE MONDE
Introduction
1. D’un enjeu national ou religieux…
2. … à un enjeu international et à un combat pour un droit fondamental
Conclusion
B. PRODUIRE DE LA CONNAISSANCE SCIENTIFIQUE : RECHERCHE ET ÉCHANGES DES HOMMES ET DES FEMMES DE SCIENCE SUR LA QUESTION DE LA RADIOACTIVITÉ DE 1896 AUX ANNÉES 1950
Introduction
1. Découvrir la radioactivité et la partager pour le progrès de l’humanité…
2. … mais la mettre aussi au service de la puissance des États et douter
Conclusion
II. LA CONNAISSANCE, ENJEU POLITIQUE ET GÉOPOLITIQUE (AXE 2)
A. LE RENSEIGNEMENT AU SERVICE DES ÉTATS : LES SERVICES SECRETS SOVIÉTIQUES ET AMÉRICAINS DURANT LA GUERRE FROIDE
1. Deux organisations nées au début de la Guerre froide
2. Renseignement et sciences
3. Recruter pour savoir ou pour agir
B. CIRCULATION ET FORMATION DES ÉTUDIANTS, TRANSFERTS DE TECHNOLOGIE ET PUISSANCE ÉCONOMIQUE : L’EXEMPLE DE L’INDE
1. Les ingénieurs indiens, une tradition ancienne
2. Du brain drain ou brain gain
3. Transferts de technologie et puissance économique
III. LE CYBERESPACE : CONFLICTUALITÉ ET COOPÉRATION ENTRE LES ACTEURS (OBJET DE TRAVAIL CONCLUSIF)
INTRODUCTION
A. LE CYBERESPACE, ENTRE RÉSEAUX ET TERRITOIRES (INFRASTRUCTURES, ACTEURS, LIBERTÉ OU CONTRÔLE DES DONNÉES…)
1. Définitions, enjeux
2. Stratégies d’acteurs : entre conflictualités et coopérations
B. CYBERDÉFENSE, ENTRE COOPÉRATION EUROPÉENNE ET SOUVERAINETÉ NATIONALE : LE CAS FRANÇAIS
1. Enjeux
2. Perspectives
CONCLUSION

tspe 6

Manuel p.378-443

Introduction

Introduction

On entend généralement par connaissance l’ensemble du savoir, tous champs confondus. Mais d’un point de vue géopolitique et géoéconomique, la connaissance stratégique est avant tout scientifique et technique[1].

La connaissance se construit à l’échelle nationale et internationale et les États sont impliqués dans sa production et sa diffusion. Les enjeux de la connaissance sont multiples :

  • géopolitiques (affirmation de la puissance des États, source de compétition et de tensions) ;
  • sociaux et économiques (levier de développement) ;
  • culturels et symboliques.

Nous nous intéresserons particulièrement aux enjeux géopolitiques et sociaux en donnant une dimension historique à notre réflexion.

A. La notion de « société de la connaissance » (Peter Drucker, 1969), émergence, portée et débats

Exercice sur corpus de textes.

1.     Des précurseurs

Les mutations des rapports entre société et savoir notamment dans le contexte de la tertiarisation de l’économie sont analysées dès après la Seconde Guerre mondiale par des intellectuels étatsuniens, qui évoquent la société de l’information ou de la communication[2] :

  • En 1945, Vannevar Bush (1890-1974), ingénieur et coordinateur du projet Manhattan, plaide auprès du président Roosevelt pour une production et une circulation accrues de la connaissance ; constatant les limites de la mémoire individuelle, il développe l'idée que la recherche scientifique doit, au lendemain de la Seconde Guerre mondiale, se consacrer à améliorer les moyens matériels permettant l'accès efficace à toute la connaissance humaine de façon à pouvoir l’étendre[3].
  • En 1948, le mathématicien américain Norbert Wiener (considéré comme l’inventeur de la cybernétique[4]), étudie les mécanismes d’information de systèmes complexes[5], et utilise l’expression de « société de la communication ».
  • Daniel Bell, sociologue américain, observe la tertiarisation de l’activité économique et réfléchit à la croissance de l’importance de la connaissance et de l’information (éléments immatériels) dans l’organisation de la société (Vers la société post-industrielle, 1973).
  • Dans les années 1960-1970, Les économistes libéraux, en particulier ceux de l’école de Chicago, identifient la connaissance comme un type de bien particulier. Pour Kenneth Arrow, prix Nobel d’économie en 1972, il s’agit d’un bien :
    • difficilement contrôlable et appropriable,
    • non rival dans l’usage (puisque l’usage que l’on en fait ne la détruit pas),
    • et cumulatif (la connaissance engendre d’autres connaissances).

Ces économistes établissent le concept d’économie de la connaissance -doc.2 p.380. Économie de la connaissance et société de l’information, qui désigne la capacité des États à produire et à diffuser des connaissances.

2.     Peter Drucker et la « société de la connaissance » (1969)

Peter Drucker (1909-2005) -Biographie p.380 s’inscrit dans la lignée des économistes libéraux. Consultant en management[6], il est lui aussi un libéral. Il publie The Age of Discontinuity en 1969, traduit en français en 1970 sous le titre La grande mutation.

Il s’appuie peu sur des références théoriques : sa démarche est essentiellement empirique. Dans la quatrième partie de son livre, il aborde ce qu’il nomme l’ère du savoir où il affirme que la connaissance est devenue le facteur de production décisif. Il en résulte selon lui que l’accès au savoir est une nécessité pour maintenir la productivité des travailleurs et la compétitivité, et que tout doit être repensé pour favoriser la circulation des connaissances : l’État, les hiérarchies sociales, le rôle des organisations. Cela induit par exemple une rupture avec le Taylorisme et le Fordisme qui impliquaient, par les tâches répétitives qu’ils imposaient, que les ouvriers « laissent leur intelligence au vestiaire ». Désormais, les travailleurs se voient assigner des objectifs à atteindre et sont incités à innover : c’est la naissance du management moderne.

L’école a une place centrale dans sa réflexion ainsi que les méthodes d’enseignement et la formation continue. Pour lui, il est nécessaire d’individualiser les apprentissages, de développer l’autonomie et l’évaluation des performances de l’école, pour former des individus plus productifs, capables d’apprendre tout au long de leur vie, et de coopérer pour favoriser la circulation de l’information, condition nécessaire à l’innovation… Il passe de l’idée d’une économie de la connaissance à celle d’une société de la connaissance -doc.2 p.380. Économie de la connaissance et société de l’information.

3.     Un concept en débat

Peter Drucker s’inscrit dans un courant néolibéral proche de l’école de Chicago, qui estime que l’État ne doit pas réguler l’économie. Pour lui la connaissance valable est celle qui a une utilité économique, selon la logique du marché. Joseph Stiglitz et Bruce Greenwald dans La nouvelle société de la connaissance (2017) s’éloignent de cette conception et plaident pour une régulation de l’État pour réduire les inégalités en favorisant une « société de l’apprentissage » comme fondement de la croissance et du développement. Pour eux, l’enjeu n’est pas seulement économique mais démocratique.

En effet, la société de la connaissance peut engendrer des inégalités, dans des sociétés où triomphent les détenteurs du savoir scientifique maitrisant les outils de communication permettant d’échanger et d’enrichir leur propre capital. Intégrée aux orientations de l’UE depuis 2000, comme en témoigne l’adoption de la « stratégie de Lisbonne »[7], et poursuivie par la stratégie « Europe 2020 », la « société de la connaissance » présente encore de réelles limites, à l’échelle des États membres de l’UE comme à l’échelle mondiale -doc. 4 p.381. Les limites de la société de la connaissance + doc.5 p.381. La fracture numérique.

En outre, le sociologue Philippe Breton[8] critique la « double réduction ». Pour lui,

  • le processus de connaissance ne peut se réduire à un traitement de l’information,
  • et la connaissance scientifique et technique n’est pas la seule forme de connaissance légitime.

B.    La notion de communauté savante, communauté scientifique en histoire des sciences

Les historiens des sciences déconstruisent le mythe de la révolution scientifique forgé dans les années 1930 qui décrivait l’histoire européenne des sciences à partir de la seconde moitié du XVIe siècle avec l’idée d’un basculement opéré par quelques « grands hommes » (Copernic, Newton) de la tradition vers l’innovation[9] -doc.1 p.382. L’histoire des sciences, de l’homme à la communauté. Il a été montré récemment qu’il y a déjà une culture de l’innovation au Moyen-Âge ainsi qu’une vraie circulation des savoirs[10] ; de même, il faut souligner la dimension collective de la production et de la diffusion des savoirs. Les communautés savantes de l’époque moderne débattent des grandes questions du temps dans des domaines aussi variés que l'astronomie, la physique, la botanique, la chimie, et forment déjà des réseaux dans lesquels peuvent également s’exprimer des solidarités -doc.3 p.383. Une communauté savante organisée en réseau.

1.     Le temps des académies et des sociétés savantes

À partir du XVIIe siècle alors que se développent des sociétés de cour, le mécénat princier soutient les activités scientifiques et expérimentales dans le cadre des Académies. À Paris et Londres, la création de l’Académie des sciences (par Colbert en 1666) et de la Royal Society (1662) centralise les nombreux cercles préexistants et donne une forme juridique et une protection royale. Le mouvement s’accélère au cours du XVIIIe siècle. Ces académies sont des lieux de recherche scientifique mais aussi d’échanges et de communication (ordre du jour, séances, concours, discussions) et ont des réseaux de correspondants. Elles procurent à leurs membres un statut social, et une rémunération si elles sont contrôlées par un État. La science s’institutionnalise, ce qui favorise le développement des communautés savantes.

Les principales capitales européennes (Paris, Londres, Berlin, St Pétersbourg, Stockholm) puis d’autres villes (Göttingen, Turin, Barcelone, Padoue, Édimbourg, Dublin) au cours du XVIIIe siècle se dotent d’académies, qui s’enrichissent mutuellement tout en se livrant une féroce compétition. L’espace savant européen est unifié par ces lieux mais aussi par la généralisation des concours. Des lieux leurs sont dédiées : à Madrid durant la seconde moitié du XVIIIe la création du jardin botanique royal de la Pharmacie royale et de l’Observatoire royal (1790) par l’architecte Juan de Villanueva transforme le paysage urbain. Doc.4 p.383. Les académies au XVIIIe siècle, une géographie-

2.     La naissance de la communauté scientifique moderne

Au cours du XIXe siècle se met en place un double mouvement de nationalisation et d’internationalisation des sciences.

Ainsi, les universités du monde occidental sont profondément réformées selon un modèle national au début du siècle. Le modèle allemand d’Alexander von Humboldt avec l’université de Berlin (1810) regroupe toutes les disciplines. En France Napoléon réorganise l’enseignement entre 1806 et 1811 : au sommet se trouvent les nouvelles grandes écoles d'ingénieurs comme l'École normale supérieure, refondée en 1808, ou comme l'École polytechnique, dont l'enseignement scientifique général est articulé avec des écoles d'application (l'École des Mines par exemple). L'Université impériale est structurée en facultés des sciences et des lettres et en écoles de droit, de médecine et de pharmacie. Après 1815, l’université impériale est réformée mais elle n’est pas le centre de la recherche contrairement au modèle germanique : le Collège de France -Repère 2 p.386, l’Observatoire ou le Museum d’histoire naturelle sont alors les lieux de recherche. Sous la IIIe République, de nouvelles réformes sont entreprises pour faire converger plus efficacement enseignement et recherche, dans l'optique d'un rattrapage du voisin et rival allemand.

En contrepoint de cette nationalisation, les historiens insistent aujourd'hui sur l’affirmation d’une dimension transnationale de la circulation scientifique fin XIXe–début XXe siècle. Les étudiants circulent davantage[11]. La circulation internationale des savoirs se fait à partir de la fin du XIXe siècle grâce à l’invention des congrès scientifiques. La première rencontre internationale de physique a lieu à Paris en1900. En 1911 se tient à Bruxelles le premier conseil Solvay organisé grâce au mécénat d’Ernest Solvay, chimiste et industriel belge réunissant les plus grands physiciens (Max Planck, Marie Curie, Henri Poincaré, Albert Einstein qui permet des avancées en physique quantique.

La notion de communauté scientifique s’impose. Cette communauté scientifique repose aujourd’hui sur des valeurs communes : l’universalisme, le travail collectif, le désintéressement et l’indépendance vis-à-vis des tutelles (États, FTN). La période la plus récente est marquée par une spécialisation disciplinaire croissante : les anciens savants « touche-à-tout » sont devenus des chercheurs spécialisés -Cf. le GIEC (Groupe d'Experts Intergouvernemental sur l'Évolution du Climat), fondé en 1988 par l’ONU -doc.5 p.393. Une communauté scientifique aujourd’hui.

C.    Les acteurs et les modalités de la circulation de la connaissance

La circulation de la connaissance est prise en charge par des acteurs variés : États, universités, centres de recherche et institutions soutenus par des financements publics ou privés, et même la « société civile » y contribuent.

1.     Les revues scientifiques, reflet d’une géopolitique de la connaissance

Des revues savantes, publiées par des scientifiques[12], existent depuis le XVIIe siècle ; elles deviennent de plus en plus nombreuses au XIXe, et leur nombre explose littéralement après la Seconde Guerre mondiale[13]. La géographie que dessinent les principaux pays émetteurs de ces publications reflète la hiérarchie des puissances scientifiques et les rapports de force qui l’animent.

Après un demi-siècle de règne états-unien, la Chine, devenue au XXIe siècle une superpuissance des technosciences, pointe en 2018, la Chine au 2ème rang mondial des publications, juste derrière les États-Unis[14].

2.     De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public

Aux XVIIe et XVIIIe siècles déjà, les élites sociales se passionnent pour les sciences, à travers les cabinets de curiosité et les démonstrations spectaculaires, et cet intérêt se diffuse lentement vers les autres catégories de la société. Au XIXe siècle, cet engouement accélère sa diffusion, à travers les canaux les plus divers. La science-fiction (de Marie Shelley[15] à Jules Verne) emporte un grand succès, et la révolution de la presse permet une plus grande diffusion des sciences.

C’est au XIXe siècle que la science devient une valeur morale, ce qui implique de la sortir des seuls cercles scientifiques, l’idée étant que les sciences sont accessibles à tous par l’effort. En France, dans une optique républicaine, François Arago[16] veut faire de la science un bien commun de la nation tout entière. Dans ces conditions, l’enseignement et sa démocratisation deviennent un enjeu majeur dès les écoles élémentaires. Parallèlement, hors institutions scolaires et universitaires, des musées des sciences sont créés, des planétariums, etc.

Le terme de « vulgarisation » apparait au début du XXe siècle, supplantant celui de « science populaire ». La vulgarisation peut être définie comme une forme de diffusion pédagogique des connaissances qui cherche à les mettre à la portée d'un public non expert, avec l’émergence d’une culture de masse et dans un but « d’élévation générale du niveau »

Les musées, planétariums, etc., continuent d’apporter leur contribution, en se modernisant. Par exemple, la France a développé des centres de culture scientifique, technique et industrielle (CCSTI)[17]. Mais les supports par excellence des entreprises de vulgarisation sont les médias de masse, qui ont par opposition aux revues scientifiques vocation à s’adresser aux publics non spécialisés. Ainsi, aux revues de vulgarisation (Cf. Sciences et Vie, qui paraît en France dès 1913), sont venues s’ajouter les films documentaires et les émissions de télévision (Cf. L’odyssée sous-marine de l’équipe Cousteau, émission « culte » des années 1970[18], et plus proche de nous, les épisodes de C’est pas sorcier).

3.     La révolution numérique

L’essor des nouvelles technologies de l'information et de la communication (NTIC) et le déploiement d’Internet ont permis de démultiplier cette offre de manière exponentielle, avec des ressources qui nous sont familières comme les nombreuses chaînes de vulgarisation YouTube ou l’Encyclopédie collaborative en ligne Wikipédia[19] -doc.1 p.384. Wikipédia, une nouvelle modalité de circulation de la connaissance.

L'essor spectaculaire des nouvelles technologies bouleverse donc les modalités de la circulation de la connaissance, à tel point que l’on a pu parler de « révolution numérique »[20]. Le caractère spectaculaire de ce processus exerce sur nos sociétés un effet de sidération. Pour autant il nous faut être conscient des tensions qui accompagnent le déploiement de cette société de la connaissance, particulièrement vives par exemple quand l’idéalisme des fondateurs (comme Tim Berners Lee) défenseurs de « l’esprit d’Internet » se heurte aux logiques capitalistes (comme Aaron Swartz), ou quand l’utilisation des données personnelles des usagers alimentent les craintes d’un big data intrusif ou de l’instauration d’une société sous surveillance[21]. À en croire un des principaux concepteurs d’Internet, il ne reste plus rien de son utopie initiale[22].

Conclusion

Repères p.386-387- Dans ces conditions, nous donnerons à ce thème a un double objectif : mettre en avant les conditions nationales et internationales de la construction de la connaissance, en particulier de la connaissance scientifique, et expliquer la manière dont les États favorisent ou contrôlent, entre coopérations et conflits, la production ou la diffusion de celle-ci :

  • Le premier axe souligne l’importance de l’alphabétisation des sociétés pour accroître le nombre de personnes susceptibles de produire, de recevoir et de diffuser de la connaissance, et examine le fonctionnement d’une communauté savante à partir de l’exemple des recherches sur la radioactivité au XXe siècle.
  • Le second axe montre comment des États se sont saisis de l’enjeu de la connaissance dans leurs affrontements, comme lors de la guerre froide ou dans leur souci de favoriser leur développement économique, restreignant ou favorisant la circulation des connaissances scientifiques et technologiques.

I. Produire et diffuser des connaissances (Axe 1)

Manuel p.388-407. Chapitre 16. Produire et diffuser des connaissances

Dans quelle mesure la production et la diffusion des connaissances constituent-elles un enjeu majeur pour les États et les sociétés ?

A.    Donner accès à la connaissance : grandes étapes de l’alphabétisation des femmes du XVIe siècle à nos jours dans le monde

Jalon p.396-397

Introduction

Document 1 p.396. L’enseignement de la lecture aux filles : la vision des artistes à l’époque moderne. Du XVème siècle où Gerson, grand chancelier de l’université de Paris, déclare que « tout enseignement pour les femmes doit être considéré comme suspect » au 10 décembre 1911 où Marie Curie reçoit le prix Nobel de Chimie pour l’isolement du radium après avoir reçu le prix de Nobel de physique en 1903, avec son mari Pierre et Henri Becquerel, ce sont des siècles de lutte pour l’éducation des filles. Combat qui continue aujourd’hui au niveau mondial alors qu’il a été reconnu comme un droit humain fondamental et inscrit dans la Déclaration universelle des Droits de l’Homme de 1948 et rappelé dans le plan « Éducation 2030 » de l’ONU.

Au cours de l’histoire, ce sont des grandes étapes qui ont jalonné, notamment en France, l’accès des femmes à l’éducation :

  • une lente alphabétisation à l’époque moderne,
  • un tournant au XIXème siècle notamment en France avec les lois scolaires de Jules Ferry,

Aujourd’hui, ce combat continue partout dans le monde, et notamment dans certains pays, en raison d’un développement économique entravé ou de freins culturels et religieux.

Quelles sont les grandes étapes de l’alphabétisation des femmes au XVIème siècle à nos jours dans le monde ? Et quels en sont les enjeux et les défis hier et aujourd’hui ?

1.     D’un enjeu national ou religieux…

a.       Du choix d’une élite sous le contrôle de la religion…

L’humanisme, une première prise de conscience

L’éducation des filles a occupé les intellectuels et en particulier les humanistes du XVIème siècle. Dès 1523, Jean Louis Vivès[23] affirme dans son livre « L’instruction de la femme chrétienne » qu’une instruction est nécessaire aux jeunes filles, aux épouses et aux veuves. Mais cet enseignement est un enseignement spécifique axé sur le travail domestique et surtout sans latin (permettant l’accès à la connaissance). Seul Rabelais va jusqu’à mêler hommes et femmes également libres et instruits en parfaite harmonie à l’abbaye de Thélème.

La Réforme protestante : une étape majeure

Mais l’étape principale du XVIème siècle est le moment de la Réforme où l’éducation et l’alphabétisation des filles est présentée comme une nécessité. Doc.2 p.397. L’alphabétisation des filles dans la Réforme protestante- Luther souhaite l’ouverture d’écoles populaires pour les filles comme les garçons afin que tous apprennent à lire et accèdent directement à l’Écriture, traduite en langue vulgaire et au cœur de la Réforme. Il s’agit de poser les bases du droit au savoir pour tous, filles comprises.

La tâche de rénover le système scolaire dans l’Empire incombe à Philippe Melanchthon[24] et mêle à la fois humanisme et Réforme. Dans les États passés à la Réforme, la responsabilité scolaire est confiée aux autorités politiques et dès 1530, une école de filles est créée à Wittenberg. De même, à Genève, filles et garçons ont accès à un enseignement élémentaire public et gratuit. Le premier « gymnase » ouvre à Strasbourg en 1538.

L’enseignement de la lecture et de l’écriture descend des couches instruites aux groupes sociaux variés jusqu’à la paysannerie. Cette pratique de la lecture et de l’écriture donne aux réformés une avance culturelle qui perdure d’autant que l’enseignement se fait en français en toutes régions.

La prise de conscience de l’Église catholique

Le Concile de Trente (1545-1563) marque la riposte catholique contre les protestants[25], et la contre-réforme soutient un renforcement de l’alphabétisation des fidèles. Cette prise de conscience s’accompagne à la charnière des XVI et XVIIème d’initiatives concernant spécifiquement l’enseignement féminin parce que les filles apparaissent comme la « cible idéale » pour atteindre cet idéal. Les congrégations s’y consacrent en s’appuyant sur l’engagement de femmes laïques ou religieuses, comme :

  • Jeanne de Lestonnac[26], nièce de Montaigne, vigneronne, mère de 5 enfants et veuve qui fonde à Bordeaux en 1607 la Compagnie de Marie Notre Dame ;
  • la baronne Jeanne de Chantal[27] (grand-mère de la marquise de Sévigné) aux côté de l’évêque François de sales fonde à Annecy la Visitation en 1610.

Dans ces établissements, l’ambition pédagogique est beaucoup plus limitée que celle des hommes. Le passage à l’école doit être bref et l’enseignement religieux prioritaire, avec des rudiments de lecture (pas forcément d’écriture et de calcul). Les travaux d’aiguilles sont enseignés afin de leur permettre aux filles du peuple de « gagner honnêtement » leur vie et aux filles plus aisées de les détourner de l’oisiveté.

b.      …à la rédaction des plans d’éducation à destination des filles au XVIIème...

En France au XVIIème, on se moque comme Molière de la femme savante comme dans les « Précieuses ridicules » (1659) puis ses « Femmes savantes » (1672) mais dans le même temps on réfléchit à une meilleure formation des filles.

  • L’Abbé Claude Fleury rédige en 1685 « Traité du choix et de la méthode des études » : les filles apprennent à « penser de suite et à raisonner solidement » : instruction religieuse, logique simplifiée, arithmétique, jurisprudence, pharmacopée de base. Fleury veut y introduire « un peu plus de raison et de réflexion ». Rien d’autre car selon lui des femmes plus savantes sombreraient dans la vanité.
  • Fénelon[28] publie « De l’éducation des filles » en 1687. Cet ouvrage est destiné au duc de Beauvillier dont il est le directeur spirituel et à la duchesse, parents de 9 filles[29] Il propose un plan d’éducation tenant compte de l’infériorité et de la faiblesse du deuxième sexe ; il considère que « plus elles sont faibles, plus elles sont à fortifier », « la mauvaise éducation des femmes fait plus de mal que celle des hommes, puisque les désordres des hommes viennent souvent de la mauvaise éducation qu’ils ont reçue de leurs mères ». Il préconise donc un enseignement moral et religieux, de l’économie domestique et quelques savoirs profanes rudimentaires : grammaire, arithmétique, histoire, latin, musique, peinture. C’est son ouvrage qui inspire à Mme de Maintenon la création de la Maison royale de Saint-Louis le 18 juin 1686[30]. L’école tient une place particulière, car il s’agit d’un pensionnat et non d’un couvent, a fortiori de création royale. Son fonctionnement implique l’entretien d’une centaine de pensionnaires issues de la noblesse désargentée.

Le XVIIIème siècle, celui des Lumières (et des salons où brilleront des femmes comme Mme Geoffrin, Mme du Deffand, Julie de l’Espinasse ou Mme Roland) voit l’éducation des filles diviser les philosophes : par exemple, Diderot affirme que la subordination de la femme à l’homme est une tyrannie, tandis que Rousseau affirme au contraire que la femme ne peut prétendre à l’égalité, surtout en matière d’éducation[31].

Depuis la Renaissance, l’éducation et l’alphabétisation des femmes ont progressé et vu l’ouverture de nombreuses écoles où souvent seul un enseignement rudimentaire et axé sur la religion est transmis, surtout en milieu urbain. Ainsi, à la veille de la Révolution, 44% des femmes (contre 71% des hommes) signent leur acte de mariage dans la France du Nord contre 12% (22%) dans le Sud du pays relevant la fragilité de cette éducation et les inégalités existantes.

c.       … à une démocratisation accompagnée par l’État au XIXème siècle

Au début du XIXème siècle : les premières réalisations :

Au XIXème siècle, l’éducation des filles devient un enjeu politique majeur notamment en France où les républicains en font un combat à la fin du siècle.

Certains pays commencent à se doter de systèmes scolaires universels : ainsi, aux États-Unis en 1800, l’école est financée par l’impôt et en 1834, la Pennsylvanie ouvre une école gratuite pour tous (garçons et filles). En France, l’État prend conscience de la nécessité de créer un système éducatif de qualité afin de produire des élites capables de servir ses ambitions. Ainsi, Napoléon Ier crée le lycée, et s’intéresse aussi à l’éducation des filles : soucieux de combler un vide en matière d’éducation féminine et convaincu du rôle que les femmes jouent dans la société, il crée les maisons d’éducation de la Légion d’honneur en 1805. Il définit lui-même le programme éducatif de ces futurs établissements, voulant assurer aux filles et descendantes des décorés « une existence digne et indépendante ». C’est à partir de cette lettre de mission que la première maison d’éducation ouvre ses portes au château d’Ecouen en 1807, puis une deuxième dans l’ancienne abbaye de Saint-Denis[32].

L’idée d’une éducation ouverte aux garçons et aux filles de toutes conditions sociales fait son chemin sous Napoléon III : ainsi, la création d’écoles de filles est imposée aux communes de plus de 800 habitants en 1850 (loi Falloux), de plus de 500 habitants en 1867 (loi Duruy).

On y prévoit l’apprentissage de la lecture, de l’écriture et du calcul, mais avec des programmes moins ambitieux que ceux des garçons, et des enseignements destinés à préparer leur avenir de mères et d’épouses. Néanmoins, le taux d’alphabétisation des femmes rejoint alors presque celui des hommes. Julie-Victoire Daubié, la première bachelière de France (1861) et la première licenciée ès lettres en octobre 1871 (alors que les cours à la Sorbonne ne sont pas ouverts aux femmes), montre la voie[33]

L’école de Ferry et la IIIème République : vers l’école de l’égalité

Doc.3 p.397. La IIIème République et les filles. Mais le combat des républicains, au pouvoir à partir de 1870, s’articule autour de la création d’un système éducatif véritablement universel et surtout détaché du religieux.

En 1882, la loi Ferry reconnaît l’égalité des sexes devant l’instruction. La grande amélioration apportée par la loi concerne la scolarisation des filles et des enfants des campagnes, que leurs parents sont désormais obligés d’envoyer à l’école primaire, au lieu de les faire participer aux tâches ménagères ou aux travaux des champs. L’obligation scolaire ne fait cependant qu’entériner un mouvement de scolarisation de masse déjà largement amorcé -doc.4 p.397. L’évolution du taux d’alphabétisation en France.

Pour bien des républicains, le développement de l’instruction constitue une très importante réforme sociale qui permet aux individus, garçons comme filles, de développer librement leurs facultés et de s’élever dans la société, mais aussi une réforme politique majeure qui permet l’enracinement de la République et renforce la cohésion nationale, puisque l’ensemble des enfants recevra la même éducation[34]. Même si les traits d’un enseignement spécifiquement féminin persistent (latin et sciences continuent d’être réservés aux garçons aux lycées), la bataille de l’alphabétisation des femmes est gagnée en France.

L’œuvre est poursuivie par la loi Goblet (1886), qui laïcise le recrutement des enseignants confiant à un personnel exclusivement laïque l'enseignement dans les écoles publiques, en remplaçant les instituteurs religieux des congrégations enseignantes. Elle redéfinit aussi l’organisation de l’enseignement primaire… assignant les institutrices aux maternelles et écoles de filles, et les instituteurs aux écoles de garçons.

Au-delà du seul cas français, les sociétés occidentales et en particulier leurs États accompagnent cette évolution en s’emparant de l’éducation des garçons comme des filles et en 1891 c’est par exemple le Royaume-Uni qui met en place un enseignement primaire gratuit. Cependant pour les femmes c’est encore un long chemin pour que les filles puissent obtenir une réelle égalité avec les garçons dans l’accès aux études supérieures. En France par exemple, il faudra attendre la loi Bérard du 25 mars 1924 pour voir s’ouvrir le bac aux jeunes femmes, avec contenus et horaires identiques, ce qui ouvre plus largement les portes de l’Université aux jeunes filles.

2.     … à un enjeu international et à un combat pour un droit fondamental

Carte 7 p.399. Alphabétisation des femmes et développement + Chiffres p.394

a.       Des progrès mais une situation qui reste alarmante…

Le monde comptait 750 millions d'analphabètes en 2016 d'après les statistiques les plus récentes de l’UNESCO. En chiffres bruts, il s'agit d'un progrès indéniable par rapport à 1994, où l'Organisation des Nations unies pour l'éducation, la science et la culture dénombrait 871 millions de personnes ne sachant ni lire, ni écrire. Aujourd'hui, on peut ainsi affirmer que 86% des adultes (âgés de plus de 15 ans) savent lire et écrire dans le monde. Ces progrès sont le fruit de politiques nationales et internationales menées sous l'égide de l'Unesco qui a lancé sa première journée internationale de l'alphabétisation en 1966. C'est à cette époque qu'a été introduit le concept d'alphabétisation fonctionnelle[35], l'alphabétisation étant un moyen de s'insérer (socialement et professionnellement) et non une fin en soi. Et aujourd'hui, les efforts se poursuivent : dans ses objectifs de développement durable pour 2030, l'Unesco a inscrit le droit à l'éducation pour « faire en sorte que toutes les filles et tous les garçons suivent, sur un pied d’égalité, un cycle complet d’enseignement primaire et secondaire gratuit et de qualité, qui débouche sur un apprentissage véritablement utile. »[36]

Au XXIème siècle le combat pour l’alphabétisation des femmes reste une réalité et les chiffres parlent d’eux-mêmes : 54% des enfants non scolarisés sont des filles, 64% des adultes analphabètes sont des femmes, 41 millions de filles sont totalement exclues de l’éducation et 515 millions de femmes sont analphabètes -Vocabulaire p.398.

Si beaucoup a été accompli au cours de la seconde moitié du XXème siècle, et si le taux d’alphabétisation du monde est aujourd’hui de 86%, l’analphabétisme des femmes stagnent donc à des niveaux élevés. Il faudrait ainsi attendre 2070 pour atteindre l’alphabétisation universelle[37].

Dans les pays du Nord, il existe aussi des poches d’analphabétisme qui touche tout particulièrement les femmes en grande précarité (précarité que cette situation aggrave encore) et qui empêche une intégration notamment les immigrées. Cependant, dans les Nord, on ne trouve que 2%.

L’analphabétisme est parmi les causes de la marginalisation des femmes et constitue un obstacle de premier ordre à la réduction de la pauvreté extrême, dans un monde où les technologies occupent une place prépondérante et où savoir lire, écrire et compter est indispensable pour exercer ses droits fondamentaux et saisir ses chances pour changer le monde et combattre la pauvreté.

L’éducation des femmes aurait aussi un fort impact sur la santé. Selon les projections, la mortalité infantile pourrait être réduite de 15% si toutes les mères avaient une instruction primaire, et de 49% si elles avaient reçu une éducation secondaire. De même, la mortalité maternelle serait réduite de 66% (soit 189 000 vies épargnées par an) si toutes les femmes suivaient un cursus primaire[38]. Or l’alphabétisation des femmes contribue à améliorer le développement en accélérant aussi la transition démographique et en ayant une forte incidence sur le recul de la mortalité infantile.

Les pays ont un intérêt à promouvoir l’éducation auprès de leur population. « Lorsque le niveau d’instruction moyen de la population d’un pays donné augmente d’une année, la croissance annuelle du PIB par habitant progresse de 2 à 2,5% ». Une croissance qui permet ensuite de réduire la pauvreté.

b.      ...mais encore le reflet d’inégalités entre pays et hommes et femmes

Doc.8 p.399. Alphabétisation et autonomisation des femmes- L'alphabétisation progresse mais elle peine à effacer les inégalités entre les sexes. Sur les 750 millions de personnes analphabètes dans le monde, 63% sont des femmes ; ainsi en Inde en 2011, le pays comptait 265 millions de personnes ne sachant ni lire, ni écrire dont 171 millions étaient des femmes. On constate les écarts les plus élevés en Asie du sud (77% des hommes sont alphabétisés contre 58% des femmes), en Afrique du nord et Asie de l'ouest (82% des hommes et 66% des femmes) et en Afrique subsaharienne (69% des hommes et 53% des femmes). Mais là aussi, les choses progressent et surtout chez les jeunes : 91% des jeunes femmes (15-24 ans) étaient alphabétisées en 2016 contre seulement 73% dans les années 1960.

Les inégalités sont également géographiques : près de la moitié des personnes analphabètes de la planète vivent en Asie du sud (49%) et 27% demeurent en Afrique subsaharienne. 20 pays ont le triste honneur de compter plus de 50% d'analphabètes dans leur population : l'Afghanistan, le Bénin, le Burkina Faso, la Centrafrique, le Tchad, les Comores, la Côte d'Ivoire, l'Éthiopie, la Gambie, la Guinée Bissau, Haïti, l'Irak, le Liberia, le Mali, la Mauritanie, le Niger, le Sénégal, la Sierra Leone et le Sud Soudan. Le droit à l ‘éducation se restreint avec l’âge dans de nombreux pays, par exemple au Burkina Faso 8% des filles seulement font des études secondaires. L’analphabétisme des femmes est particulièrement élevé en Afrique sahélienne et sub-saharienne, au Moyen-Orient -doc.6 p.398. La scolarisation des filles au Moyen-Orient au XXe siècle et dans le sous-continent indien.

Des obstacles à l’éducation des filles dans le monde persistent :

  • Le poids de traditions culturelles d’inégalité des genres : Dans certaines sociétés, l’éducation des filles n’est pas une priorité ; pour certains, elle n’a même aucun sens car elle va à l’encontre du rôle qui leur est dévolu dans la société. Si une famille ne peut pas envoyer tous ses enfants à l’école, elle fera souvent le choix d’envoyer les garçons et de faire travailler les filles -y compris là où l’éducation est obligatoire. Par ailleurs, pour celles qui ont la chance d'aller à l'école, les nombreuses heures qu’elles dédient aux tâches ménagères sont autant qu’elles ne consacrent pas à leurs études.
  • Les violences à l’école et sur le chemin de l’école conduit de nombreux parents à retirer leurs filles de l’école.
  • Les contraintes physiologiques. Aujourd’hui, sur le continent africain, 1 fille sur 10 ne va pas à l’école quand elle a ses règles, parce que les établissements scolaires ne proposent pas d’endroit où elles puissent se changer dans le respect de leur intimité.
  • Les mariages précoces: cela concerne 12 millions de filles chaque année. En Afrique occidentale et centrale, 4 filles sur 10 sont mariées avant 18 ans (et 1 fille sur 7 avant ses 15 ans).
  • Les grossesses précoces : le plus souvent consécutives à des mariages précoces ou à des violences sexuelles ainsi qu’à un manque d’accès à la contraception ou à l’avortement, elles contraignent souvent les adolescentes à quitter l’école.
  • L’absence de certificat de naissance : ces « enfants-fantômes » non déclarés à l’état civil, majoritairement des filles, sont privés de leur droit à l’éducation.
  • Les situations d’urgence. Dans ces situations, les adolescentes sont souvent les personnes les plus exposées. Les situations précaires augmentent la pression économique qui pèse sur les foyers, entraînant des familles à pousser leurs filles vers un mariage précoce ou vers un travail dangereux, les obligeant ainsi à abandonner l’école[39].

Ce combat pour l’éducation des femmes est incarné aujourd’hui par Malala Youfsafzai, jeune Pakistanaise grièvement blessée par les talibans pour sa prise de position en faveur de l’éducation des filles. Prix Nobel de la Paix en 2014, elle poursuit aujourd’hui, dans le cadre de sa fondation, le combat pour que toutes les filles puissent aller à l’école.

Conclusion

L’alphabétisation des filles est un long combat engagé depuis des siècles et qui ouvre la fois à l’égalité entre les femmes et les hommes. Dans les Nords, malgré quelques poches d’analphabétisme, le combat fut gagné grâce à l’engagement d’hommes et de femmes, qui nourrissaient un projet spirituel, politique et social (religieux à l’époque moderne, républicain aux XIXème et XXème siècles. Peu à peu, les filles ont eu accès à l’alphabétisation, premier pas vers le savoir émancipateur.

Au XXIème siècle, ce combat est toujours d’actualité et malgré l’engagement de l’ONU et de nombreuses ONG comme Plan International, les filles sont toujours victimes d’un accès inégal à l’éducation. Pourtant, la prise de conscience est mondiale à l’image de Kofi Annan, ex-secrétaire des Nations Unies qui dit « Il n’existe aucun instrument de développement plus efficace que l’éducation des filles. ». Malheureusement, les obstacles sont encore nombreux et il faudra encore beaucoup d’engagement pour que les filles aient un égal accès à l’école et ce dans toutes les régions du monde.

         « La preuve est claire : l'égalité pour les femmes signifie le progrès pour tous. » (Ban Ki-moon)

B.    Produire de la connaissance scientifique : recherche et échanges des hommes et des femmes de science sur la question de la radioactivité de 1896 aux années 1950

Introduction

La découverte et les travaux sur la radioactivité montrent, à l’image de la « République des lettres »[40] de la Renaissance, les liens qu’entretient la communauté scientifique à l’échelle de la planète. Dans une quête de progrès pour l’humanité, les recherches font l’objet d’échanges et de partage entre les grands noms de la physique et de la chimie au-delà des frontières.

Ils montrent aussi que de 1896 aux années 1950, tout ce travail a reçu le soutien et n’a pas échappé au contrôle de gouvernement et d’États engagés dans des guerres mondiales et dans la guerre froide. Les scientifiques ont mis leurs savoirs au service de leurs gouvernements et ont été confrontés aux interrogations suscitées par l’utilisation de leurs travaux et de leurs prolongements.

En quoi les recherches sur la radioactivité sont-elles le reflet de la collaboration entre une communauté scientifique soucieuse de progrès et des rapports parfois complexes qu’ils entretiennent avec le pouvoir politique face aux répercussions de leurs découvertes de 1896 aux années 1950 ?

1.     Découvrir la radioactivité et la partager pour le progrès de l’humanité…

a.       La radioactivité, une découverte partagée et prolongée...

Les grandes étapes d’une découverte fondamentale
  • Automne 1895, Wilhem Röntgen découvre de mystérieux « rayons X ». Ces rayons traversent une feuille de papier opaque, font scintiller un écran fluorescent mais sont arrêtés par les os.
  • 1896, Henri Becquerel découvre la radioactivité[41] par hasard, en poursuivant les travaux de Röntgen sur la fluorescence.
  • 1897, Marie Curie prolonge dans sa thèse les travaux de Becquerel ; son mari Pierre arrête ses propres recherches sur le magnétisme pour s’y impliquer également.
  • 1898, Pierre et Marie Curie démontrent en 1898 l’existence de deux éléments radioactifs, le radium et le polonium[42].
  • 1903, Henri Becquerel, Pierre et Marie Curie obtiennent pour leurs découvertes le Prix Nobel de physique[43].
  • Les recherches sont prolongées par d’autres chercheurs et d’autres pays :
    • L’Anglais Ernest Rutherford et l’Allemand Hans Geiger explorent à leur tour la structure de l’atome,
    • 1934, Irène Joliot-Curie et son mari Frédéric Joliot-Curie découvrent la radioactivité artificielle,
    • 1939 Ernest Orlando Lawrence, physicien américain, est lauréat du prix Nobel de physique « pour l'invention et le développement du cyclotron et pour les résultats obtenus avec cet instrument, spécialement ceux qui concernent la production d'éléments radioactifs artificiels »,
    • 1942, l’Italien Enrico Fermi invente la première pile atomique.
Pas la découverte d’un seul ou d’une seule mais celle d’une communauté

Pierre et Marie Curie refusent de breveter leurs découvertes et communiquent tous les détails de leur expérience. Pour eux, il s’agit de faire avancer la science et non d’en tirer des avantages personnels. Marie Curie n’hésite d’ailleurs pas à déclarer que « le radium ne doit enrichir personne. C’est un élément. Il appartient à tout le monde »[44].

Doc.2 p.400. Le Congrès Solvay de 1927- Les congrès Solvay[45], réunis à l’initiative d’Ernest Solvay, chimiste et industriel belge, s’inscrivent dans le même état d’esprit. En outre, dans une Europe marquée par la montée des nationalismes, Solvay a toujours eu pour objectif de renforcer la dimension internationale de la science en rassemblant des scientifiques de tous horizons. C’est la raison pour laquelle il a été décidé que les Congrès auraient lieu dans un pays neutre, la Belgique, et seraient présidés par un scientifique hollandais polyglotte. Ceci correspondait parfaitement à la vision d’Ernest Solvay, qui souhaitait inciter les élites scientifiques à collaborer quelle que soit leur nationalité, à une époque où la science était principalement considérée d’un point de vue national[46].

b.      … aux multiples applications porteuses de progrès

Ses prolongements et applications dans le domaine médical

Les champs d’application des découvertes des Curie sont considérables. Durant la Première Guerre mondiale, Marie Curie met son personnel et ses recherches au service de l’armée en engageant des véhicules, appelées les « petites Curie » pour effectuer des radiographies[47]. Ce sont dix-huit camionnettes légères qui sillonnent sans relâche les différents champs de bataille, de la Marne, de Verdun, de la Somme... Marie Curie se dévoue à cette mission pendant toute la durée de la guerre, allant jusqu’à passer son permis de conduire, en 1916, pour conduire elle-même ses missions, accompagnée de sa première fille Irène, encore adolescente[48].

En 1918, la radiologie devient un outil familier de la médecine. Marie Curie milite alors pour une technique révolutionnaire, la radiothérapie : « Après les rayons qui dévoilent, les rayons qui soignent »[49]. 1921 voit la naissance de la Fondation Curie, qui permet l’utilisation des radiations dans la lutte contre le cancer et les premiers traitements de radiothérapie[50].

Leur prolongement dans les applications civiles

Au-delà du domaine médical, la découverte de la radioactivité ouvre d’autres champs d’application :

  • La production d’énergie nucléaire, le premier réacteur nucléaire à production électrique est inauguré dans l’Idaho en 1951. En France, le réacteur de Marcoule (1956) inaugure le choix massif du nucléaire en France à partir des années 60 et 70, et la signature du Traité de Rome en 1957 s’accompagne celle du traité Euratom -doc.4 p.401. Un exemple de coopération internationale.
  • La connaissance archéologique : grâce à la réactivité, l’Américain Willard Franck Lilly effectue en 1949 une première datation au carbone 14 de deux échantillons de bois provenant de tombes égyptiennes.

2.     … mais la mettre aussi au service de la puissance des États et douter

a.       La radioactivité mise au service de la puissance des États

Les scientifiques ont toujours su se mettre au service de leur État de naissance ou d’accueil, à l’image de Marie Curie qui déclarait à propos de son engagement dans la guerre : « Je suis déterminée à mettre toutes mes forces au service de mon pays d’adoption, maintenant que je ne peux plus rien faire pour mon malheureux pays natal ».

Mais la recherche scientifique est souvent liée à une collaboration entre recherche scientifique et pouvoir politique. Pendant l’entre-deux guerres, le radium n’est pas seulement le symbole de la modernité, il est aussi un « marqueur » de la puissance d’un pays et suscite la convoitise les chefs d’État, qui se livreront une course à l’atome dès le début de la Seconde Guerre mondiale, puis pendant la guerre froide.

Doc.3 p.401. La prise de conscience des menaces- Ainsi, le 2 août 1939, Albert Einstein alerte le président Roosevelt sur le danger des recherches nazies sur la bombe atomique[51], lancées depuis avril sous le nom de « projet uranium », après la découverte par Otto Hahn de la fission nucléaire (travaux conduits avec Lise Meitner[52]). Dans le projet Manhattan[53], lancé par le président américain sous la conduite du physicien Robert Oppenheimer, il s’agit de prendre de vitesse l’Allemagne nazie et son projet Uranium (uranprojekt).

Oppenheimer se montre à la fois un savant d’exception et un redoutable organisateur qui parvient à doter les États-Unis en premier de la bombe A :

  • 16 juillet 1945 : premier essai nucléaire américain sur le site d’Alamogordo au Nouveau Mexique.
  • 6 et 9 août 1945 les bombes « Little boy » (uranium) et « Fat man » (plutonium), sur Hiroshima et Nagasaki accélérant la fin de la Seconde Guerre mondiale, marquent l’aboutissement du projet Manhattan et la coopération entre scientifiques, politiques et militaires.
  • 1949, l’URSS se dote à son tour de la bombe atomique. Au lendemain du bombardement d’Hiroshima, Staline prend conscience de l’intérêt stratégique de l’atome, et exige l’intensification du programme atomique dirigé par Igor Kourtchatov. Pour parvenir à leurs fins, les chercheurs soviétiques bénéficieront du concours de près de 300 allemands recrutés à partir de 1945.
  • 1952 : les États-Unis obtiennent la bombe à hydrogène un an avant l’URSS.

Les deux Grands, États-Unis et URSS, s’engagent dans une course à l’arme nucléaire. Le monde est sous la menace d’une apocalypse nucléaire. D’autres pays accèdent à l’arme nucléaire : Royaume-Uni (1952), France (1960) [54], Chine (1964) : détenir l’arme nucléaire est l’apanage des grandes puissances.

b.      Un monde et des chercheurs qui doutent

Si le Japon, sous le choc des deux bombardements d’Hiroshima et Nagasaki, a capitulé le 2 septembre 1945, mettant ainsi fin à la Seconde Guerre mondiale, la physique nucléaire a définitivement perdu son innocence, et la science inquiète désormais les intellectuels comme Albert Camus[55].

La dénonciation de la guerre atomique par le Mouvement mondial des partisans de la paix prend une dimension exceptionnelle lorsque le Conseil mondial de la paix (réuni à Stockholm) lance, le 19 mars 1950, « l'appel de Stockholm » qui exige notamment « l'interdiction absolue de l'arme atomique ». Tandis que, dans le même temps, se déclenche la guerre de Corée, cette campagne rencontre un véritable succès populaire, recueillant officiellement 15 millions de signatures (plus vraisemblablement une dizaine de millions) en France. Dans le monde, le Mouvement revendique plus de 500 millions de signatures (chiffre gonflé par le comptage systématique de l'ensemble des populations des pays de l’Est). Malgré le zèle des militants communistes et le prestige des intellectuels engagés (Picasso, Prévert) ou des acteurs comme Yves Montand[56] ou Simone Signoret, ce mouvement d'opinion ne se transforme pas en organisation de masse durable. Cette prise de conscience n’épargne pas les « pères » de l’arme atomique[57]. Devant les conséquences de l’utilisation de l’arme atomique, les scientifiques et au premier rang des physiciens reconnus se posent des questions et militent pour une désescalade nucléaire. Frédéric Joliot-Curie est à l’origine de l’appel de Stockholm[58].

Les scientifiques, comme Albert Einstein, Robert Oppenheimer[59] et Andreï Sakharov (père de la bombe atomique soviétique), expriment leurs craintes et leurs regrets.

En 1955, 11 personnalités de premier plan publient le manifeste Russel-Einstein, appel signé également par Frédéric Joliot-Curie. Bertrand Russell et Albert Einstein se réunissent avec un groupe d'intellectuels à Londres pour rédiger et signer le manifeste qui met le lecteur en garde contre la course vers un affrontement entre les blocs communistes et anti-communistes. Les auteurs livrent un texte sans concession, assimilant la marche vers la guerre et l'utilisation d'armes nucléaires capables d'effacer les Etats-Unis et l'Union soviétique de l'époque, à une menace pour l'humanité Le manifeste montre que les progrès de la technologie, en particulier l'invention de la bombe atomique, ont mis l'histoire humaine sur une voie nouvelle et probablement désastreuse. "Voici donc le problème que nous vous présentons, dans ce qu'il a d'austère, de terrible et d'inéluctable : allons-nous mettre fin à l'espèce humaine ; ou l'espèce humaine est-elle prête à renoncer à se faire la guerre ?"

Conclusion :

La radioactivité, découverte en 1896 offre une parfaite illustration de l’esprit animant la communauté scientifique et de la richesse de ses échanges, permettant de faire avancer très rapidement les connaissances et le savoir scientifique. Elle aura été l’occasion de faire émerger de grandes personnalités scientifiques, dont certaines illustrent le combat des femmes pour obtenir reconnaissance dans le monde scientifique et égalité dans la société.

Si les scientifiques ont eu le souci d’œuvrer au service de l’humanité, ils n’ont pas échappé aux enjeux géopolitiques de leur époque participant, parfois à leur corps défendant, à l’engagement dans la guerre de leurs pays de naissance ou d’accueil. Certains ont ainsi regretté l’utilisation faite de leurs travaux et se sont engagés dans la lutte contre l’armement nucléaire au plus fort de la guerre froide à l’image d’Oppenheimer ou d’Einstein. Ces scientifiques, dont beaucoup furent récompensés par des prix Nobel, furent ainsi « citoyens du monde » pour le bonheur et sans doute aussi, pour une part, le malheur de l’Humanité mais aucun n’a échappé à la pensée de Rabelais pour lequel « Science sans conscience n’est que ruine de l’âme ».

II. La connaissance, enjeu politique et géopolitique (Axe 2)

Manuel p.408-423

Conscients de l'importance des savoirs dans la mise en œuvre d'une politique de puissance, les États cherchent à mettre en place des politiques de développement de la recherche et de l'innovation pour accroître leur prospérité économique, asseoir leur supériorité militaire mais aussi étendre leur influence culturelle. Entre rivalités et coopération, la connaissance devient un enjeu fondamental pour les relations internationales.

Pourquoi et comment les États se saisissent-ils de l'enjeu de la connaissance ?

A.    Le renseignement au service des États : les services secrets soviétiques et américains durant la guerre froide

Jalon p.414-415 + Exercice introductif : les documents Venona et l’affaire Rosenberg[60].

Les services secrets pratiquent le renseignement, ce qui inclut la collecte d’information en amont, l’analyse qui en est faite en aval et la structure qui en assure le traitement. Leur finalité est la sécurité, le renseignement, l’action. La Première guerre mondiale a rendu permanente l’utilisation de services secrets mais les espions existaient déjà au moment de la Guerre de Trente Ans. Le terme « espionnage » a été progressivement remplacé par le mot « renseignement », moins péjoratif et plus proche des réalités de cette activité. Au-delà de l’imaginaire développé par les films et la littérature d’espionnage, l’agent de renseignement est d’abord en quête d’informations[61].

La Guerre froide (1947-1991) a normalisé le mode de fonctionnement des services secrets. Pour les historiens, la fin de la guerre froide a permis la déclassification de sources[62]. Ainsi, les documents du projet Venona, publiés en 1995, permettent de mieux connaître les mécanismes d’infiltration des services de renseignement soviétiques aux États-Unis pendant la Seconde Guerre mondiale.

Quelles connaissances recherchent les services secrets américains et soviétiques durant la guerre froide, avec quelles modalités ? Quel est le rôle respectif du KGB et de la CIA pendant le conflit ?

1.     Deux organisations nées au début de la Guerre froide

a.       La CIA

Les États-Unis, jeune nation, ont découvert l'importance de l'espionnage durant la Première Guerre mondiale puis en luttant contre l'Allemagne et le Japon entre 1941 et 1945, notamment à travers l'OSS (Office of Strategic Services). Alors que le FBI (Federal Bureau of Investigation), fondé en 1908, est un service de sécurité intérieur (c’est-à-dire un organisme dont la finalité est la protection de l’État), la CIA (Central Intelligence Agency), apparait en 1947. À cette date en effet, les États-Unis créent plusieurs agences de renseignement, dont la CIA (Central Intelligence Agency) [63], en leur accordant des moyens humains et techniques considérables[64]. La NSA (National Security Agency) est créée secrètement en 1952[65], et se voit confier le renseignement d’origine électromagnétique et de la sécurité des systèmes d’information du gouvernement américain. Cet organisme, qui dépend du Département de la Défense, gère les activités de cryptologie du gouvernement américain.

La CIA est placée directement sous l’autorité du Président des Etats-Unis. En 1949, elle obtient l’autorisation de dissimuler son organisation, ses membres, son budget. Si la CIA n’espionne pas sur le territoire américain, elle effectue toutefois certaines opérations aux Etats-Unis comme le recrutement de personnes étrangères résidant aux Etats-Unis.

b.      Le KGB

Pour les Soviétiques, le renseignement n’est pas une nouveauté : les hommes du Komintern, fondé en 1919, sont déjà entrainés à la clandestinité par leurs activités révolutionnaires. La répression interne est une des spécificités des services secrets soviétiques, qui ont été fondés six semaines après la conquête du pouvoir par les Bolchéviks (Tchéka, Guépéou, NKVD). Ils bénéficient en outre d’une tradition déjà bien enracinée pendant la période tsariste.

Pendant la Seconde Guerre mondiale, les services de renseignement soviétiques sont désignés par l’acronyme GRU (Direction principale du renseignement). Le célèbre KGB (Comité pour la Sécurité de l'État[66]) est créé en 1954. Il est chargé du contre-espionnage, de la surveillance des gardes-frontières, du renseignement extérieur et surtout de la lutte contre les opposants. Durant la guerre froide, le KGB supplante peu à peu tous les organes du renseignement soviétiques, car ses prérogatives lui permettent de collecter des renseignements à la fois dans le domaine militaire et civil[67]. Le KGB est dirigé par un haut fonctionnaire, nommé par le Comité central du PCUS. Il est donc étroitement lié au pouvoir politique (Politburo). D’ailleurs, Youri Andropov était de 1967 à 1982 à la tête du KGB avant d’être à la tête du pays.

Agissant sans réel contrôle, doté d’un budget illimité, le KGB comptait parmi ses principales missions la chasse aux ennemis politiques à l’intérieur comme à l’extérieur. Présent à Budapest au moment de l’insurrection hongroise (1956) et lors du Printemps de Prague (1968), il n’a de cesse de traquer tout relâchement pour éviter l’écroulement du système.

2.     Renseignement et sciences

a.       Les Soviétiques et l’espionnage scientifique

En 1999, la publication par le transfuge russe Vassili Mitrokhine avec le professeur britannique Christopher Andrew d’un ouvrage[68] sur les services secrets de 1917 à 1991 a eu un grand retentissement. L’ancien colonel du KGB a recopié pendant 10 ans des milliers de fiches, dénonçant de nombreux scientifiques, journalistes, politiciens occidentaux ayant servi l’URSS ; il décrit aussi avec précision les organes du KGB[69]. Ces documents montrent comment, en s’appuyant sur des services de renseignement efficaces, les Soviétiques ont connu le projet Manhattan, ce qui leur a facilité la tâche pour se doter de l’arme atomique en 1949 -du reste, le pillage des secrets militaires de la première bombe atomique avait déjà été mis en évidence en 1995 par les documents du projet Venona montre les capacités des services secrets soviétiques[70].Grâce à la complicité du physicien nucléaire d’origine allemande Klaus Fuchs, Lavrenti Beria, qui dirige les services secrets de Staline, a eu connaissance des principaux secrets de fabrication de la bombe dans un rapport du 28 février 1945… soit cinq mois avant le premier essai à une époque où le vice-président Truman lui-même ignore l’existence du projet.

b.      Quand le renseignement stimule le progrès technique et scientifique

C'est la NSA qui, pour les besoins de l'analyse cryptographique, a le plus contribué dans les années 1950-1960 au développement des gros ordinateurs capables d'effectuer des calculs mathématiques extrêmement complexes. C'est aussi dans le plus grand secret que des avions de reconnaissance sont conçus et mis en œuvre pour découvrir, identifier, localiser les arsenaux nucléaires soviétiques. Il a fallu l'incident de l'U2 abattu par les Soviétiques en 1960 pour que le public les découvre.

Lors de l'affaire des missiles de Cuba en 1962, le président Kennedy a très largement utilisé les informations secrètes fournies par les photos aériennes et les moyens d'interception électronique. Par la suite, les satellites d'observation ont permis de disposer de moyens complémentaires d'observation, avec l’avantage de ne pas être soumis aux restrictions de survol des espaces aériens nationaux. Les moyens d'observation et de surveillance ont été en quelque sorte officialisés en droit international quand, à la suite du processus d'Helsinki, qui s’ouvre en 1973[71], plusieurs « mesures de confiance » ont fait explicitement référence aux « moyens techniques nationaux » pour la surveillance et la vérification réciproques des manœuvres militaires et des accords de désarmement[72].

3.     Recruter pour savoir ou pour agir

Au début de la guerre froide, la CIA cherche à « libérer » certains pays du bloc soviétique. En Albanie, l’opération Valuable tente de renverser le régime d’Enver Hoxha depuis Malte avec des missions de pénétration par des opposants albanais. C’est un échec, et la CIA se retire en 1953. À l’origine de ce revers : Kim Philby, agent britannique à la solde du KGB depuis les années 1930. Il est démasqué en 1963 comme l’un des « Cinq de Cambridge ». En effet, le KGB conserve l’avantage en termes de pénétration, et les exemples sont légion :

  • En Amérique du Nord[73], le canadien Hugh Hambleton à partir de 1951 lui communique des documents de l’OTAN. En 1953, Robert Lee Johnson, sergent dans l’US Army, fournit aux Soviétiques des renseignements militaires du service du chiffre sur les lieux de stockage des têtes nucléaires américaines en Europe. 139 personnes entre 1940 et 1994 sont condamnées par les autorités judiciaires américaines [74], ce chiffre ne montre qu’une partie de la réalité de l’espionnage. En analysant l’origine de ces personnes il s’agit pour 40% de civils, 9 agents de la CIA, des membres de l’industrie américaine.
  • En Europe, les informations livrées à la France par Vladimir Vetrov alias Farewell -doc.4 p.415. Espionner derrière le rideau de fer révèlent l’étendue du dispositif soviétique et permettent l’expulsion de 148 « diplomates » soviétiques dont 47 en France.
  • Le KGB opère aussi dans le tiers-monde. En Égypte, il recrute Sami Sharaf, responsable des services de renseignement et proche conseiller de Nasser. En Inde, profitant des sympathies prosoviétiques du pouvoir, il lança des opérations de propagande antioccidentales.

À partir de 1949, la CIA profite du secret qui l’entoure pour mener des missions spéciales qui ne sont pas liées directement aux actions du KGB. Parmi les missions connues qui ont marqué la guerre froide :

  • Le coup de force contre Mossadegh en Iran en 1953 -doc.2 p.414.
  • L’opération menée contre le président du Guatemala Jacobo Arbenz en 1954.
  • L’opération de la Baie des Cochons à Cuba en 1961.
  • Le coup d’État au Chili contre le président Allende en 1973.

Il n’existe pas de tels exemples de gouvernements renversés par l’action du KGB. L’organisation soviétique aide toutefois les régimes « amis » à se maintenir, en collaborant avec les polices de renseignement, comme la Stasi en Allemagne de l’Est, et fournit une aide logistique et militaire à divers groupes armés en Afrique et au Moyen-Orient.

B.    Circulation et formation des étudiants, transferts de technologie et puissance économique : l’exemple de l’Inde

Jalon p.416-417- La connaissance est un enjeu de puissance aussi en l’absence de conflit. Le développement économique de l’Inde est très dépendant de sa capacité d’innovation, et sa montée en gamme dans la NDIT de sa capacité à avoir une main-d’œuvre formée. Ceci entraine une croissance continue des besoins en étudiants de haut niveau et en chercheurs.

L’Inde est surnommée le « bureau du monde » en raison de son développement fondé sur la téléphonie, l’informatique et l’ingénierie. Depuis 2018, elle est la cinquième puissance économique mondiale (PIB nominal) devant la France et le Royaume-Uni. Sa puissance repose en partie sur la formation des étudiants et sur les transferts de technologie (acquisition de savoir-faire techniques). L’Inde connaît une forte croissance du PIB nominal (6,9% en moyenne depuis 2012), ainsi que du PIB par habitant (environ 5% par an) ; près de 140 millions d’habitants sont sortis de la pauvreté en moins de 10 ans.

Comment la mobilité des étudiants et les transferts de technologie contribuent-ils à la puissance de l’Inde ?

1.     Les ingénieurs indiens, une tradition ancienne

a.       Le Raj britannique a besoin d’ingénieurs[75]

Doc.1 p.416. Sam Pitroda : un des « pères » de l’économie de la connaissance- Si l’ingénieur est aujourd’hui l’une des figures du succès économique indien, l’essor de la profession est né au temps de la colonisation britannique, avant de devenir un enjeu national dans l’Inde indépendante.

À partir des années 1850, les Britanniques commencent à investir en Inde dans la formation d’ingénieurs formés sur le tas avec la construction du chemin de fer. En effet, les ingénieurs militaires (royal engineers), qui assument dans un premier temps la direction des travaux n’y bientôt suffisent plus, et les ingénieurs civils recrutés en métropole s’avèrent trop coûteux. À l’exception des ingénieurs militaires, la Grande-Bretagne n’a pas de corps d’ingénieurs publics comme en France[76]. L’Inde fait ainsi figure d’exception dans le monde colonial. Dans le reste de l’Empire britannique, comme dans les autres colonies européennes, l’éducation technique est limitée à des niveaux très élémentaires, comme la formation de mécaniciens ou d’employés des télégraphes, et ce n’est qu’à partir des années 1920-1930 que des tentatives pour former une main-d’œuvre plus qualifiée voient le jour. À la même époque, les ingénieurs indiens occupent aussi un tiers des postes d’ingénieurs de la colonie.

Durant la période coloniale, la colour bar (discrimination raciale) assure aux ingénieurs originaires de la métropole de meilleurs postes et de meilleurs salaires que leurs homologues indigènes[77]. Les Indiens essaient de s’organiser pour exiger l’égalité d’accès aux postes les plus élevés (résolution du Congrès national indien des 1887). Au début du XXe siècle, les Indiens veulent créer un institut polytechnique central pour former les futurs cadres de l’industrie. Les nationalistes indiens choisissent de ne pas attendre l’intervention des autorités coloniales et fondent en 1906 le Bengal Technical Institute. Grâce à la multiplication des établissements[78], la formation d’ingénieurs s’intensifie : en 1940, plus de 50% des ingénieurs de l’Indian Service of Engineers sont indiens.

b.      La formation qualifiée, un enjeu majeur de l’indépendance à l’émergence

Après l’accession à l’indépendance, la formation d’une main d’œuvre qualifiée devient un enjeu majeur. Des instituts d’élite sont créés, les Indians Institutes of Technology (IIT) sur le modèle du Massachussetts Institute of Technology (MIT). Le premier est créé à Kharagpur (Bengale occidental) en 1951. Quatre autres sont fondés ensuite en collaboration avec des puissances étrangères (Allemagne de l’Ouest, États-Unis, Grande-Bretagne).

Les étudiants indiens sont aussi encouragés, par un système de bourses, à aller se former à l’étranger. Le principal bénéficiaire en est les États-Unis. Outre la facilité linguistique, ce pays bénéficie de la connexion ancienne qui existe entre certaines élites indiennes et le MIT. À partir des années 1960, dans un contexte où le terrain technologique devient un des enjeux essentiels de la guerre froide, les autorités états-uniennes cherchent à attirer de brillants jeunes gens. Elles ouvrent de nombreuses American Libraries (bibliothèques) en Inde, censées promouvoir leurs cursus, et assouplissent les lois sur l’immigration afin de pouvoir conserver les jeunes diplômés. En 1967, l’Inde forme ainsi 10 000 ingénieurs par an dont 1 000 sortis des IIT, tandis que 2 300 Indiens étudient l’ingénierie aux États-Unis. Une partie d’entre eux choisissent de ne pas rentrer au pays. Le succès rencontré par certains durant le boom de la Silicon Valley des années 1980, tels Suhas Patil et Vivek Ranadive, contribue à asseoir la réputation internationale des ingénieurs indiens.

Lorsqu’une politique de libéralisation de l’économie et d’ouverture aux multinationales étrangères est initiée dans les années 1990, cette main-d’œuvre technique, peu coûteuse, mais hautement qualifiée, constitue pour l’Inde un atout majeur sur le marché international du travail. C’est en particulier le cas dans le domaine informatique, où des programmes de formation ont été créés dès la fin des années 1960 dans plusieurs IIT. L’installation de multinationales et l’essor de grandes firmes indiennes spécialisées dans les technologies de l’information, comme Infosys, suscitent par ailleurs un véritable engouement pour les formations d’ingénieurs. Entre 2000 et 2010, le nombre d’Engineering Colleges passe de 750 à 3 000[79] : la profession a fini par cristalliser les espoirs d’ascension sociale d’une partie de la population.

2.     Du brain drain ou brain gain

L‘Inde a une des plus fortes populations étudiantes du monde avec 35 millions d’étudiants. Ces étudiants sont très mobiles et encouragés à aller à l’étranger. Depuis la fin des années 1960, les États-Unis, le Canada et l'Australie offrent des alternatives migratoires et économiques particulièrement attractives pour les Indiens. Ces migrations concernent surtout des personnes originaires des grandes métropoles indiennes (Delhi, Mumbai, Chennai, Bangalore, Hyderabad) et issues de milieux socio-professionnels élevés (ingénieurs, médecins, universitaires, avocats). La communauté indienne des États-Unis, estimée à près de 4,5 millions d'individus en 2015, est ainsi la minorité ayant le PIB par habitant le plus élevé du pays. Les cohortes d'informaticiens indiens employés dans la Silicon Valley (10% des employés de Microsoft) constituent l’archétype de la success story des Indiens aux États-Unis. Par exemple, Satya Nadella, le nouveau PDG de Microsoft, est né à Hyderabad et a fait ses études supérieures à Chicago ainsi que dans le Wisconsin. Au Canada, la majorité des Indiens sont également des migrants très qualifiés provenant des grandes métropoles indiennes.

Un autre flux notable qui s'est développé ces dernières années, bien que très inférieur au précédent puisqu'il ne dépasse pas plusieurs dizaines de milliers de personnes, concerne le retour des migrants très qualifiés, et en particulier des ingénieurs. Leur cas est intéressant car il invite à relativiser la « fuite des cerveaux » (brain drain) que connaît l'Inde depuis les années 1960 en raison du manque de débouchés offerts aux très nombreux ingénieurs sortant chaque année des universités indiennes. Leur retour en Inde s'explique en partie par le boom du secteur informatique en Inde et par la nouvelle politique de New Delhi vis-à-vis des « non résident indians » (NRI)[80]. Leur success story dans le secteur des NTIC aux États-

Unis a également conduit de nombreuses entreprises américaines à externaliser leurs activités au profit de sociétés indiennes. La « diaspora » des ingénieurs indiens participe ainsi non seulement à un transfert de technologies en Inde, mais aussi à la création d'entreprises par investissements directs et migration de retour, notamment à Bangalore[81], ce qui invite finalement à parler d’un « brain gain »[82] pour qualifier les effets de ces migrations. Le gouvernement indien a évidemment compris l’intérêt que cela représentait pour le développement économique du pays, et pour son rayonnement international. Des politiques publiques voient le jour, pour encourager les membres de la diaspora à revenir en Inde.

NB. On entend ici par « diaspora » un phénomène migratoire et transnational répondant à quatre principaux critères : 1/ Une population dispersée sous la contrainte dans plusieurs lieux ou territoires non immédiatement voisins de celui d’origine. 2/ Des territoires de destination choisis en raison de la constitution de chaînes migratoires. 3/ Une population s’intégrant dans les pays d’accueil sans s’assimiler, c’est-à-dire conservant une conscience identitaire liée à la mémoire de la société et du territoire d’origine. 4/ Des groupes dispersés qui conservent et développent entre eux et avec la société d’origine (lorsqu’elle existe encore), des échanges matériels et immatériels organisés en réseaux (personnes, biens, informations, capitaux, etc.) [83].

Les étudiants indiens font partie de cette diaspora : encouragés dès les années 1960, par un système de bourse à aller se former à l’étranger, surtout aux États-Unis (connexion ancienne avec le MIT et facilité linguistique). Au même moment, alors que le terrain technologique devient un enjeu essentiel de la Guerre froide, les États-Unis cherchent à attirer de brillants étudiants du monde entier, et notamment d’Inde, et assouplissent les lois sur l’immigration. Une partie de ces étudiants ne rentre pas. Certains ont du succès dans le boom de la Silicon Valley des années 1980 comme Suhas Patil[84] et Vivek Ranadive[85].

3.     Transferts de technologie et puissance économique

a.       Bangalore, la Silicon Valley indienne

Bangalore est devenue la 5ème ville de l’Inde par la population (8,5 millions d’habitants, 12,4 pour le grand Bangalore, « métropole inattendue »[86]).

Dès 1977, le gouvernement du Karnataka a lancé une agence dédiée au développement d’entreprises d’électronique au sud-est, Electronics City[87], qui accueille depuis 1983 le siège d’Infosys, une des plus importantes sociétés indiennes du secteur. La trajectoire d’Infosys est comparée à celle d’Apple : née dans un garage, elle effectue un décollage spectaculaire dans les années 1990, et devient une FTN qui réalise 98% de son chiffre d’affaire hors d’Inde et emploie 160 000 salariés. Infosys domine le marché avec la société de services et d’ingénierie informatique (SSII) du groupe Tata et Wipro, dont les activités sont localisées aussi à Bangalore (mais pas le siège social). Des zones d’activité spécifiques de plus en plus loin du centre sont créées. Par exemple, à l’est de Bangalore, à 20 km du centre historique une edge city se développe : le parc d’activité (technoburb) de Whitefield.

b.      De l’attractivité d’une main d’œuvre qualifiée et peu coûteuse aux transferts de technologie

Lors de l’ouverture financière de l’Inde commencée dans les années 1990, cette main d’œuvre technique, peu coûteuse mais très qualifiée est un atout majeur pour l’Inde sur le marché international du travail. Ce mouvement s’accélère avec les réformes libérales des années 2004-2005 pour attirer les IDE et les entreprises étrangères : création de 200 zones spéciales en périphérie des grandes métropoles (Chennai, Bangalore, Hyderadad) offrant des avantages fiscaux, des exemptions de douane aux FTN.

Doc.5 p.417. Transferts de technologie et affirmation de la puissance indienne- Surtout, l’Inde a choisi d’ouvrir son économie aux FTN étrangères en négociant des transferts de technologie. Depuis 2014 le premier ministre N. Modi a mis en place le Make in India pour créer des emplois et s’appuyant sur le patriotisme économique. Les secteurs prioritaires sont l’automobile, l’aéronautique, les énergies renouvelables, la chimie les technologies de l’information, le ferroviaire et le textile. Les secteurs de la défense et de l’aérospatiale sont particulièrement représentés pour la France avec Dassault, Safran et Naval Group.

III. Le cyberespace : conflictualité et coopération entre les acteurs (Objet de travail conclusif)

Introduction

Problématique p.424-425- Dans l’Axe I, nous avons mesuré l’importance de la production et de la diffusion de la connaissance pour les États et les sociétés. Nous avons étudié l’intensification des échanges entre les scientifiques depuis le XVIe siècle, l’implication des États dans la démocratisation du savoir à travers l’exemple de l’alphabétisation des femmes dans le monde, et les inégalités qui persistent dans ce domaine.

Dans l’Axe II, nous avons vu que la connaissance est un instrument de pouvoir politique. Elle participe de la puissance militaire d’un État par l’intermédiaire du renseignement, et de son pouvoir économique dans des sociétés marquées par l’innovation technologique. Entre concurrence comme au temps de la guerre froide et coopération parfois nécessaire, la connaissance est un élément majeur des relations internationales.

Avec cet objet de travail conclusif, nous allons découvrir comment la production et la diffusion de la connaissance ainsi que la manière dont les États la favorisent ou la contrôlent s’appliquent dans le domaine du cyberespace -Vocabulaire p.426. La révolution numérique provoquée par l'adoption massive des technologies de l'information et l'interconnexion mondiale des systèmes d'information et de communication a connu une accélération fulgurante au cours des deux dernières décennies. Elle a entrainé un bouleversement profond des pratiques sociales, économiques et politiques des sociétés humaines, plus important peut-être que les ruptures engendrées par l'invention de l'écriture et de l'imprimerie. Des pans entiers de la connaissance et de l'activité humaine sont désormais transformés en données numériques, dont le volume connait une véritable explosion. Réseau planétaire sans frontières, source de conflictualité et de coopération, le cyberespace représente un défi pour la sécurité et la souveraineté des États, entre liberté de l’information et contrôle des données qui y circulent.

Quel enjeu le cyberespace constitue-t-il à l’échelle mondiale ?

A.    Le cyberespace, entre réseaux et territoires (infrastructures, acteurs, liberté ou contrôle des données…)

Carte p.426-427. Le cyberespace : acteurs, contrôles et menaces- Le cyberespace, né de l’interconnexion des réseaux de télécommunication numérique, défie les représentations classiques du territoire -doc.1 p.430. Le cyberespace est-il un territoire ? en permettant des échanges immatériels transfrontaliers quasi instantanés. Les acteurs du cyberespace mettent en œuvre des stratégies pour se l’approprier, le contrôler ou en défendre l’indépendance.

1.     Définitions, enjeux

a.       Bienvenue dans la Matrice

Le cyberespace est un espace immatériel (parfois qualifié de « virtuel »[88]) qui émerge à la fin du XXe siècle. Il désigne l’ensemble des systèmes d’échange de données numériques, devenues aujourd’hui si massives qu’on parle de « big data » -Vocabulaire p.428 ou « mégadonnées ». La datasphère ainsi constituée peut se concevoir comme la représentation d'un nouvel ensemble spatial formé par la totalité des données numériques et des technologies qui la sous-tendent, ainsi que de leurs interactions avec le monde physique, humain et politique dans lequel elle est ancrée.

Le cyberespace se présente donc comme un ensemble de couches superposées :

  • La première couche est constituée par l’infrastructure physique du réseau, composée de terminaux (ordinateurs, smartphones…) et d’équipements de réseaux (serveurs, câbles, satellites…) -cet espace « virtuel » présente des externalités très concrètes[89] -Carte 2 p.430. Réseaux de câbles sous-marins et datacenters + Les data centers dans le monde p.428!
  • La deuxième couche est l’infrastructure numérique qui comprend les systèmes d’exploitation (Windows, Linux, macOS…) et les applications assurant la transmission des données.
  • La dernière est celle du contenu informationnel échangé entre utilisateurs.

Cet ensemble spatial « immatériel » est le nouvel environnement dans lequel nous évoluons par l'adoption des technologies, des services, des infrastructures et des armes engendrés par la révolution numérique. Il possède sa propre géographie, dont on sait encore très peu de choses. Pourtant, cette géographie du cyberespace (certains préfèrent parler de « datasphère ») est indispensable à la compréhension du monde contemporain et des rivalités de pouvoir géopolitiques. Son étude peut révéler des déséquilibres et des rapports de force, des stratégies d'acteurs, des manœuvres et des affrontements qui s'opèrent dans et hors de la datasphère.

b.      Les enjeux de la maîtrise du cyberespace

À des fins commerciales ou politiques

Les données numériques reflètent à la fois le monde physique et les activités humaines. Associées à de puissants algorithmes, ces données au volume vertigineux permettent d'analyser dans les moindres détails nos déplacements, nos occupations, nos échanges sociaux, nos centres d’intérêt, nos comportements commerciaux. Nos traces numériques permettent des analyses prédictives sur nos besoins et nos comportements à des fins commerciales ou politiques :

  • Le cyberespace est au cœur d’enjeux marchands. Les données personnelles privées peuvent être exploitées commercialement par les entreprises du numérique.
  • Le cyberespace est au cœur d’enjeux politiques, quand se mettent en place des formes de gouvernance numérique, par exemple dans certains pays d’Asie, en particulier (mais pas seulement) la Chine[90]. Avec la multiplication des objets connectés, les systèmes de surveillance soulèvent des préoccupations en termes de liberté -doc.4 p.431. Une restriction des libertés à l’ère de la data surveillance + Points de vue p.434-435. Le cyberespace : une menace pour les libertés individuelles ? + Sujet bac p.438-439. Internet en Chine.

Elles poussent ainsi les entreprises, les institutions et les États à entamer leur propre transformation numérique : la capacité à collecter, stocker, croiser et exploiter les données est désormais au cœur de l'innovation, moteur de la croissance économique, du pouvoir, mais aussi de multiples enjeux éthiques, démocratiques, de gouvernance et de légitimité.

À des fins de renseignement ou d'opérations militaires extérieures

Plus largement, et même si le concept même de cyberguerre ne fait pas consensus dans le monde académique[91], les années 2010 ont vu l’émergence de la représentation du cyberspace comme un nouveau domaine militaire. Les cyber opérations font désormais partie de l’arsenal des plus grandes armées et viennent en appui de tous les moyens utilisés pour faire la guerre.

Pendant des années les États les plus avancés ont profité de l'opacité de l'espace numérique pour mener des opérations offensives en toute discrétion et en toute impunité. Mais la technologie, largement accessible et à faible coût, est désormais à la portée d'un nombre beaucoup plus important d'acteurs, étatiques et non étatiques, acteurs de plus en plus entreprenants, imaginatifs… et agressifs. Les technologies numériques, par leur disponibilité et leur faible coût, rendent accessibles à une multiplicité d'acteurs de redoutables vecteurs d'attaques. On distingue plusieurs types d’attaques numériques : le cyberespionnage (s’introduire dans un système pour y dérober des données) -Vocabulaire p.426, le sabotage (empêcher un système de fonctionner)[92], la subversion informationnelle (ingérences déstabilisatrices pour les cibles des attaques). La décennie 2010 a ainsi été marquée par une diversification des cibles et une diversification des acteurs -doc.5 p.431. Agresseurs et victimes dans le cyberespace.

La transformation numérique des sociétés les rend de plus en plus dépendantes au cyberespace, dont la stabilité est désormais essentielle à leur bon fonctionnement. Or la multiplication des objets connectés mal sécurisés[93], accroît constamment la surface d'attaque. Autrement dit, plus une société est connectée et dépendante au numérique, plus le nombre de points de vulnérabilité est important.

2.     Stratégies d’acteurs : entre conflictualités et coopérations

De multiples acteurs publics et privés coopèrent et s’affrontent dans le cyberespace. Aux côtés des particuliers, des entreprises (GAFAM -Vocabulaire p.429), des organismes indépendants[94] et des acteurs publics (États, collectivités), de nouveaux acteurs nés du numérique l’investissent[95].

a.       Conflictualités

Une menace plus présente, complexe, protéiforme et imprévisible

La multiplication des attaques a révélé la vulnérabilité mais aussi l'impréparation des États, y compris les plus avancés, face à cette menace évolutive et protéiforme. Dès 2007, les cyberattaques -Vocabulaire p.426 contre l'Estonie ont servi de catalyseur à la matérialisation de la cyberguerre et continuent d'influer sur la manière dont les États se représentent les menaces futures de cyberguerre. Menées dans le contexte de manifestations de la minorité russophone contre le déplacement de la statue du Soldat de bronze à Tallinn, ces attaques avaient paralysé les sites Web de nombreuses organisations du pays, dont des banques, des médias, des ministères et le parlement. Dès l’année suivante, en juillet 2008, une vague de cyberattaques contre des sites géorgiens précédait de peu l’entrée des chars russes dans le pays, inaugurant la première cyberattaque connue combinée à une opération militaire au sol. Ces attaques ont suscité une prise de conscience des États, étant donné leur dimension publique et spectaculaire. En 2010, Stuxnet a inauguré la première attaque majeure contre une infrastructure critique, dans une tentative conjointe des Etats-Unis et d'Israël d'enrayer le programme nucléaire iranien.

En 2013, les révélations d'Edward Snowden ont démontré comment les pratiques d'espionnage pouvaient atteindre une ampleur inédite à une échelle insoupçonnée grâce à l'interconnexion planétaire des systèmes d'information et de communication, suscitant une brutale prise de conscience de nombreux pays, notamment européens, de leur grande dépendance aux plateformes et technologies numériques américaines. En 2014, les attaques contre l’entreprise de divertissement Sony Pictures ont pris le gouvernement américain complètement par surprise, démontrant que les attaques à effet stratégique pouvaient aussi toucher de grandes entreprises, à l'instar de l'attaque TV5 Monde en 2015 -doc.5 p.433. La cyberattaque contre TV5 Monde.

Puis, en 2015, la surprise est venue de l’usage sophistiqué des réseaux sociaux par l'État islamique pour diffuser sa propagande, favoriser la radicalisation en ligne, trouver de nouvelles recrues, lever des fonds, organiser des départs vers la Syrie et fomenter des attentats. Elle a contraint les démocraties occidentales, très focalisées sur les attaques techniques, à élargir leur approche pour prendre en compte les opérations informationnelles. Cela n'a pourtant pas empêché l'administration américaine de se faire surprendre par les opérations d’ingérence attribuées à la Russie dans l'élection présidentielle de 2016, auxquelles elle n'était visiblement pas préparée. Les opérations de manipulations de l'information à des fins d'ingérence ou de déstabilisation des démocraties mobilisent désormais une grande attention.

En 2016, un scénario longtemps redouté s'est concrétisé avec l'attaque des serveurs de l'entreprise Dyn par la manipulation d'un réseau d’objets connectés (caméras, imprimantes, etc.), signifiant l'expansion du champ des vulnérabilités et la démultiplication des vecteurs d'attaques. Enfin les attaques de WannaCry et NotPetya[96] -Rançongiciel : vocabulaire p.429, en 2017, ont inauguré l'ère des attaques à propagation massive, incontrôlable et fulgurante, causant les dégâts les plus importants jamais enregistrés en touchant de manière indiscriminée dans plus de 150 pays des dizaines d’entreprises et d'institutions qui n'étaient pas initialement visées par l'attaque. Elles ont démontré non seulement le besoin de protéger les systèmes mais aussi d'être en mesure de réagir très vite pour parer à la contamination rapide, démontrant le risque systémique lié à l'interconnexion des réseaux.

Le cyberespace, un nouvel espace de confrontation dans les rivalités géopolitiques

Ces évolutions ont exacerbé une course aux cyberarmes, dans une dynamique de militarisation du cyberespace qui a conduit les États à en faire un champ d'affrontement privilégié. Le contrôle du cyberespace est devenu une priorité stratégique pour les États. À l’échelle mondiale, la datasphère reflète les tensions internationales : Russie vs États-Unis, États-Unis vs Chine, etc.

La Chine a pour ambition de devenir la « cyberpuissance majeure » -Vocabulaire p.426, un objectif élevé au rang de priorité absolue par les autorités chinoises. Depuis la fin des années 1970, la science et la technologie jouent un rôle important dans les projets de réforme en Chine. Pour rattraper son retard sur les pays occidentaux, les dirigeants chinois ont élaboré plusieurs programmes d'investissements massifs dans l'éducation et la recherche, adapté les politiques publiques existantes pour permettre l’acquisition de technologies étrangères, et essayé de stimuler le développement de la propriété intellectuelle dans le pays. En abordant de nouvelles sources de croissance liées au numérique, l’économie chinoise s’est éloignée du modèle des années 1990 (fondé sur les exportations et les industries à faible valeur ajoutée) et a progressé dans la chaîne de valeur. Ces dernières années, le gouvernement chinois a accéléré ses

efforts -Les 10 États ayant le plus grand nombre d’utilisateurs d’Internet p.427, une dynamique incarnée par la création début 2014 du Groupe gouvernemental pilote pour la cybersécurité -Vocabulaire p.426 et l’informatisation[97]. Cet organe, présidé par Xi Jinping en personne, est chargé de diriger la politique numérique du pays : diplomatie numérique, questions de sécurité, protection des données, contrôle des contenus (c’est-à-dire à la fois les infrastructures, les contenus et les données). Dans le langage politique chinois, la notion de pouvoir dans le cyberespace est toujours vue par le Parti communiste chinois (PCC) comme un élément du contexte plus général du développement national. En quelques mots, le PCC cherche à restaurer la richesse et la force de la Chine, et ainsi accomplir le « rêve chinois » de régénération nationale. Cette politique s'est construite en opposition au rôle joué dans le paysage numérique mondial par les États-Unis, puissance qu'elle perçoit comme son seul réel homologue et seul potentiel danger en raison de la supériorité de ses ressources.

L’approche étatsunienne des cyber opérations, théorisée à partir de 2009 avec la création d’un cybercommand, a connu un tournant en 2018, avec l’adoption d’une stratégie de persévérance et de confrontation continue (Persistent Engagement), qui doit permettre de contrer les menaces à leur source (Defend Forward), afin d'augmenter la sécurité des États-Unis et de conforter leur position stratégique. Persistent Engagement est révélatrice de la façon dont les représentations se sont cristallisées aux États-Unis autour de la nécessité de reprendre l'initiative et de mener des opérations offensives : il s’agit d’une « stratégie de primauté ». Cet ajustement de la posture américaine dans la conflictualité numérique sous la présidence Trump incarne une « théorie de la victoire », c'est-à-dire une refonte de la cyberstratégie américaine entamée par Obama. En effet, le récit stratégique et politique qui prévaut alors affirme que la patience stratégique manifestée par Obama dans le domaine des attaques numériques a diminué la sécurité américaine. Cela témoigne d'une représentation qui associe la sécurité nationale des États-Unis à l'affirmation d'un statut particulier sur la scène internationale, à savoir l'hégémonie. Menacée, celle-ci doit être rappelée au moyen de la coercition et à partir d'une position dominante. Il faut donc mobiliser les leviers de l'hégémonie plutôt que de rechercher la stabilité globale du système. La compétition entre les grandes puissances nécessiterait d'accepter, voire de rechercher, la confrontation. Ainsi, sa logique opérationnelle (créer de la friction[98]) converge avec la logique stratégique du rétablissement de la supériorité américaine. Pour certains observateurs, la stratégie du Persistent Engagement constituerait une approche réductrice et potentiellement déstabilisatrice de la conflictualité numérique[99], et contribue directement à l'accélération de la course aux cyberarmes.

Cependant, la Russie n’a pas attendu 2018 pour se doter des moyens d’une cyberpuissance. Depuis les attaques menées contre l’Estonie (2007) et la Géorgie (2008), la Russie est régulièrement mise en cause dans des cyberattaques massives et parfois spectaculaires. Autres exemples emblématiques, une cyberattaque similaire menée en 2014 contre l’Ukraine pendant l’annexion de la Crimée ou encore contre la Géorgie en 2020. Pirates, mercenaires, soutenus ou non par Moscou… l’origine des cyberattaques dont la Russie est soupçonnée est floue, bien que les motivations, souvent ouvertement nationalistes, font pencher pour un soutien de l’État à ces opérations. Les cyberattaques contre l’Estonie, la Géorgie et l’Ukraine sont caractéristiques d’opérations défendant les intérêts russes dans les anciennes Républiques soviétiques (« étranger proche ») et pouvant avoir été soutenues par l’État. Ces dernières années, la conceptualisation de la guerre en Russie a peu à peu évolué pour intégrer des moyens non militaires à côté des moyens armés traditionnels, par exemple à travers le concept de « guerre de l’information », de plus en plus souvent présentée comme faisant partie intégrante des conflits modernes. La stratégie russe sous-tendant les cyberattaques s’appuie sur la vision russe d’un continuum entre cyberespace et « espace informationnel ». La stratégie cyber russe est ainsi intrinsèquement liée à sa stratégie de guerre de l’information : les campagnes de désinformation menées par des trolls russes s’accompagnent souvent de cyberattaques, et vice-versa,

comme cela a été le cas pendant l’élection présidentielle américaine de 2016. Bien que la posture officielle de la Russie soit défensive, le rôle des cyberarmes offensives dans la vision russe du conflit est régulièrement analysé dans les revues militaires russes. Les acteurs et agences impliqués dans les cyberopérations russes ont évolué en même temps que la perception des menaces générées par les technologies de l’information, du recours à des hackeurs -Vocabulaire p.429 indépendants au début des années 2000 à l’instauration d’unités scientifiques militaires (2013) et d’une « force de cyber opérations » (2014). Les 20 dernières années ont ainsi vu s’établir un nouvel équilibre dans le cyberespace avec l’affirmation de la cyberpuissance russe. La Russie assume aujourd’hui ses ambitions cybernétiques grâce à la structuration et à la militarisation progressive de ses capacités cyber aux côtés de ses capacités de guerre de l’information, qu’elle utilise souvent de concert. Si l’attribution des cyberattaques n’est pas certaine, il est évident que les opérations cyber imputées à la Russie servent aujourd’hui ses intérêts et renforcent la conflictualité entre la Russie, les États-Unis et la Chine dans le cyberespace.

b.      Coopérations

Entre acteurs étatiques

Les États font face à un dilemme sécuritaire à propos des opérations offensives dans le cyberespace, qui oppose deux représentations du risque cyber, suscitant des tensions complexes et des objectifs parfois irréconciliables :

  • D’un côté, les États se représentent la menace cyber comme un risque systémique, autrement dit un phénomène extrêmement complexe, transfrontalier, pas nécessairement d'origine étatique et qui à l’image des pandémies peut se répandre très rapidement, s'avérer très difficile à stopper et entraîner des dommages massifs. Il est dès lors dans l'intérêt de tous les acteurs de stopper la contagion. Cette approche du risque plaide pour une coopération renforcée entre gouvernements et avec les acteurs privés, et une limitation des armes, dans l'intérêt commun de la stabilité du système.
  • Mais, d'un autre côté, la menace cyber est d'abord une menace géopolitique pour les États, puisque les outils offensifs sont utilisés par leurs adversaires pour accroître leur pouvoir en appui du renseignement, de l'espionnage, de l’influence, etc. Juguler ce risque entraîne les États dans la direction opposée, celle du développement d'un arsenal offensif et d'une coopération limitée pour protéger leurs capacités souveraines (notion de « souveraineté numérique ».

La seconde approche domine clairement les représentations des États aux capacités les plus avancées, comme en témoigne la course aux cyberarmes à laquelle ils se livrent et les doctrines offensives qu'ils ont développées en l'espace de quelques années. Source de défiance entre États, elle les encourage à renforcer leur contrôle « territorial » du cyberespace. Elle limite leur capacité à se mettre d'accord sur les modalités de régulation du comportement des États dans le cyberespace et l'interprétation du droit international. Les États se trouvent ainsi face au même type de dilemme que lors de la prise de conscience des dangers du nucléaire. Or la technologie numérique est à la portée d'énormément d'acteurs, et pas seulement des États, qu'elle est plus facile à voler et réutiliser qu'un missile nucléaire, elle nécessite une approche totalement différente de la contre-prolifération.

Des discussions sur la régulation du cyberespace sont mises en place au niveau international. Dès 1998, l’ONU adopte une résolution sur la cybersécurité et en 2001, et l’Assemblée générale crée un groupe d'experts gouvernementaux (GGE) pour entamer des discussions sur les enjeux de sécurité des technologies de l'information et de la communication (TIC). Les trois rapports qui ont été produits par les GGE successifs[100] illustrent la prise de conscience par les États de leur propre vulnérabilité et de l'existence d'un risque systémique, et de la nécessité que le droit international s’applique au cyberspace[101]. L'espace numérique n'est donc plus ce « Far West numérique » dans lequel seule la loi du plus fort domine, au moins en théorie. Toutefois les modalités de régulation du cyberespace, liées à la représentation du risque géopolitique sont l’objet de profondes dissensions :

  • D'un côté, une partie des États, dont les États-Unis, estiment que le droit international existant suffit à réguler les comportements et argumentent en faveur d’engagements politiques des États, via des normes non contraignantes, qui ne créent pas de nouvelles obligations internationales.
  • De l'autre côté, certains États, notamment la Russie, considèrent que le droit existant ne suffit pas à réguler le comportement des États dans le cyberespace. Il faut donc de nouvelles règles, de nouveaux droits et obligations contraignantes dans le but de compléter le droit international, via un traité.

C’est dire à quel point l’élaboration d'un consensus entre les États est chose ardue. Néanmoins, des avancées majeures ont pu être opérées. Ainsi, les États se sont mis d'accord en 2015 sur une série de normes non contraignantes pour réduire les risques pour la paix, la sécurité et la stabilité internationales, qui interdisent par exemple les cyber opérations causant des dommages intentionnels aux infrastructures d'importance vitale. Les États ne devraient pas sciemment autoriser des cyber-opérations malveillantes depuis leur territoire. Ils s'engagent à notifier les vulnérabilités de manière responsable, lutter contre la prolifération des techniques et outils informatiques malveillants, échanger de l’information et se prêter mutuellement assistance. L'adoption de ces normes montre donc une volonté commune d'assurer la sécurité et la stabilité de l'espace numérique. Mais depuis 2016-2017, les négociations sont dans l’impasse, dans un contexte géopolitique tendu.

L’implication d’acteurs non-étatiques

En conséquence, des acteurs non étatiques, confrontés eux aussi au risque systémique, ont cherché à s'impliquer directement dans ces discussions à travers différentes initiatives. En 2017, Brad Smith, président de Microsoft, lance un appel en faveur de l'élaboration d’une convention de Genève du numérique. S'inspirant des conventions de Genève de 1949, il appelle les États à protéger les infrastructures et les citoyens contre les attaques informatiques en temps de paix, et à créer une organisation internationale sur le modèle de l’Agence internationale de l'énergie atomique. Au même moment, lors de la conférence de sécurité de Munich, la Global Commission on the Stability of Cyberspace (GCSC) lance ses travaux. Créée à l’initiative du ministre des Affaires étrangères des Pays-Bas avec le soutien de grandes entreprises et de quelques États, cette commission indépendante regroupe 28 experts internationaux venus du secteur privé, du monde académique, de la communauté technique et des organisations non gouvernementales, chargés de proposer de nouvelles normes pour maintenir la sécurité et la stabilité dans l'espace numérique.

Entre 2017 et 2019, ces acteurs ont joué un rôle important dans les débats portant sur la sécurité et la stabilité de l'espace numérique. La GCSC a ainsi proposé huit normes de comportement[102] dont plusieurs ont été intégrées dans l'Appel de Paris en novembre 2018[103] et le Cybersecurity Act adopté en mai 2019 par l'Union européenne. Le point d'orgue de cette logique réside dans la création fin 2019, par Microsoft, MasterCard et la Fondation Hewlett, du CyberPeace Institute qui dispose d'une fonction d'accountability afin d'évaluer le respect des normes de comportement et du droit international par les États. De même, la désignation en janvier 2020 par Microsoft d'un représentant spécial chargé des questions onusiennes illustre la volonté de l'entreprise d'influencer directement les discussions internationales. L’apport des acteurs non étatiques dans les discussions internationales est reconnu de plus en plus largement, même s'il reste perçu de manière diverse.

Le paysage des négociations internationales devient ainsi particulièrement foisonnant voire confus, avec une multiplication des acteurs, des initiatives et des propositions visant à promouvoir la paix et la stabilité du cyberespace. Il risque de conduire à des incohérences ou des ambiguïtés qui laissent une marge de manœuvre aux États pour poursuivre leurs hostilités en relative impunité. Quelle que soit la tournure que prendront les négociations, le risque systémique restera nécessairement élevé en raison des intérêts stratégiques divergents des États parce que le cyberespace ça sert, d'abord, à faire la guerre, et que sa régulation reste le résultat des « politiques juridiques extérieures » des États et donc de la défense de leurs intérêts.

B.    Cyberdéfense, entre coopération européenne et souveraineté nationale : le cas français

Les cyberattaques menées contre l’Estonie en 2007 et contre le ministère français des Armées en 2017 ont déclenché une prise de conscience des nouvelles menaces qui pèsent sur la souveraineté des États. Pour y faire face, la France développe une politique de cyberdéfense impliquant une coopération d’acteurs nationaux et européens.

1.     Enjeux

L’affaire Snowden, et plus récemment l’affaire Cambridge Analytica, ont joué un rôle déclencheur dans la prise de conscience de la dépendance de la France et des États européens vis-à-vis des entreprises américaines du numérique. Ces deux affaires ont révélé à la fois les abus des services de renseignement étatsuniens en matière de captation des données personnelles[104], mais également ceux d'entreprises exploitant les données personnelles sur les plateformes numériques américaines à des fins d'influence politique dans les processus électoraux. Par ailleurs, la dépendance européenne vis-à-vis des plateformes américaines a également été préjudiciable à travers la question de la régulation des contenus : qu'il s'agisse de combattre la propagande des groupes terroristes ou certaines manipulations de l'information, la France et les États européens rencontrent des difficultés à faire respecter leurs législations par les géants du Web. Cette prise de conscience, renforcée par l’augmentation des attaques informatiques attribuées à l'État russe, les stratégies d'influence numérique de médias d'origine russe, ou encore la montée en puissance des entreprises chinoises en matière d'intelligence artificielle (I.A.) et de technologies 5G, a favorisé l’émergence de discours en faveur d'une « souveraineté numérique » française et/ou européenne.

Mobilisée pour justifier une émancipation de la tutelle américaine, la « souveraineté numérique » présentée par différents acteurs français depuis 2010 recoupe des enjeux économiques, identifiables dans les sanctions infligées par la Commission européenne à Google, Apple et Microsoft :

  • Du fait de l’accusation d’abus de positions dominantes potentiels.
  • Du fait également de pratiques d’optimisation fiscale jugées illégales

Mais l’emploi du terme « souveraineté numérique » pour aborder des enjeux stratégiques prête à confusion. Il est en effet basé sur la représentation d'une perte de souveraineté de l'État dans l'espace numérique et d'une volonté de réappropriation du cyberespace, perçu comme un territoire à reconquérir[105]. Or ce postulat est un non-sens du point de vue du droit international, puisque tout État indépendant est souverain. En revanche, la révolution numérique vient effectivement bouleverser les modalités de l'exercice de cette souveraineté parce qu'elle permet des activités transfrontières et parce qu'elle offre des moyens d'action à distance pour espionner et saboter des réseaux en dissimulant son identité et en s'abritant derrière des juridictions multiples. Aussi, les spécialistes en matière de défense et de sécurité mobilisent-ils davantage le concept d'autonomie stratégique, perçue comme le moyen pour la France d'exercer sa souveraineté et visant à détenir une capacité autonome d'appréciation, de décision et d'action pour :

  • Développer des capacités militaires permettant à la France d'assurer ses engagements militaires.
  • Protéger les informations stratégiques de l'État français[106].
  • Prévenir les risques d'entrave des capacités de défense et systèmes d'armes français.

Depuis 2009, la France dispose ainsi de l’Agence nationale de la sécurité des systèmes d’information (ANSSI -Vocabulaire p.428) et d'une force armée de cyberdéfense de 3 400 cyber-combattants (COMCYBER) -doc.1 p.432. L’organisation de la cyberdéfense française + doc.2 p.431. La stratégie française de cyberdéfense + doc.3 p.431. Des cyber-combattants lors d’un exercice de cyberdéfense européen.

Le recours au terme d'autonomie stratégique présente en outre l'avantage de ne pas exclure les coopérations indispensables entre États et s'applique ainsi aisément à l'échelle européenne. En effet, l’autonomie stratégique numérique ne peut se concevoir que dans l'interdépendance car l'interconnexion mondiale des réseaux numériques et la conception des technologies, reposant sur de nombreux composants (software et hardware) et compétences, excluent par définition un raisonnement à la seule dimension nationale. Elle comprend donc un raisonnement à l’échelle nationale pour les technologies jugées les plus critiques, mais impose un raisonnement à l'échelle européenne pour développer et faire émerger des technologies avec des partenaires de confiance. La dimension européenne de cette recherche d'autonomie stratégique numérique est affichée au plus haut niveau des objectifs stratégiques français.

De fait le concept d'autonomie stratégique a fait son entrée dans la politique européenne, y compris dans les documents d'orientation stratégique en matière de sécurité et d'affaires étrangères. Mais l'attitude à adopter vis-à-vis des États-Unis est au cœur des discussions sur l'autonomie stratégique européenne et constitue l'un des points de crispation quant aux risques qu'elle pourrait faire peser sur les relations transatlantiques, particulièrement en matière de défense[107].

2.     Perspectives

Le degré de crédibilité du discours national ou européen sur l'autonomie stratégique numérique s'apprécie au regard de la confrontation avec le réel, c'est-à-dire avec l'état du tissu scientifique, socioéconomique et industriel mobilisable. Or sans organismes de recherche à la pointe des progrès scientifiques, sans un appareil industriel maîtrisant les technologies clés du numérique et sans un environnement socioéconomique prêt aux efforts et aux sacrifices en sa faveur, la volonté politique de maîtriser notre sécurité dans le cyberespace se trouve dénuée de toute portée effective. À cet égard, en l’état actuel des choses, ni la France ni l'Europe ne disposent des fondements socioéconomiques et industriels de leur souveraineté numérique.

En effet, l’avenir de l’espace numérique souverain, notamment militaire, se joue principalement autour de trois technologies critiques :

  • L’intelligence artificielle (IA), qui révolutionne les processus de prise de décision.
  • L’informatique quantique, qui remet en cause les systèmes de chiffrement en vigueur dans les forces armées ;
  • La 5G, qui augmente la vitesse et le volume des flux d’information, et le potentiel de connexion.

Sur cet ensemble de technologies critiques, un duopole sino-américain est constitué, la Chine cherchant à contester le leadership des États-Unis en s’appuyant sur les forces dont elle dispose. Quoi qu'il en soit du rapport de force actuel et de son évolution possible entre les deux leaders, le duopole sino-américain apparaît solidement établi[108]. L'émergence d'un nouvel acteur capable de perturber significativement l'équilibre duopolistique qui s'est établi dans les technologies critiques de la souveraineté numérique semble donc improbable.

Le discours de la souveraineté numérique témoigne d'une volonté politique forte, mais dont la crédibilité est sujette à caution au regard de l’avance grandissante prise par le duopole sino-américain. Cela ne signifie pas pour autant que la France et l'Europe n'ont plus d’autre choix que de s'aligner sur le moins mauvais des deux membres du duopole et de renoncer à toute autonomie décisionnelle quant aux enjeux cruciaux de l'espace numérique. Il est possible de développer certaines formes d'autonomie stratégique, en matière militaire notamment, fondées sur le développement d'écosystèmes numériques locaux engendrant innovation coopérative et compétitivité -doc.4 p.433. Le pôle d’excellence cyber en Bretagne. Deux priorités semblent s’imposer :

  • Revoir les dispositifs visant à mettre en synergie acteurs publics et privés en tenant compte des apports de la géographie économique contemporaine. La logique générale des politiques visant à promouvoir la souveraineté numérique est de considérer qu'il n'est point de salut en dehors de l'articulation la plus étroite possible des acteurs publics et privés. En soi, le principe de coopération des acteurs apparaît vertueux à plusieurs égards. Mais pour autant, il ne suffit pas de réunir l'ensemble des parties prenantes du numérique au sein de structures coopératives toujours plus intégrées pour obtenir les effets positifs d'un écosystème d'affaires comme celui de la Silicon Valley. L'ambition de rapprocher les différentes parties prenantes (organismes de recherche, entreprises, administrations locales, militaires...) doit s'accompagner d'une réflexion sur le degré optimal de proximité de ces acteurs et les modalités de leur coopération.
  • Concentrer le soutien aux écosystèmes d'innovation coopérative autour d’acteurs soutenant la comparaison avec les concurrents chinois et américains. La dynamique collective de l’innovation peut revêtir des formes très diverses selon les contextes locaux, le domaine d'activité, la diversité des acteurs impliqués, etc. Ainsi, la complémentarité des trois modèles du district industriel, du cluster et du pôle de compétitivité et leur complémentarité doit être optimisée à l’échelle nationale et européenne, et adopter les modes de gouvernance appropriés[109].

La domination du duopole sino-américain est probablement irréversible dans les technologies critiques qui seraient aujourd'hui nécessaires pour construire une souveraineté numérique au sens le plus fort du terme. En revanche, les compétences propres des acteurs européens dans certains domaines du numérique ainsi que l'émergence de nouvelles technologies critiques (l’informatique quantique ou l'intelligence artificielle par exemple) devraient conduire à une politique sélective de soutien à des acteurs susceptibles de tenir leur rang dans la compétition avec leurs homologues américains ou chinois. De la sorte, l'Europe pourrait se doter d’une réelle autonomie stratégique sur la base de ces compétences limitées mais essentielles. Autant la conquête générale de la chaîne du numérique paraît exclue du fait du retard pris et de l'énormité du ticket d’entrée qu'il serait nécessaire d'acquitter, autant une politique ciblée concentrant les ressources limitées dont dispose l'Europe pourrait avoir une efficacité politique, économique et militaire suffisante pour lui permettre d'affirmer ses valeurs et ses préférences.

La mise en œuvre du concept d'autonomie stratégique européenne en matière de numérique s’avère possible mais complexe, tant dans sa dimension politique que dans sa dimension industrielle. Et l'usage politique qui est fait du terme de « souveraineté numérique » dans le débat public n'est pas de nature à faciliter l'émergence d'une compréhension commune entre les États membres de l’Union européenne. Pourtant, cette compréhension commune s'avère particulièrement cruciale au regard des enjeux du numérique, qu’ils soient technologiques, démocratiques, éthiques, économiques ou encore de sécurité.

Conclusion

Révisions p.436-437

Sujets bac p.438-439

Conclusion du thème

Révisions p.440-441

Sujet bac p.442-443 (grand oral)


[1] « Si le terme « connaissance » est utilisé de façon générique, il est souvent employé pour désigner non pas tous les domaines du savoir, mais plus particulièrement la connaissance scientifique et technique qui conditionne  le  progrès  technique, lui-même déterminant pour l’innovation et la performance des secteurs d’activité intensifs en connaissance » in Martine Azuelos, L’économie de la connaissance aux États-Unis : concepts, institutions, territoires, LISA, volume WIV-n°1 2016 https://doi.org/10.4000/lisa.8838

[2] Cf Marshall McLuhan et Derrick Kerckhove in J.-P. Alix, « Société de la connaissance, réforme ou révolution », Natures Sciences Sociétés19, 277-281 (2011) https://www.cairn.info/revue-natures-sciences-societes-2011-3-page-277.htm

[3] …Cf. son article As We May Think dans la revue Atlantic Monthly. Par ailleurs, Vannevar Bush est connu pour avoir conceptualisé le premier la navigation par lien hypertexte.

[4] Science qui utilise les résultats de la théorie du signal et de l'information pour développer une méthode d'analyse et de synthèse des systèmes complexes, de leurs relations fonctionnelles et des mécanismes de contrôle, en biologie, économie, informatique, etc.

[5] « Cybernetics, or Control and Communication in the Animal and the Machine » (1948).

[6] Il naît à Vienne, fait des études de droit à Francfort tout en travaillant dans une société textile à Hambourg. En 1933, il émigre en Angleterre puis aux États-Unis. Il travaille pour General Motors pour créer de nouvelles méthodes d’organisation (1946), devient consultant et professeur de management à la New York University (1950-1971) puis en Californie (Université de Claremont). Ce n’est pas un penseur en science sociale (son apport est surtout dans la théorie du management), mais c’est à lui que l’on attribue la formule de « société de la connaissance ».

[7] …visant à faire de l’UE en 2010 « l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale »

[8] Philippe Breton, « La société de la connaissance : généalogie d’une double réduction », De Boedck Supérieur, 2005/1n°15 https://www.cairn.info/revue-education-et-societes-2005-1-page-45.htm

[9] Stéphane Van Damme Sciences en société, Documentation photographique, janvier-février 2017 n°8115

[10] Geneviève Dumas, « Flux immatériels et diffusion des idées scientifiques au Moyen Âge », Siècles [En ligne], 46 | 2019. URL : http://journals.openedition.org/siecles/4333

[11] Cf. l'accroissement du nombre d'étudiants étrangers en France : en 1898, sur 12 000 étudiants, 20% viennent de Russie, 19% de Roumanie, 13% de Turquie.

[12] En France, le Journal des Sçavans a été créé en 1665 par l’Académie de Sciences ; en Angleterre, il s’agit de la revue Philosophical Transactions éditée la même année par la Royal Society.

[13] Le Science Citation Index recense 6126 journaux, l’Elseviers’s Scopus recense 15000 revues à comité de lecteur et la base de données Medline offre 19 millions de référence.

[14] Cf. https://atlasocio.com/classements/education/publications/classement-etats-par-nombre-publications-scientifiques-monde.php

[15] Frankenstein de Mary Shelley (1808) qui évoque les travaux de Darwin et les expériences anatomiques réalisées à Paris.

[16] François Arago (1786-1853) est un astronome, physicien et homme d'État français sous la IIème République.

[17] Les plus célèbres sont le Palais de la découverte et la Cité des sciences et de l'industrie de La Villette.

[18] …37 épisodes, qui s’inscrivent dans l’immense filmographie de l’auteur, et surtout dans la foulée de l’immense succès du film documentaire Le monde du Silence, tourné en 1956 et récompensé par une palme d’or et un Oscar.

[19] Cf. https://www.lemonde.fr/pixels/article/2021/01/14/wikipedia-fete-les-20-ans-d-une-belle-et-exigeante-utopie_6066271_4408996.html

[20] Le terme, non dénué d’ambigüité, est néanmoins contesté.

[21] Cf. André Vitalis, « La « révolution numérique » : une révolution technicienne entre liberté et contrôle », Communiquer [En ligne], 13 | 2015. URL : http://journals.openedition.org/communiquer/1494

[22] Cf. Frédéric Joignot, « Les 30 ans du Web : de l’utopie à un capitalisme de surveillance », lemonde.fr, 14 février 2019

[23] Juan Luis Vives (1492-1540), est un théologien, un philosophe et un pédagogue espagnol.

[24] Philippe Melanchthon (1497-1560) : un humaniste, philosophe et réformateur protestant allemand.

[25] Le concile a pour but de lutter contre les idées protestantes en matière de doctrine et de réformer le clergé catholique qui, jusque-là, était l'objet de critiques violentes. Le concile de Trente renforce l'unité des catholiques autour du pape dont la suprématie en matière de religion est affirmée.

[26]Elle est béatifiée en 1900 par le pape Léon XIII et canonisée le 15 mai 1949.

[27] Canonisée en 1767.

[28] François de Salignac de La Mothe-Fénelon dit Fénelon, né le 6 août 1651 au château de Fénelon à Sainte-Mondane et mort le 7 janvier 1715 à Cambrai, est un homme d'Église, théologien, pédagogue et écrivain français.

[29] Rassurez-vous, ils ont aussi 4 garçons...

[30] Maison fondée en 1686 par madame de Maintenon pour l'éducation des jeunes filles nobles et sans fortune, supprimée en 1790. Le site a accueilli l'École militaire de Saint-Cyr en 1808 (transférée à Coëtquidan en 1946), puis le Lycée militaire de Saint-Cyr en 1964

[31] « La femme est faite pour céder à l’homme et pour supporter même son injustice. » ; « Toute l’éducation des femmes doit être relative aux hommes. Leur plaire, leur être utiles, se faire aimer et honorer d’eux, les élever jeunes, les soigner grands, les conseiller, les consoler, leur rendre la vie agréable et douce : voilà les devoirs des femmes dans tous les temps, et ce qu’on doit leur apprendre dès l’enfance. », Jean-Jacques ROUSSEAU (1712-1778), L’Émile ou De l’éducation (1762)

[32] Institution aujourd’hui bicentenaire, les maisons d’éducation de la Légion d’honneur ont ainsi traversé tous les régimes politiques sous deux empereurs, trois rois et quatre républiques.

[33] À approfondir avec cette émission de France-Culture

[34]BARJOT D., CHALINE J.P., ENCREVÉ A., La France au XIXème siècle 1814-1914, PUF.

[35]Alphabétisation fonctionnelle : Se réfère à la capacité d'une personne à s'engager dans toutes les activités dans lesquelles l'alphabétisation est nécessaire pour le fonctionnement efficace de son groupe et de sa communauté et aussi pour lui permettre de continuer à utiliser la lecture, l'écriture et le calcul pour ses propres besoins et le développement de la communauté (UNESCO)

[36] France-Culture, « 750 millions d’analphabètes dans le monde mais des progrès », 8/09/2018.

[37] Concept reconnaissant une pluralité de pratique d’alphabétisation en fonction des situations économiques, sociales, culturelles, personnelles et collectives et tenant compte des progrès des technologies de l’information et de la communication.

[38] Article d’Anaïs BROSSEAU du magazine « La Croix », L’alphabétisation des femmes, un facteur de développement, 2014.

[39]Site de l’ONG Plan International.

[40] La république des lettres est le nom donné à l'utopie d'un espace partagé à l'époque moderne par ceux qui ont affaire au savoir et à l'écrit. […] Il dessine un espace commun, structuré par une même fin : la recherche et la diffusion du savoir, par des moyens propres de communication (voyages, correspondances et revues), peut-être surtout par une même idéologie ; il compte un certain nombre de citoyens d'honneur au cœur de l'Europe savante, Érasme et Grotius à l'âge humaniste, […] Bayle ou Voltaire pendant les Lumières. Cette corporation sans statut se trouve ainsi unifiée par des pratiques intellectuelles communes, par un habitus semblable, par une égalité postulée qui fait des gens de lettres des pairs, malgré leurs différences bien réelles de professions, de charges ou de confessions. (Source : universalis.fr)

[41] C'est-à-dire l'émission spontanée (sans apport d'énergie extérieure) de radiation par une substance inerte

[42] …en hommage au pays d’origine de Marie Curie, née Maria Skłodowska en 1867 en Pologne

[43] Pierre avait insisté auprès de l’Académie suédoise pour que Marie soit associée au prix « Les cahiers de science de vie » n°186, p.53

[44] Marie Curie repose depuis 1995 au Panthéon, aux côtés de Pierre. Cf. le très beau discours prononcé à cette occasion par le président de la République, François Mitterrand.

[45] Cf. introduction.

[46] Les congrès Solvay sont toujours organisés, depuis la fin de la Seconde Guerre mondiale, selon un cycle de trois ans : conseil de physique la première année, aucune conférence la deuxième et conseil de chimie la troisième.

[47] Dès 1914, elle s’est engagée dans une première campagne sur la base d’une voiture équipée du matériel de recherche en radiologie, empruntée à Claudius Regaud, co-directeur de l’Institut du radium et un des pionniers de la radiothérapie. L’objectif était bien sûr de limiter autant que faire se peut les déplacements des blessés, avant de radiographier leurs blessures. Cette discipline, inédite à l’époque, permettait de situer avec précision l’emplacement des éclats et faciliter ainsi l’opération chirurgicale. Celle-ci, selon la gravité, pouvait être différée et donc pratiquée en hôpital, ou immédiate, réalisée sur place.

[48] Au total, ce sont des centaines de postes fixes de radiologie créés au sein des hôpitaux militaires. Les archives citent le nombre de plus d’un million de blessés ayant été secourus grâce à ces installations, dont un millier par Marie Curie en personne.

[49] Revue générale nucléaire

[50] Utilisé dès 1901

[51] Les physiciens nucléaires Leó Szilárd, Edward Teller et Eugene Wigner (tous trois réfugiés juifs hongrois) sont convaincus que l'énergie libérée par la fission nucléaire peut être utilisée dans des bombes par l'Allemagne nazie. Ils persuadent Albert Einstein d'alerter le président des États-Unis, Franklin Roosevelt, dans une lettre du 2 août 1939 dont Szilárd fit le brouillon. La lettre sera remise par l'économiste Alexander Sachs au président le 10 octobre, après le début de la guerre en Europe. Après cela, Franklin Roosevelt autorise la création du Advisory Committee on Uranium, dont les membres se réunissent pour la première fois le 21 octobre sous la direction de Vannevar Bush.

[52] Brillante physicienne autrichienne, elle fuit l’Allemagne en 1938 avec l’aide de Hahn (qui y reste, tout en restant opposé au nazisme). Quand Hahn obtient le Prix Nobel de Chimie en 1944 pour leurs travaux, elle en est écartée. Cela restera pour elle une grande blessure.

[53] …auquel Lise Meitner refuse de participer, par hostilité au principe d’une bombe atomique.

[54] Impulsé par le général de Gaulle, avec la création du CEA mais il faut attendre le 4 novembre 1954 et le général Jean Crépin et le professeur Yves Rocard pour que démarre le programme militaire français. 13 février 1960, 1er essai à Reggane (Sahara) « Gerboise bleue ».

[55] « Devant les perspectives terrifiantes qui s'ouvrent à l'humanité, nous apercevons encore mieux que la paix est le seul combat qui vaille d'être mené. Ce n'est plus une prière, mais un ordre qui doit monter des peuples vers les gouvernements, l'ordre de choisir définitivement entre l'enfer et la raison ».

[56] En 1963, 13 ans après la pétition, Yves Montand était d'ailleurs interviewé dans l'émission "Sept jours du monde". Il évoquait notamment sa signature et les conséquences que cela a eu sur sa carrière pour lui et sa femme : "Je pense que ça serait crétin de ma part de ne pas m'intéresser aux problèmes qui se passent autour de moi. […] J’ai eu pas mal d’obstacles pendant une dizaine d’années. Pas seulement en Amérique mais aussi dans mon pays que j’aime bien. Le fait d’avoir des points de vue sur des choses qui ne me paraissaient pas tout à fait catholiques, ce n’était pas très bien vu. Ma femme et moi avons été boycottés pendant de nombreuses années. En Amérique, pendant l’époque du maccarthysme, j’ai eu l’interdiction de me présenter devant le public américain parce que j’avais signé l’appel de Stockholm par exemple."

[57] Dès 1905, Pierre Curie a déjà conscience de la force de sa découverte en déclarant « On peut concevoir encore que dans des mains criminelles le radium puisse devenir très dangereux ».

[58]Frédéric Joliot Curie est exclu de la présidence du CEA ; Einstein refuse de signer l’appel en raison de la « coloration » politique de l’appel.

[59] Hostile à la fabrication de la bombe à hydrogène, il a été par la suite tenu à l’écart des secrets nucléaires en raison de ses anciennes sympathies pour des membres du parti communiste. Il n’a été réhabilité que neuf ans plus tard, en 1963.

[60] À écouter : un podcast d’une émission de France-Inter consacrée à l’affaire Rosenberg.

[61] G. Arboit (2013), Au cœur des services secrets : Idées reçues sur le renseignement (pp. 13-15). Paris, Le Cavalier Bleu.

[62] Gildas LE VOGUER, « Le renseignement soviétique aux Etats-Unis : vérité des archives et vérité historique », (pp 53-66) in Revue française d’études américaines n °3, Belin, publié sur Cairn.info, 2012

[63] Amiral Pierre Lacoste. Une nouvelle stratégie pour le renseignement In : Politique étrangère, n°1 - 1997 - 62ᵉannée. pp. 83-97 ; doi : https://doi.org/10.3406/polit.1997.4614.

[64] « And ye shall know the truth and the truth shall set you free » (trad. : « Et vous connaitrez la vérité et la vérité vous libérera »). La devise de la CIA reprend les paroles du Nouveau Testament (Jean, 8 :32) ; elle est apprise par tous les agents lors de leur prise de fonction.

[65] Son existence n’a été reconnue qu’en 1957.

[66] Komitet gossoudarstvennoï bezopasnosti (en russe : Комитет государственной безопасности)

[67] Avec la dislocation de l’URSS, le KGB est divisé en plusieurs branches : celle le renseignement extérieur porte le nom de SVR (Service de renseignement extérieur).

[68] « The Mitrokhin Archive », de Christopher Andrew et Vassili Mitrokhine, chez Allen Lane The Penguin Press, Londres 1999

[69] « Il ne s'agit pas de réduire l'URSS au KGB, ce serait ridicule, mais quel système ! La question que chacun se posait en 1989 et en 1991, à savoir pourquoi le régime s'est-il effondré si soudainement, n'est pas inintéressante. Mais la véritable interrogation doit être : comment diable a-t-il pu tenir soixante-quinze ans ? L'existence du KGB et de son étroit système de contrôle social fournit au moins une partie de la réponse. » C. Andrew dans une interview pour Le Monde, en 1999.

[70] À voir : l’épisode des Brûlures de l’histoire intitulé « Les espions de l’atome ».

[71] Il débouche sur les Accords d’Helsinki en 1975.

[72] Lacoste. Une nouvelle stratégie pour le renseignement ? In : Politique étrangère, n°1 - 1997 - 62ᵉannée. pp. 83-97 ; doi : https://doi.org/10.3406/polit.1997.4614

[73] À partir de 1962, les Soviétiques installent un gigantesque centre d'écoutes à Lourdes, près de La Havane.

[74] Gildas le Voguer, La guerre secrète du KGB, l’Histoire n° 223, juillet-août 1998

[75] Vanessa Caru, 350 000 ingénieurs par an, L’Histoire n° 437-438, Juillet-août 2017

[76] L’entrée dans la profession d’ingénieur n’est pas régulée par l’obtention d’un diplôme, mais s’effectue par apprentissage (pupillage) dans lequel l’autorité publique ne joue aucun rôle.

[77] Les autorités britanniques le justifient en prétendant que les colonisés seraient incapables d’exercer toute autorité, et que si les Indiens ont une réelle aptitude aux études théoriques (et notamment aux mathématiques), ils n’ont pas le goût pour les travaux pratiques censés qualifier le bon ingénieur.

[78] …qui s’accentue avec la Première Guerre mondiale, où l’ingénierie et l’industrie indienne (aciéries Tata) contribuent à l’effort de guerre britannique.

[79] Ces nouveaux établissements sont en majorité des institutions privées qui cherchent à profiter de la manne de ce marché éducatif en pleine expansion, sans toujours offrir les garanties d’une formation de qualité.

[80] Le gouvernement crée en 1973 la catégorie fiscale des « NRI » (Non-Resident Indians, 11 millions de personnes en 2015) pour éviter une double imposition aux émigrés indien.

[81] Cf. Varrel Aurélie, "Back to Bangalore" : étude géographique de la migration de retour des indiens très qualifiés à Bangalore

[82] Cf. Lionnel Trouillet (« Les populations d'origine indienne hors de l'Inde : fabrique et enjeux d'une diaspora », 2015)

[83] Cf. Michel Bruneau, « Phénomène diasporique, transnationalisme, lieux et territoires » -http://ceriscope.sciences-po.fr/content/part4/ph%C3%A9nom%C3%A8ne-diasporique-transnationalisme-lieux-et-territoires?(ge=show)

[84] Suhas Patil est un entrepreneur, universitaire et capital-risqueur indo-américain. Il a fondé Cirrus Logic, une société de semi-conducteurs sans usine.

[85] Vivek Yeshwant Ranadivé est un chef d'entreprise, ingénieur, auteur, conférencier et philanthrope indo-américain. Ranadivé est le fondateur et ancien PDG de TIBCO Software et de Teknekron Software System.

[86] Aurélie Varrel, Hortense Rouanet, De Bangalore à Whitefield : trajectoire et paysages d’une région urbaine en Inde, 2015.

[87] Electronics City est un parc d'activité dédié aux technologies de l'information située au sud-est de Bangalore en Inde. Il compte près de 100 000 emplois liés à ce secteur d'activité sur 136 hectares.

[88] Avec l’émergence de l’informatique grand public et l’usage croissant d’Internet et des TIC depuis le milieu des années 1990, le terme « virtuel » est de plus en plus employé pour désigner « ce qui se passe en ligne ». Il peut s’agir d’une conversation sur un réseau social, de la sauvegarde automatique de données dans un « cloud », d’une partie de jeu vidéo ou, aujourd’hui, des applications de « réalité virtuelle » qui permettent de s’immerger presque physiquement dans un environnement numérique.

Cet usage du terme virtuel dérive de sa signification philosophique initiale : est virtuel ce qui n’est que potentiel, par opposition à ce qui est actuel, effectif. Par dérive de sens, l’usage oppose aujourd’hui le monde réel, physique, dans lequel évolue le corps, à un pseudo-monde auquel on accéderait par le biais d’écrans, de claviers, de manettes, de micros, etc.

[89] De l’extraction de matières premières à leur transformation en produits finis et à la satisfaction de leurs besoins électriques, la géographie économique rappelle combien sont matérielles les fondations de nos mondes virtuels. Si le secteur informatique était un pays, il serait le troisième consommateur d’électricité au monde, après la Chine et les États-Unis, et devant la Russie.

[90] Sa mise en œuvre dans le cadre de l'épidémie du coronavirus illustre à la fois les bénéfices potentiels qu’elle offre mais aussi les risques éthiques et d'atteinte aux droits humains qu'elle entraine, ces initiatives confrontent les représentations occidentales des libertés individuelles à des représentations originales sur la nature et l'intérêt collectif.

[91] Pour Thomas Rid, dans son ouvrage Cyber War Will Not Take Place (2013), estime que les opérations menées jusqu’à présent ne relèvent pas de la guerre, mais ne sont que des versions à peine plus sophistiquées d’activités anciennes : l’espionnage, le sabotage et la subversion.

[92] Au printemps 2007, la première cyberattaque de l’histoire paralyse l’ensemble du réseau informatique de l’Estonie.

[93] Cf. l’informatique embarquée dans les appareils médicaux, les véhicules et même les armements militaires…

[94] C’est ainsi une société à but non lucratif, l’Icann, qui est chargée du nommage et de l’adressage (.com, .fr, etc.) d’Internet.

[95] C’est par exemple le cas des hackeurs et des organisations « hacktivistes » -Vocabulaire p.429 (Anonymous, WikiLeaks) poursuivant des objectifs variés (profit, révélations d’information…).

[96] « Les attaques WannaCry et NotPetya sont emblématiques du risque systémique que fait peser la prolifération des cyberarmes sur nos sociétés. Ces attaques se sont propagées à travers le monde à une vitesse fulgurante et de manière incontrôlée, touchant des hôpitaux et occasionnant des centaines de millions d'euros de dégâts dans des entreprises qui n'étaient même pas la cible initiale. En mai 2017, le rançongiciel WannaCry a en effet infecté plus de 200 000 ordinateurs dans 150 pays jusqu’à la découverte d'une astuce (kill switch) pour l'arrêter. Les investigations ont conduit notamment les États-Unis, le Royaume-Uni et l'Australie à rejeter la piste criminelle et officiellement attribuer l'attaque à la Corée du Nord. L'attaque NotPetya, ressemblant initialement à un rançongiciel, s 'est avérée conçue pour complètement saboter les systèmes. La Maison-Blanche chiffre à 10 milliards de dollars les dégâts occasionnés par cette seule attaque, la plus dévastatrice à ce jour, attribuée à la Russie par le Royaume-Uni, suivi par les autres pays des Five Eyes » F. Douzet et A. Géry, « Le cyberespace, ça sert, d’abord, à faire la guerre », in Géopolitique de la datasphère, Hérodote 177-178, juin 2020

[97] Renommé depuis Commission centrale pour la cybersécurité et l’informatisation.

[98] Celle-ci se traduit par l'intensification et la systématisation des réponses aux attaques numériques subies par les États-Unis, par l'exposition et la punition de leurs auteurs ou de leurs commanditaires supposés.

[99] Taillat, S. (2020). Cyber opérations offensives et réaffirmation de l’hégémonie américaine : une analyse critique de la doctrine de Persistent Engagement. Hérodote, 177-178(2-3), 313-328. https://doi.org/10.3917/her.177.0313

[100] En 2010, 2013 et 2015.

[101] La reconnaissance de l'application du droit international dans le cyberespace a donc pour conséquence de délimiter les droits et obligations des États en matière de cyber opérations puisque les États ne pourront pas mener d'opérations contraires à leurs engagements internationaux. À titre d'exemple, ils ne pourront pas mener des cyber opérations pour intervenir dans les affaires intérieures d'un autre État, sauf à violer le principe de non-intervention.

[102] Cf. https://cyberstability.org/norms/

[103] L'Appel de Paris, qui n'est toutefois pas soutenu par les États-Unis, la Chine et la Russie, témoigne d'une volonté affichée de s'engager ensemble pour assurer la sécurité et la stabilité du cyberespace.

[104] L’adoption du Règlement général sur la protection des données (RGPD) en 2016, qui vise à définir des cadres légaux protecteurs de la vie privée notamment dans le cadre de transferts des données vers des entreprises américaines, constitue une réponse partielle à ce problème.

[105] En 2015, la stratégie de l’Agence française de cybersécurité (ANSSI) notait par exemple que « les évolutions en cours tant au niveau des technologies que dans les modèles économiques, avec par exemple la multiplication des objets connectés ou la concentration des plateformes de service en ligne entre les mains de quelques acteurs seulement, sont de nature à amplifier cette perte de maîtrise du cyberespace national »

[106] La stratégie prône alors le recours à des procédés cryptographiques au nom de l'autonomie stratégique.

[107] L'Estonie et la Lituanie considèrent même qu'une autonomie stratégique européenne pourrait être problématique, voire dangereuse, pour l'Otan.

[108] …et mutuellement dépendant : de nombreux liens ont été tissés entre les acteurs des deux camps

[109] Dans le cas particulier de l'écosystème de la cyberdéfense, un possible conflit de gouvernance pourrait naître du fait de la structure même du secteur concerné. L'industrie de la défense est, en effet, traditionnellement organisée autour d'un lien privilégié entre les autorités et un petit nombre des entreprises de premier rang qui sont susceptibles de piloter des programmes d'armement majeurs. Cette relation privilégiée confère aux grandes firmes du secteur un pouvoir d'organisation vis-à-vis des entreprises de second rang, des sous-traitants ou des petites entreprises porteuses d'innovation fondamentales dans le secteur du numérique. Or le succès de l'écosystème de la cyberdéfense repose sur la mise en place d’une gouvernance démocratique sans laquelle la confiance indispensable à la coopération d’acteurs très hétérogènes ne peut pas s'établir.