2023 07 21 06 30 38 250

Cours  pdf 
Diapo

ppt

pdf

Sommaire

INTRODUCTION DU THÈME
INTRODUCTION
A. LA NOTION DE « SOCIÉTÉ DE LA CONNAISSANCE » (PETER DRUCKER, 1969), ÉMERGENCE, PORTÉE ET DÉBATS
1. Des précurseurs
2. Peter Drucker et la « société de la connaissance » (1969)
3. Un concept en débat
B. LA NOTION DE COMMUNAUTÉ SAVANTE, COMMUNAUTÉ SCIENTIFIQUE EN HISTOIRE DES SCIENCES
1. Le temps des académies et des sociétés savantes
2. La naissance de la communauté scientifique moderne
C. LES ACTEURS ET LES MODALITÉS DE LA CIRCULATION DE LA CONNAISSANCE
1. Les revues scientifiques, reflet d’une géopolitique de la connaissance
2. De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public
3. La révolution numérique
I. PRODUIRE ET DIFFUSER DES CONNAISSANCES (AXE 1)
A. DONNER ACCÈS À LA CONNAISSANCE : GRANDES ÉTAPES DE L’ALPHABÉTISATION DES FEMMES DU XVIE SIÈCLE À NOS JOURS DANS LE MONDE
Introduction
1. XVIe-XIXe siècle : un enjeu national ou religieux
2. XXe-XXIe siècles : un enjeu international et un combat pour un droit fondamental
Conclusion
B. PRODUIRE DE LA CONNAISSANCE SCIENTIFIQUE : RECHERCHE ET ÉCHANGES DES HOMMES ET DES FEMMES DE SCIENCE SUR LA QUESTION DE LA RADIOACTIVITÉ DE 1896 AUX ANNÉES 1950
Introduction
1. Découvrir la radioactivité et la partager pour le progrès de l’humanité…
2. …mais la mettre aussi au service de la puissance des États et douter
Conclusion
II. LA CONNAISSANCE, ENJEU POLITIQUE ET GÉOPOLITIQUE (AXE 2)
A. LE RENSEIGNEMENT AU SERVICE DES ÉTATS : LES SERVICES SECRETS SOVIÉTIQUES ET AMÉRICAINS DURANT LA GUERRE FROIDE
1. KGB et CIA, deux organisations nées au début de la Guerre froide
2. Le renseignement pour pénétrer le bloc adverse
3. Le renseignement pour consolider et élargir sa sphère d’influence
B. CIRCULATION ET FORMATION DES ÉTUDIANTS, TRANSFERTS DE TECHNOLOGIE ET PUISSANCE ÉCONOMIQUE : L’EXEMPLE DE L’INDE
1. Les ingénieurs indiens, une tradition ancienne
2. Du brain drain au brain gain
3. Transferts de technologie et puissance économique
III. LE CYBERESPACE : CONFLICTUALITÉ ET COOPÉRATION ENTRE LES ACTEURS (OBJET DE TRAVAIL CONCLUSIF)
INTRODUCTION
A. LE CYBERESPACE, ENTRE RÉSEAUX ET TERRITOIRES (INFRASTRUCTURES, ACTEURS, LIBERTÉ OU CONTRÔLE DES DONNÉES…)
1. Définitions, enjeux
2. Stratégies d’acteurs : entre conflictualités et coopérations
B. CYBERDÉFENSE, ENTRE COOPÉRATION EUROPÉENNE ET SOUVERAINETÉ NATIONALE : LE CAS FRANÇAIS
1. Enjeux
2. Perspectives
CONCLUSION

Manuel p.378-443

Introduction du thème

Repères p.386-387- La géopolitique étudie les conflits et les coopérations entre entités politiques. Ces conflits et ces coopérations s’inscrivent dans les évolutions des sociétés. Il en est ainsi de l’accroissement des connaissances et des progrès de la circulation de l’information. Dans un monde où les évolutions technologiques sont rapides, sociétés, États et organisations internationales sont concernés par la question de la connaissance, de sa production, de sa circulation, de son contrôle éventuel.

Ce thème poursuit un double objectif : présenter les conditions nationales et internationales de la construction de la connaissance, en particulier scientifique, et expliquer la manière dont les États favorisent ou contrôlent, entre coopérations et conflits, la production ou la diffusion de celle-ci :

  • Le premier axe souligne l’importance de l’alphabétisation des sociétés pour accroître le nombre de personnes susceptibles de produire, de recevoir et de diffuser de la connaissance, et examine le fonctionnement d’une communauté savante à partir de l’exemple des recherches sur la radioactivité au XXe siècle.
  • Le second axe montre comment des États se sont saisis de l’enjeu de la connaissance dans leurs affrontements, comme lors de la guerre froide ou dans leur souci de favoriser leur développement économique, restreignant ou favorisant la circulation des connaissances scientifiques et technologiques.

Dans quelle mesure des conditions politiques et géopolitiques favorisent-elles la construction et la diffusion de la connaissance ? Pourquoi la connaissance est-elle un enjeu politique majeur ?

Introduction

Introduction

On entend généralement par connaissance l’ensemble du savoir, tous champs confondus. Mais d’un point de vue géopolitique et géoéconomique, la connaissance stratégique est avant tout scientifique et technique[1].

La connaissance se construit à l’échelle nationale et internationale et les États sont impliqués dans sa production et sa diffusion. Les enjeux de la connaissance sont multiples :

  • géopolitiques (affirmation de la puissance des États, source de compétition et de tensions) ;
  • sociaux et économiques (levier de développement) ;
  • culturels et symboliques.

Si la connaissance est au cœur de réseaux de coopération internationaux, elle est également l’objet d’une vive compétition entre de multiples acteurs, publics comme privés.

Quels sont les modes de partage et d’acquisition de la connaissance ?

A.    La notion de « société de la connaissance » (Peter Drucker, 1969), émergence, portée et débats

1.     Des précurseurs

Les mutations des rapports entre société et savoir notamment dans le contexte de la tertiarisation de l’économie sont analysées dès après la Seconde Guerre mondiale par des intellectuels étatsuniens, qui évoquent la société de l’information ou de la communication[2] :

  • En 1945, Vannevar Bush (1890-1974), ingénieur et coordinateur du projet Manhattan, plaide auprès du président Roosevelt pour une production et une circulation accrues de la connaissance ; constatant les limites de la mémoire individuelle, il développe l'idée que la recherche scientifique doit, au lendemain de la Seconde Guerre mondiale, se consacrer à améliorer les moyens matériels permettant l'accès efficace à toute la connaissance humaine de façon à pouvoir l’étendre[3]
  • En 1948, le mathématicien américain Norbert Wiener (considéré comme l’inventeur de la cybernétique[4]), étudie les mécanismes d’information de systèmes complexes[5], et utilise l’expression de « société de la communication ». 
  • Daniel Bell, sociologue américain, observe la tertiarisation de l’activité économique et réfléchit à l’importance croissante de la connaissance et de l’information (éléments immatériels) dans l’organisation de la société (Vers la société post-industrielle, 1973). 
  • Dans les années 1960-1970, Les économistes libéraux, en particulier ceux de l’école de Chicago, identifient la connaissance comme un type de bien particulier. Pour Kenneth Arrow, prix Nobel d’économie en 1972, il s’agit d’un bien :
    • difficilement contrôlable et appropriable,
    • non rival dans l’usage (puisque l’usage que l’on en fait ne la détruit pas),
    • et cumulatif (la connaissance engendre d’autres connaissances).

Ces économistes établissent le concept d’économie de la connaissance, qui désigne la capacité des États à produire et à diffuser des connaissances.

2.     Peter Drucker et la « société de la connaissance » (1969)

Peter Drucker (1909-2005) -Biographie p.380 s’inscrit dans la lignée des économistes libéraux. Consultant en management[6], il publie The Age of Discontinuity en 1969.

Il s’appuie peu sur des références théoriques : sa démarche est essentiellement empirique. Dans la quatrième partie de son livre, il aborde ce qu’il nomme l’ère du savoir où il affirme que la connaissance capacité à mettre en œuvre de l’information, devient la principale ressource du développement économique. Il en résulte selon lui que l’accès au savoir est une nécessité pour maintenir la productivité des travailleurs et la compétitivité, et que tout doit être repensé pour favoriser la circulation des connaissances : l’État, les hiérarchies sociales, le rôle des organisations. Cela induit par exemple une rupture avec le Taylorisme et le Fordisme qui impliquaient, par les tâches répétitives qu’ils imposaient, que les ouvriers « laissent leur intelligence au vestiaire ». Désormais, les travailleurs se voient assigner des objectifs à atteindre et sont incités à innover : c’est la naissance du management moderne.

Cette idée est reprise par les organisations

 internationales, en particulier par l’Unesco et par l’Union européenne, en mettant l’accent sur la diffusion de compétences, qui seraient fondamentales à la fois pour le bon fonctionnement de la société et pour celui de l’économie. L’école a une place centrale dans cette réflexion, ainsi que la formation continue. Pour lui, il est nécessaire d’individualiser les apprentissages, de développer l’autonomie et l’évaluation des performances de l’école, pour former des individus plus productifs, capables d’apprendre tout au long de leur vie, et de coopérer pour favoriser la circulation de l’information, condition nécessaire à l’innovation… Il passe de l’idée d’une économie de la connaissance à celle d’une société de la connaissance -doc.2 p.380. Économie de la connaissance et société de l’information + Repère p.386.

3.     Un concept en débat

Peter Drucker s’inscrit dans un courant néolibéral proche de l’école de Chicago, qui estime que l’État ne doit pas réguler l’économie. Pour lui, la connaissance valable est celle qui a une utilité économique. Joseph Stiglitz et Bruce Greenwald dans La nouvelle société de la connaissance (2017) s’opposent à cette conception et plaident pour une intervention de l’État pour réduire les inégalités en favorisant une « société de l’apprentissage » comme fondement de la croissance et du développement. Pour eux, l’enjeu n’est pas seulement économique mais démocratique.

En effet, la société de la connaissance peut engendrer des inégalités sociales et territoriales, dans des sociétés où triomphent les détenteurs du savoir scientifique maitrisant les outils de communication permettant d’échanger et d’enrichir leur propre capital. Intégrée aux orientations de l’Union européenne depuis 2000, comme en témoigne l’adoption de la « stratégie de Lisbonne »[7], et poursuivie par la stratégie « Europe 2020 », la « société de la connaissance » présente encore de réelles limites, à l’échelle des États membres de l’UE comme à l’échelle mondiale -doc. 4 p.381. Les limites de la société de la connaissance + doc.5 p.381. La fracture numérique.

En outre, le sociologue Philippe Breton[8] critique la « double réduction ». Pour lui,

  • le processus de connaissance ne peut se réduire à un traitement de l’information,
  • et la connaissance scientifique et technique n’est pas la seule forme de connaissance légitime.

B.    La notion de communauté savante, communauté scientifique en histoire des sciences

Les historiens des sciences déconstruisent le mythe de la révolution scientifique forgé dans les années 1930 qui décrivait l’histoire européenne des sciences à partir de la seconde moitié du XVIe siècle avec l’idée d’un basculement opéré par quelques « grands hommes » (Copernic, Newton) de la tradition vers l’innovation[9] -doc.1 p.382. L’histoire des sciences, de l’homme à la communauté. Il a été montré récemment qu’il y a déjà une culture de l’innovation au Moyen-Âge ainsi qu’une vraie circulation des savoirs[10] ; de même, il faut souligner la dimension collective de la production et de la diffusion des savoirs. La notion de communauté scientifique est issue des travaux du sociologue Robert K. Merton dans les années 1940. Devenue un classique de l’épistémologie et de l’histoire des sciences, elle met l’accent de manière décisive sur la dimension collective de la démarche scientifique.

1.     Le temps des académies et des sociétés savantes

Les communautés savantes de l’époque moderne débattent des grandes questions du temps dans des domaines aussi variés que l'astronomie, la physique, la botanique, la chimie, et forment déjà des réseaux dans lesquels peuvent également s’exprimer des solidarités -doc.3 p.383. Une communauté savante organisée en réseau.

 À partir du XVIIe siècle alors que se développent des sociétés de cour, le mécénat princier soutient les activités scientifiques et expérimentales dans le cadre des Académies. À Londres et à Paris, la création de la Royal Society (1662) et de l’Académie des sciences (par Colbert en 1666) centralise les nombreux cercles préexistants et leur donne une forme juridique ainsi qu’une protection royale. Ces académies sont des lieux de recherche scientifique mais aussi d’échanges (ordre du jour, séances, concours, discussions) et ont des réseaux de correspondants. Elles procurent à leurs membres un statut social, et une rémunération. La science s’institutionnalise, ce qui favorise le développement des communautés scientifiques. NB. La communauté scientifique se distingue de la communauté savante par la professionnalisation de ses membres, et par une spécialisation disciplinaire croissante : les anciens savants « touche-à-tout » sont devenus des chercheurs spécialisés.

Au XVIIIe s., le mouvement s’intensifie : les principales capitales européennes (Paris, Londres, Berlin, St Pétersbourg, Stockholm) puis d’autres villes (Göttingen, Turin, Barcelone, Padoue, Édimbourg, Dublin) se dotent d’académies, qui s’enrichissent mutuellement tout en se livrant une féroce compétition. L’espace savant européen est unifié par ces lieux -Doc.4 p.383. Les académies au XVIIIe siècle, une géographie (Cf. création du jardin botanique royal de la Pharmacie royale et de l’Observatoire royal (1790) à Madrid, par l’architecte Juan de Villanueva qui transforme le paysage urbain) et par la généralisation des concours.

2.     La naissance de la communauté scientifique moderne

La communauté scientifique organise la discussion des travaux de ses membres, la vérification de leur méthode et de leurs conclusions, et valide celles-ci. Pour le philosophe Karl F. Popper[11] un énoncé scientifique doit être réfutable : la science est constituée par ce qui a été validé par des communautés savantes constituées en disciplines scientifiques, mais la démarche scientifique consiste à formuler et vérifier des hypothèses, qui peuvent éventuellement remettre en question le consensus précédent sur tel ou tel sujet. Il est normal qu’il y ait des débats entre scientifiques, mais ceux-ci sont tranchés par l’examen collectif. L’existence d’une communauté scientifique est donc une condition sine qua non du progrès des sciences.

Au XIXe siècle on assiste à un double mouvement de nationalisation et d’internationalisation des sciences :

  • Les universités du monde occidental sont profondément réformées selon un modèle national au début du siècle. Le modèle allemand d’Alexander von Humboldt (Université de Berlin, 1810) entend instaurer en Prusse un système d'éducation nouveau, reposant d'une part sur l'union étroite de la recherche et de l'enseignement, d'autre part sur la liberté d'études et de recherche laissée à chacun. L'Université est divisée en quatre facultés : droit, médecine, philosophie et théologie. En France, Napoléon réorganise l’enseignement : au sommet se trouvent les nouvelles grandes écoles d'ingénieurs comme l'École polytechnique[12], dont l'enseignement scientifique est articulé avec des écoles d'application (comme l'École des Mines). L'Université impériale est structurée en facultés des sciences et des lettres et en écoles de droit, de médecine et de pharmacie. Après 1815, le Collège de France -Repère 2 p.386, l’Observatoire et le Museum d’histoire naturelle deviennent les principaux lieux de recherche. Sous la IIIe République, de nouvelles réformes sont entreprises pour faire converger plus efficacement enseignement et recherche, dans l'optique d'un rattrapage du voisin et rival allemand.
  • En contrepoint de cette nationalisation, les historiens insistent aujourd'hui sur l’affirmation d’une dimension transnationale de la circulation scientifique fin XIXe-début XXe siècle : circulation des étudiants[13], et circulation des savoirs -Cf. première rencontre internationale de physique à Paris en 1900, premier conseil Solvay à Bruxelles en 1911[14], grâce au mécénat d’Ernest Solvay, chimiste et industriel belge)

La notion de communauté scientifique s’impose. Elle repose aujourd’hui encore sur un éthos scientifique, un ensemble de valeurs et de normes : universalisme, travail collectif, désintéressement, scepticisme organisé et indépendance vis-à-vis des tutelles (États, FTN) -Cf. le GIEC (Groupe d'Experts Intergouvernemental sur l'Évolution du Climat), fondé en 1988 par l’ONU -doc.5 p.393. Une communauté scientifique aujourd’hui.

C.    Les acteurs et les modalités de la circulation de la connaissance

La circulation de la connaissance est prise en charge par des acteurs variés : États, universités, institutions soutenues par des financements publics ou privés, et même la « société civile » y contribuent.

1.     Les revues scientifiques, reflet d’une géopolitique de la connaissance

Des revues savantes[15] existent depuis le XVIIe siècle ; elles deviennent de plus en plus nombreuses au XIXe, et le nombre de publications explose littéralement après la Seconde Guerre mondiale[16].

La géographie des principaux pays émetteurs de ces publications reflète la hiérarchie des puissances scientifiques et les rapports de force qui l’animent.

 Après un demi-siècle de règne états-unien, la Chine, devenue au XXIe siècle une superpuissance des technosciences, pointe en 2018 au 2ème rang mondial des publications, juste derrière les États-Unis[17].

2.     De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public

Aux XVIIe et XVIIIe siècles déjà, les élites sociales se passionnent pour les sciences, à travers les cabinets de curiosité et les démonstrations spectaculaires. Au XIXe siècle, cet engouement accélère sa diffusion, à travers les canaux les plus divers. La science-fiction (de Marie Shelley[18] à Jules Verne) emporte un grand succès, et la révolution de la presse permet une plus grande diffusion des savoirs scientifiques.

C’est au XIXe siècle que naît l’idée de sortir la science des seuls cercles scientifiques, puisqu’elles sont accessibles à tous par l’effort. En France, dans une optique républicaine, François Arago[19] veut faire de la science un bien commun de la nation tout entière, et son enseignement doit débuter dès les écoles élémentaires. Parallèlement, hors institutions scolaires et universitaires, des musées des sciences sont créés, des planétariums, etc.

Le terme de « vulgarisation » apparait au début du XXe siècle, supplantant celui de « science populaire ». La vulgarisation peut être définie comme une forme de diffusion pédagogique des connaissances qui cherche à les mettre à la portée d'un public non expert, avec l’émergence d’une culture de masse et dans un but « d’élévation générale du niveau ».

Les musées, planétariums, etc., continuent d’apporter leur contribution, en se modernisant. Cf. en France la naissance de centres de culture scientifique, technique et industrielle (CCSTI)[20]. Progressivement, aux revues de vulgarisation (Cf. Sciences et Vie, qui paraît en France dès 1913), s’ajoute la contribution des médias de masse, supports par excellence des entreprises de vulgarisation -Cf. les films documentaires de L’odyssée sous-marine de l’équipe Cousteau, émission « culte » des années 1970[21], et plus proche de nous, les épisodes de C’est pas sorcier.

3.     La révolution numérique

L’essor des nouvelles technologies de l'information et de la communication (NTIC) et le déploiement d’Internet ont permis de démultiplier cette offre de manière exponentielle, avec des ressources qui nous sont familières comme les nombreuses chaînes de vulgarisation YouTube ou l’Encyclopédie collaborative en ligne Wikipédia[22] -doc.1 p.384. Wikipédia, une nouvelle modalité de circulation de la connaissance.

L'essor spectaculaire des nouvelles technologies bouleverse donc les modes de circulation de la connaissance, à tel point que l’on a pu parler de « révolution numérique ». Néanmoins, des tensions accompagnent le déploiement de cette société de la connaissance, particulièrement vives par exemple quand l’idéalisme des fondateurs (comme Tim Berners Lee ou John P. Barlow[23]) défenseurs de « l’esprit d’Internet » se heurte aux logiques capitalistes (comme Aaron Swartz), ou quand l’utilisation des données personnelles des usagers alimentent les craintes d’un big data intrusif ou de l’instauration d’une société sous surveillance[24]. Pour beaucoup, il ne reste plus rien de son utopie initiale[25].

I. Produire et diffuser des connaissances (Axe 1)

Manuel p.388-407. Chapitre 16. Produire et diffuser des connaissances

Dans quelle mesure la production et la diffusion des connaissances constituent-elles un enjeu majeur pour les États et les sociétés ?

A.    Donner accès à la connaissance : grandes étapes de l’alphabétisation des femmes du XVIe siècle à nos jours dans le monde

Jalon p.396-397

Introduction

Document 1 p.396. L’enseignement de la lecture aux filles : la vision des artistes à l’époque moderne. Depuis Gerson, grand chancelier de l’université de Paris au XVe siècle, déclare que « tout enseignement pour les femmes doit être considéré comme suspect », l’alphabétisation et l’éducation des filles ont été un combat. Ce combat, reconnu comme un droit humain fondamental dans la Déclaration universelle des Droits de l’Homme de 1948, est rappelé dans le plan « Éducation 2030 » de l’ONU.

De grandes étapes ont donc jalonné, notamment en France, l’accès des femmes à l’éducation : à une lente alphabétisation à l’époque moderne, succède un tournant au XIXème siècle, notamment en France avec les lois scolaires de Jules Ferry. Aujourd’hui à l’échelle mondiale, les femmes sont encore les premières victimes d’un accès inégal à l’éducation pourtant essentielle au développement.

Quelles sont les grandes étapes de l’alphabétisation des femmes au XVIème siècle à nos jours dans le monde ? Quels en sont les enjeux et les défis hier et aujourd’hui ?

1.     XVIe-XIXe siècle : un enjeu national ou religieux

a.       Un contrôle religieux

L’humanisme, une première prise de conscience

L’éducation des filles a occupé les intellectuels et en particulier les humanistes du XVIème siècle. Dès 1523, Jean Louis Vivès[26] affirme dans son livre « L’instruction de la femme chrétienne » qu’une instruction est nécessaire aux jeunes filles, pour qu’elles soient de bonnes chrétiennes, de bonnes épouses, et pour favoriser l’entente dans le couple. Cet enseignement spécifique, axé sur le travail domestique, est dispensé en langue vernaculaire (le latin est la langue de la « haute culture »). D’autres humanistes le suivent comme Érasme, mais seul Rabelais va jusqu’à mêler hommes et femmes également libres et instruits en parfaite harmonie à l’abbaye de Thélème.

La Réforme protestante : une étape majeure

Mais l’étape principale du XVIème siècle est le moment de la Réforme où l’éducation et l’alphabétisation des filles sont présentées comme une nécessité. Doc.2 p.397. L’alphabétisation des filles dans la Réforme protestante- Luther souhaite l’ouverture d’écoles populaires pour les filles et les garçons afin que tous accèdent directement à l’Écriture, traduite en langue vulgaire et au cœur de la Réforme.

La tâche de rénover le système scolaire dans l’Empire incombe à Philippe Melanchthon[27], qui mêle humanisme et Réforme. Dans les États protestants, la responsabilité scolaire est confiée aux autorités politiques et dès 1530, une école de filles est créée à Wittenberg. De même, à Genève avec Calvin, filles et garçons ont accès à un enseignement élémentaire public et gratuit. Le premier « gymnase » ouvre à Strasbourg en 1538.

L’alphabétisation se diffuse, des privilégiés aux groupes sociaux populaires, jusqu’à la paysannerie. Cette pratique de la lecture et de l’écriture donne aux réformés (et aux réformées !) une avance culturelle.

La prise de conscience de l’Église catholique

Le Concile de Trente (1545-1563) marque la riposte catholique contre les protestants, et l’Église romaine soutient désormais un renforcement de l’alphabétisation des fidèles. D’où un certain nombre d’initiatives concernant spécifiquement l’enseignement féminin à la charnière des XVIe et XVIIe siècles. Les structures éducatives pour les filles se développent : d’abord les « petites écoles » destinées à apprendre les rudiments ; celles destinées aux filles de maîtres marchands, artisans, de petite bourgeoisie sont payantes, les écoles de charité pour filles pauvres (de compagnons, d’ouvriers…) sont gratuites. Les congrégations s’y consacrent en s’appuyant sur l’engagement de femmes laïques ou religieuses, comme :

  • Jeanne de Lestonnac[28], nièce de Montaigne, vigneronne, mère de cinq enfants et veuve, qui fonde à Bordeaux en 1607 la Compagnie de Marie Notre Dame ;
  • la baronne Jeanne de Chantal[29] (grand-mère de la marquise de Sévigné) aux côté de l’évêque François de Sales fonde à Annecy la Visitation en 1610.
  • Mme Acarie et M. de Sainte Beuve implantent le couvent des Ursulines à Paris en 1620, qui regroupe une pension payante et une école externe et gratuite.
  • Vincent de Paulet et Louise de Marillac créent les filles de la Charité à Paris en 1633 pour s’occuper des malades et de l’enseignement des filles pauvres.

Dans ces établissements, l’ambition pédagogique reste limitée. Le passage à l’école doit être bref et l’enseignement religieux prioritaire, avec des rudiments de lecture -pas forcément d’écriture et de calcul. Les travaux d’aiguilles sont enseignés afin de leur permettre aux filles du peuple de « gagner honnêtement » leur vie et aux filles plus aisées de les détourner de l’oisiveté.

b.      Les plans d’éducation des filles aux XVIIème et XVIIIème siècles

En France au XVIIème, tandis que Molière, après s’être moqué des « Précieuses ridicules » (1659), fait jouer de violentes diatribes dans les « Femmes savantes » (1672), la société française réfléchit à une meilleure éducation des filles :

  • Dans son « Traité du choix et de la méthode des études » (1685), l’Abbé Claude Fleury veut que les filles apprennent à « penser de suite et à raisonner solidement » : instruction religieuse, logique, arithmétique, pharmacopée de base. Il veut « un peu plus de raison et de réflexion »… pas trop quand même : selon lui, des femmes plus savantes sombreraient dans la vanité.
  • Dans « De l’éducation des filles », destiné en 1687 par Fénelon[30] au duc de Beauvillier dont il est le directeur spirituel et à la duchesse, parents de 9 filles[31], il considère que « la mauvaise éducation des femmes fait plus de mal que celle des hommes, puisque les désordres des hommes viennent souvent de la mauvaise éducation qu’ils ont reçue de leurs mères », et propose un plan d’éducation tenant compte de l’infériorité et de la faiblesse du deuxième sexe. Il préconise un enseignement moral et religieux, de l’économie domestique et quelques savoirs profanes rudimentaires : grammaire, arithmétique, histoire, latin, musique, peinture. Son ouvrage inspire la pensée de Madame de Maintenon, créatrice, sous le patronage de Louis XIV[32], de la Maison royale de Saint-Louis (1686)[33], qui accueille des pensionnaires issues de la noblesse désargentée. Dans ses deux ouvrages : « Avis d’une mère à sa fille » et « Avis d’une mère à un fils », la marquise de Lambert revendique aussi l’influence de Fénelon, mais préconise un apprentissage de la langue latine qui « ouvre la porte à toutes les sciences » et une plus grande ouverture d’esprit : « la curiosité », écrit-elle « est une connaissance commencée ».

Le XVIIIème siècle, celui des Lumières (et des salons, véritables espaces informels d’apprentissage, où brilleront des femmes comme Mme Geoffrin, Mme du Deffand, Julie de l’Espinasse ou Mme Necker) voit l’éducation des filles diviser les philosophes : par exemple, Diderot affirme que la subordination de la femme à l’homme est une tyrannie, tandis que Rousseau affirme au contraire que la femme ne peut prétendre à l’égalité[34].

Un déséquilibre éducatif persiste jusqu’au XIXe siècle. Les femmes n’ont accès à la culture savante qu’en recourant, pour celles qui en ont les moyens, à l’éducation à domicile -notamment grâce à la diffusion accrue des livres. Néanmoins, L’alphabétisation des femmes progresse en France : le taux d’alphabétisation des jeunes adultes était en 1686-1690, de 29% pour les hommes et de 14% pour les femmes. En 1786-1790, au moment du déclenchement de la Révolution, les hommes étaient à 47%, les femmes à 27% -doc.4 p.397. L’évolution du taux d’alphabétisation en France.

c.       Une démocratisation accompagnée par l’État au XIXème siècle

Au début du XIXème siècle : les premières réalisations :

Au XIXème siècle, l’éducation des filles devient un enjeu politique majeur. Des systèmes scolaires universels apparaissent, par exemple, l’État de Pennsylvanie (États-Unis) ouvre en 1834 une école gratuite pour garçons et filles. En Europe, les progrès sont inégaux : tandis que les taux de scolarisation progressent en Allemagne, en Angleterre et en France, ils demeurent faibles en Europe de l’Est et du Sud. En France, Napoléon Ier crée le lycée et modernise les grandes écoles pour produire des élites capables de servir ses ambitions, mais il s’intéresse aussi à l’éducation des filles en créant les maisons d’éducation de la Légion d’honneur en 1805. Il définit lui-même le programme de ces futurs établissements, voulant assurer aux descendantes des décorés « une existence digne et indépendante ». C’est à partir de cette lettre de mission que la première maison d’éducation ouvre ses portes au château d’Ecouen en 1807, puis une deuxième en 1809 dans l’ancienne abbaye de Saint-Denis[35].

L’idée d’une éducation ouverte aux filles de toutes conditions sociales fait son chemin sous Napoléon III : ainsi, la création d’écoles de filles est imposée aux communes de plus de 800 habitants en 1850 (loi Falloux), de plus de 500 habitants en 1867 (loi Duruy). On y enseigne la lecture, l’écriture et le calcul, mais avec des programmes moins ambitieux que ceux des garçons, et des enseignements destinés à préparer leur avenir de mères, d’épouses[36]. Le taux d’alphabétisation des femmes rejoint alors presque celui des hommes. Julie-Victoire Daubié, première bachelière de France (1861) et première licenciée ès lettres (1871) alors que les cours à la Sorbonne ne sont pas ouverts aux femmes, montre la voie, mais fait figure d’exception -Cf. les travaux de l’historienne Michelle Perrot[37]

L’école de Ferry et la IIIème République : vers l’école de l’égalité

Doc.3 p.397. La IIIème République et les filles. Les républicains souhaitent un système éducatif véritablement universel et émancipé de l’Église.

En 1882, la loi Ferry reconnaît l’égalité des sexes devant l’instruction, encouragée par l’obligation scolaire. Celle-ci ne fait cependant que confirmer un mouvement de scolarisation de masse déjà largement amorcé -doc.4 p.397. L’évolution du taux d’alphabétisation en France.

Pour bien des républicains, le développement de l’instruction constitue une très importante réforme sociale qui permet aux individus, garçons comme filles, de développer librement leurs facultés et de s’élever dans la société, mais aussi une réforme politique majeure qui permet l’enracinement de la République et renforce la cohésion nationale, puisque l’ensemble des enfants recevra la même éducation. Au-delà du seul cas français, c’est l’ensemble des sociétés occidentales qui sont concernées. Cf. la mise en place en 1891 au Royaume-Uni d’un enseignement primaire gratuit.

Si la bataille de l’alphabétisation est gagnée, les filles ne bénéficient pas encore d’une réelle égalité avec les garçons dans l’accès aux études supérieures. En France par exemple, les traits d’un enseignement spécifiquement féminin persistent (latin et sciences continuent d’être réservés aux garçons aux lycées), et il faudra attendre la loi Bérard (1924) pour ouvrir le bac aux jeunes filles avec contenus et horaires identiques pour leur permettre un plus large accès à l’Université. Quant à la mixité, elle ne s’impose que progressivement à partir des années 1960 ; la loi Haby (1975) la rend obligatoire.

2.     XXe-XXIe siècles : un enjeu international et un combat pour un droit fondamental

Carte 7 p.399. Alphabétisation des femmes et développement + Chiffres p.394

- Le monde comptait 773 millions d'analphabètes en 2016, contre 874 millions en 1994 (source : UNESCO) : il s'agit d'un progrès indéniable. Aujourd'hui dans le monde, 86% des adultes (âgés de plus de 15 ans) savent lire et écrire. Ces progrès sont notamment le fruit de politiques internationales menées sous l'égide de l'UNESCO qui a lancé sa première journée internationale de l'alphabétisation en 1966, et qui a introduit le concept d'alphabétisation fonctionnelle[38], l'alphabétisation étant un moyen de s'insérer (socialement et professionnellement) et non une fin en soi. Les efforts se poursuivent : dans son agenda Éducation 2030 (« ODD4 »), l'Unesco souhaite « faire en sorte que toutes les filles et tous les garçons suivent, sur un pied d’égalité, un cycle complet d’enseignement primaire et secondaire gratuit et de qualité, qui débouche sur un apprentissage véritablement utile »[39].

Dans les pays des Nords, subsiste un analphabétisme résiduel (environ 2%), qui touche particulièrement les femmes en grande précarité et/ou issues de l’immigration -NB. À distinguer de l’illettrisme. L’analphabétisme est parmi les causes de la marginalisation des femmes et constitue un obstacle de premier ordre à la réduction de la pauvreté extrême, dans un monde où savoir lire, écrire et compter est indispensable pour exercer ses droits fondamentaux.

Dans les pays des Suds, colonisés ou non, les taux d’accès à l’alphabétisation, particulièrement faibles jusqu’au milieu du XXe siècle, ont décollé depuis. Quant à la progression de la scolarisation des filles dans les pays du Sud, elle a été exceptionnelle depuis les années 1990[40]. Un fort mouvement de mise à l’école des filles et des jeunes filles s'est imposé dans l'ensemble de ces pays. La réduction continue et rapide des inégalités sexuelles de fréquentation scolaire dans l'enseignement primaire et secondaire est cependant très différente selon les pays. Tous ne parviennent pas à une égale fréquentation des filles et des garçons, mais tous, à l’exception de l’Afghanistan qui interdit aux filles d’aller à l'école au-delà de l’âge de 12 ans, ont connu des évolutions rapides et ont même, pour certains d'entre eux, inversé les discriminations. Les trajectoires scolaires des pays du Sud remettent en question un grand nombre d'analyses. Ainsi :

  • Le lien entre le statut des femmes et la non-discrimination scolaire des filles n'est pas confirmé[41].
  • De même, la richesse des pays et l'insertion dans la mondialisation économique n'expliquent pas complètement les progrès vers plus d'égalité[42].

Doc.8 p.399. Alphabétisation et autonomisation des femmes- L'alphabétisation progresse mais elle peine à effacer les inégalités entre les sexes : 63% des personnes analphabètes -Vocabulaire p.398 dans le monde sont des femmes[43]. Le droit à l’éducation se restreint avec l’âge dans de nombreux pays ; ainsi au Burkina Faso, 8% des filles seulement font des études secondaires. L’analphabétisme des femmes est particulièrement élevé en Afrique sahélienne et sub-saharienne, au Moyen-Orient -doc.6 p.398. La scolarisation des filles au Moyen-Orient au XXe siècle et dans le sous-continent indien. À ce rythme, il faudrait attendre 2070 pour atteindre l’alphabétisation universelle[44].

Pourtant, l’éducation est une des clés du développement. En effet, l’alphabétisation des femmes favorise le développement tout en accélérant la transition démographique ; on estime que la mortalité infantile pourrait être réduite de 15% si toutes les mères avaient une instruction primaire et de 49% si elles avaient une instruction secondaire[45]. NB. L’alphabétisation des filles est parfois évoquée comme la panacée contre tous les problèmes : l’articulation entre les bénéfices de l’instruction et les qualités pensées comme féminines (souci du bien-être familial et social, douceur, pacifisme, etc.) feraient des femmes instruites la solution aussi bien à l’islamisme radical qu’aux crises environnementales…

Des obstacles à l’éducation des filles dans le monde persistent :

  • Le poids de traditions culturelles d’inégalité des genres : Dans certaines sociétés, l’éducation des filles n’est pas une priorité, voire n’a aucun sens car elle va à l’encontre du rôle qui leur est dévolu dans la société. Si une famille ne peut pas envoyer tous ses enfants à l’école, elle fera souvent le choix d’envoyer les garçons -y compris là où l’éducation est obligatoire. Par ailleurs, pour celles qui ont la chance d'aller à l'école, les nombreuses heures qu’elles dédient aux tâches ménagères sont autant qu’elles ne consacrent pas à leurs études.
  • Les violences à l’école et sur le chemin de l’école.
  • Les contraintes physiologiques[46].
  • Les mariages précoces: en Afrique occidentale et centrale, 4 filles sur 10 sont mariées avant 18 ans (et 1 fille sur 7 avant ses 15 ans).
  • Les grossesses précoces, consécutives à des mariages précoces ou à des violences sexuelles ainsi qu’à un manque d’accès à la contraception ou à l’avortement.

Ce combat pour l’éducation des femmes est incarné aujourd’hui par Malala Yousafzai, jeune Pakistanaise grièvement blessée par les talibans pour sa prise de position en faveur de l’éducation des filles. Prix Nobel de la Paix en 2014, elle poursuit aujourd’hui, dans le cadre de sa fondation, le combat pour que toutes les filles puissent aller à l’école. Les régressions imposées aux filles et femmes afghanes depuis le retour des talibans au pouvoir en Afghanistan (août 2021) souligne l’actualité persistante de son combat.

Conclusion

L’alphabétisation des filles est un long combat engagé depuis des siècles et qui ouvre la fois à l’égalité entre les femmes et les hommes. Dans les Nords, malgré quelques poches d’analphabétisme, le combat fut gagné grâce à l’engagement d’hommes et de femmes qui nourrissaient un projet spirituel, puis politique et social. Peu à peu, les filles ont eu accès à l’alphabétisation, premier pas vers le savoir émancipateur.

Au XXIème siècle, ce combat est toujours d’actualité et malgré l’engagement de l’ONU et de nombreuses ONG comme Plan International, les filles sont toujours victimes d’un accès inégal à l’éducation. Pourtant, la prise de conscience est mondiale à l’image de Kofi Annan, ex-secrétaire des Nations Unies qui dit « Il n’existe aucun instrument de développement plus efficace que l’éducation des filles. ». Malheureusement, les obstacles sont encore nombreux et il faudra encore beaucoup d’engagement pour que les filles aient un égal accès à l’école et ce dans toutes les régions du monde.

B.    Produire de la connaissance scientifique : recherche et échanges des hommes et des femmes de science sur la question de la radioactivité de 1896 aux années 1950

Introduction

La découverte et les travaux sur la radioactivité montrent les liens entretenus par la communauté scientifique à l’échelle de la planète. Dans une quête de progrès pour l’humanité, les recherches font l’objet d’échanges et de partage entre les grands noms de la physique et de la chimie au-delà des frontières.

Ils montrent aussi que de 1896 aux années 1950, leur travail a reçu le soutien et subi le contrôle de gouvernements et d’États engagés dans des guerres mondiales et dans la guerre froide. Les scientifiques ont mis leurs savoirs au service de leurs gouvernements et ont été confrontés aux interrogations suscitées par l’utilisation de leurs travaux et de leurs prolongements.

En quoi les recherches sur la radioactivité sont-elles le reflet de la collaboration entre une communauté scientifique soucieuse de progrès et des rapports parfois complexes qu’ils entretiennent avec le pouvoir politique de 1896 aux années 1950 ?

1.     Découvrir la radioactivité et la partager pour le progrès de l’humanité…

a.       La radioactivité, une découverte partagée et prolongée...

Les grandes étapes d’une découverte fondamentale
  • Automne 1895 : Wilhem Röntgen découvre de mystérieux « rayons X », qui traversent une feuille de papier, mais sont arrêtés par les os.
  • 1896 : Henri Becquerel découvre la radioactivité[47] en poursuivant les travaux de Röntgen sur la fluorescence.
  • 1897 : Marie Curie prolonge dans sa thèse les travaux de Becquerel ; son mari Pierre arrête ses propres recherches sur le magnétisme pour s’y impliquer également.
  • 1898 : Pierre et Marie Curie démontrent en 1898 l’existence de deux éléments radioactifs, le radium et le polonium[48].
  • 1903 : Henri Becquerel, Pierre et Marie Curie obtiennent le Prix Nobel de physique.
Pas la découverte d’un seul ou d’une seule mais celle d’une communauté

Pierre et Marie Curie refusent de breveter leurs découvertes et communiquent tous les détails de leur expérience. Pour eux, il s’agit de faire avancer la science et non d’en tirer des avantages personnels. Marie Curie n’hésite d’ailleurs pas à déclarer que « le radium ne doit enrichir personne. C’est un élément. Il appartient à tout le monde »[49].

Leurs recherches sont prolongées par d’autres chercheurs :

  • L’Anglais Ernest Rutherford et l’Allemand Hans Geiger explorent la structure de l’atome,
  • 1934, Irène Joliot-Curie et son mari Frédéric Joliot-Curie découvrent la radioactivité artificielle,
  • 1939, l’américain Ernest Orlando Lawrence obtient le prix Nobel de physique « pour l'invention et le développement du cyclotron et pour […] la production d'éléments radioactifs artificiels »,
  • 1942, l’Italien Enrico Fermi invente la première pile atomique.

Doc.2 p.400. Le Congrès Solvay de 1927- Les congrès Solvay[50] s’inscrivent dans cet état d’esprit : dans une Europe marquée par la montée des nationalismes, Ernest Solvay renforce la dimension internationale de la science en rassemblant des scientifiques de tous horizons. C’est la raison pour laquelle les Congrès ont lieu dans un pays neutre, la Belgique, et sont présidés par un scientifique hollandais polyglotte. Ceci correspond parfaitement à la vision d’Ernest Solvay, qui souhaitait inciter les élites scientifiques à collaborer quelle que soit leur nationalité[51].

b.      … aux multiples applications porteuses de progrès

Dans le domaine médical

Les champs d’application des découvertes des Curie sont considérables. Durant la Première Guerre mondiale, Marie Curie met son personnel et ses recherches au service de l’armée avec dix-huit camionnettes légères, les « petites Curie », qui sillonnent sans relâche les différents champs de bataille pour effectuer des radiographies[52] des blessés. Elle est accompagnée de sa première fille Irène, encore adolescente[53].

La radiologie désormais adoptée par la médecine, Marie Curie milite alors pour une autre technique révolutionnaire, la radiothérapie : « Après les rayons qui dévoilent, les rayons qui soignent ». 1921 voit la naissance de la Fondation Curie, qui permet l’utilisation des radiations dans la lutte contre le cancer.

Dans les applications civiles

Au-delà du domaine médical, la découverte de la radioactivité ouvre d’autres champs d’application :

  • La production d’énergie nucléaire : le premier réacteur nucléaire à production électrique est inauguré aux États-Unis en 1951, et en France en 1956 (à Marcoule). D’ailleurs la signature du Traité de Rome en 1957 s’accompagne de celle du traité Euratom -doc.4 p.401. Un exemple de coopération internationale.
  • L’archéologie : l’Américain Willard Franck Lilly (prix Nobel de chimie en 1960) effectue en 1949 la première datation au carbone 14 de deux échantillons de bois provenant de tombes égyptiennes.

2.     …mais la mettre aussi au service de la puissance des États et douter

a.       La radioactivité au service de la puissance des États

Les scientifiques se mettent au service de leur État de naissance ou d’accueil, à l’image de Marie Curie qui déclarait à propos de son engagement dans la guerre : « Je suis déterminée à mettre toutes mes forces au service de mon pays d’adoption, maintenant que je ne peux plus rien faire pour mon malheureux pays natal ». Mais dès l’entre-deux guerres, le radium n’est pas seulement le symbole de la modernité, il est aussi un « marqueur » de la puissance d’un pays et suscite la convoitise les chefs d’État, qui se livreront une course à l’atome pendant la Seconde Guerre mondiale, puis pendant la guerre froide.

Doc.3 p.401. La prise de conscience des menaces- Ainsi, le 2 août 1939, Albert Einstein alerte le président Roosevelt sur le danger des recherches nazies sur la bombe atomique[54], lancées depuis avril sous le nom de « projet uranium » (uranprojekt), après la découverte par Otto Hahn de la fission nucléaire (travaux conduits avec Lise Meitner[55]). Dans le projet Manhattan[56], coopération entre scientifiques, politiques et militaires lancée par F. D. Roosevelt sous la conduite du physicien Robert Oppenheimer, il s’agit de prendre de vitesse l’Allemagne nazie :

  • 16 juillet 1945 : premier essai nucléaire américain sur le site d’Alamogordo au Nouveau Mexique.
  • 6 et 9 août 1945 les bombes « Little boy » (uranium) et « Fat man » (plutonium), sur Hiroshima et Nagasaki, marquent l’aboutissement du projet Manhattan.
  • 1949, l’Union soviétique se dote à son tour de la bombe atomique[57].
  • 1952 : les États-Unis obtiennent la bombe à hydrogène un an avant l’URSS.

Les deux superpuissances, s’engagent dans une course à l’arme nucléaire, plaçant le monde est sous la menace d’une apocalypse. Détenir l’arme nucléaire est l’apanage des grandes puissances, d’où l’acquisition de cette technologie par le Royaume-Uni (1952), la France (1960) [58], la Chine (1964), etc.

b.      Un monde et des chercheurs qui doutent

Si le Japon, après les bombardements d’Hiroshima et Nagasaki, capitule (2 septembre 1945), mettant ainsi fin à la Seconde Guerre mondiale, la physique nucléaire a perdu son innocence, et la science inquiète désormais les intellectuels comme Albert Camus[59].

La dénonciation de la guerre atomique par le Mouvement mondial des partisans de la paix prend une dimension exceptionnelle lorsque le Conseil mondial de la paix (réuni à Stockholm) lance, le 19 mars 1950, « l'appel de Stockholm » qui exige notamment « l'interdiction absolue de l'arme atomique » [60]. Tandis que, dans le même temps, éclate la guerre de Corée, cette campagne rencontre un véritable succès populaire en France, porté par les militants communistes et le prestige d’intellectuels (Picasso, Prévert) ou d’acteurs engagés (Yves Montand, Simone Signoret), et recueille 15 millions de signatures. Dans le monde, le Mouvement revendique plus de 500 millions de signatures (chiffre gonflé par le comptage systématique de l'ensemble des populations des pays de l’Est).

Cette prise de conscience concerne aussi les « pères » de l’arme atomique comme Albert Einstein, Robert Oppenheimer[61] et Andreï Sakharov (père de la bombe atomique soviétique), qui expriment leurs craintes et leurs regrets et militent pour une désescalade nucléaire. En 1955, onze personnalités de premier plan publient le manifeste Russel-Einstein, appel signé également par Frédéric Joliot-Curie. Bertrand Russell et Albert Einstein se réunissent avec un groupe d'intellectuels à Londres pour rédiger un manifeste qui met en garde contre la course vers un affrontement entre les blocs. Leur texte assimile la course aux armements à une menace pour l'humanité et regrette que le progrès technologique, en particulier l'invention de la bombe atomique, mette l'histoire humaine sur une voie probablement désastreuse. « Voici donc le problème que nous vous présentons, dans ce qu'il a d'austère, de terrible et d'inéluctable : allons-nous mettre fin à l'espèce humaine ; ou l'espèce humaine est-elle prête à renoncer à se faire la guerre ? »

Conclusion

La radioactivité, découverte en 1896 offre une parfaite illustration de l’esprit animant la communauté scientifique et de la richesse de ses échanges, permettant de faire avancer très rapidement les connaissances et le savoir scientifique. Elle aura été l’occasion de faire émerger de grandes personnalités scientifiques -dont certaines illustrent le combat des femmes pour obtenir reconnaissance dans le monde scientifique et égalité dans la société.

Si les scientifiques ont eu le souci d’œuvrer au service de l’humanité, ils n’ont pas échappé aux enjeux géopolitiques de leur époque en participant, parfois à leur corps défendant, à l’engagement de leurs pays dans la guerre. Certains ont ainsi regretté l’utilisation faite de leurs travaux et se sont engagés dans la lutte contre l’armement nucléaire au plus fort de la guerre froide, à l’image d’Oppenheimer ou d’Einstein. Ces scientifiques furent ainsi « citoyens du monde » pour le bonheur et sans doute aussi, pour une part, le malheur de l’Humanité mais aucun n’a échappé à la pensée de Rabelais pour lequel « Science sans conscience n’est que ruine de l’âme ».

II. La connaissance, enjeu politique et géopolitique (Axe 2)

Manuel p.408-423- Conscients de l'importance des savoirs dans la mise en œuvre d'une politique de puissance, les États cherchent à mettre en place des politiques de développement de la recherche et de l'innovation pour accroître leur prospérité économique, asseoir leur supériorité militaire mais aussi étendre leur influence culturelle. Entre rivalités et coopération, la connaissance devient un enjeu fondamental pour les relations internationales.

Dans quelle mesure la connaissance est-elle un enjeu de concurrence et d’affrontement entre les États ? Quel rôle joue-t-elle dans leur développement économique ?

A.    Le renseignement au service des États : les services secrets soviétiques et américains durant la guerre froide

Jalon p.414-415- L’utilisation de services secrets est récente (fin XIXe siècle), mais les espions existaient déjà au moment de la Guerre de Trente Ans, et même bien avant, toutefois l’espionnage prend durant la guerre froide une ampleur et des formes inédites. Avec la guerre froide, la relation entre les deux superpuissances prend une forme nouvelle, à mi-chemin entre guerre et paix. Personnage occulte par définition, l'espion est tout désigné pour se glisser dans cet espace ambigu. La guerre froide est donc, pour partie, une guerre d'espions. KGB contre CIA : taupes, contre-espionnage, services du chiffre des deux puissances se rendent coup pour coup.

Le terme « espionnage » a été progressivement remplacé par le mot « renseignement », moins péjoratif et plus proche des réalités de cette activité : en effet, au-delà de l’imaginaire développé par le cinéma et la littérature, l’agent de renseignement est d’abord un acteur en quête d’informations[62]. Les services secrets pratiquent le renseignement, ce qui inclut la collecte d’informations en amont, l’analyse qui en est faite en aval, et la structure qui en assure le traitement. On a communément schématisé les processus mobilisés ces activités sous la forme du cycle du renseignement, théorisé par l’historien et membre de l’OSS Sherman Kent[63]. Les domaines couverts sont très variés : vie politique, questions militaires, recherche scientifique, économie, etc., tout comme le recrutement et les couvertures des agents et des informateurs.

La Guerre froide (1947-1991) a normalisé le mode de fonctionnement des services secrets.

Quel est le rôle des services de renseignement étatsuniens et soviétiques dans la guerre froide ?

1.     KGB et CIA, deux organisations nées au début de la Guerre froide

Les États-Unis, jeune nation, ont découvert tardivement l'importance du renseignement. Ainsi, alors que le FBI (Federal Bureau of Investigation), fondé en 1908, est un service de sécurité intérieur, l'OSS (Office of Strategic Services) n’est créé qu’en 1942. Les Soviétiques avaient donc une longueur d'avance : le 20 décembre 1920, trois ans après la mise en place de la Tcheka, son dirigeant, Félix Dzerjinski, avait créé un département étranger : Inostrannyotdel. Communément appelé INO, ce service était chargé du contre-espionnage, de l'espionnage et de la surveillance des citoyens soviétiques à l'étranger. Pendant la Seconde Guerre mondiale, les services de renseignement soviétiques sont rassemblés dans la GRU (Direction principale du renseignement militaire).

D'une redoutable efficacité, ils sont parvenus à pénétrer le Département d'État (ministère des Affaires étrangères américain), l’OSS, ainsi que l'appareil scientifique américain. En effet, grâce à la complicité du physicien nucléaire Klaus Fuchs, Lavrenti Beria, qui dirige les services secrets de Staline, a eu connaissance des principaux secrets de fabrication de la bombe dans un rapport du 28 février 1945… soit cinq mois avant le premier essai, à une époque où Harry Truman lui-même ignorait l’existence du projet. Ces complicités ont naturellement facilité la tâche des Soviétiques pour se doter de l’arme atomique en 1949. En 1999, la publication par le transfuge du KGB Vassili Mitrokhine avec le professeur britannique Christopher Andrew d’un ouvrage[64] sur les services secrets soviétiques de 1917 à 1991 a montré l’ampleur de l’espionnage soviétique en Occident. Néanmoins, le pillage des secrets militaires de la première bombe atomique était connu de longue date par les autorités américaines, notamment grâce au projet Venona[65], déclassé et rendu public en 1995.

Créé en 1954, le KGB supplante à partir de 1954 tous les organes du renseignement soviétiques : il collecte des renseignements à la fois dans le domaine militaire et civil, en Union soviétique comme à l’étranger[66]. Doté d’un budget illimité, il est dirigé par un haut fonctionnaire, nommé par le Comité central du PCUS, auquel il est étroitement lié.

 Le KGB a parmi ses principales missions la chasse aux ennemis politiques du régime, à l’intérieur comme à l’extérieur[67].

Aux États-Unis, l’OSS est aboli en 1945, et la CIA (Central Intelligence Agency) est créée  en 1947[68]. Placée sous l’autorité directe du Président des Etats-Unis, elle obtient en 1949 l’autorisation de dissimuler son organisation, ses membres, son budget. La NSA (National Security Agency) est créée secrètement en 1952[69] ; elle dépend du Département de la Défense et gère les activités de cryptologie du gouvernement américain.

2.     Le renseignement pour pénétrer le bloc adverse

Cependant, le KGB conserve l'avantage en matière de pénétration. Parmi ses meilleures recrues en Amérique du Nord[70] :

  • Le Canadien Hugh Hambleton qui, à partir de 1951, allait lui communiquer de nombreux documents émanant de l'OTAN.
  • En 1953, ce fut Robert Lee Johnson, membre de l'armée américaine, qui fournit aux Soviétiques des documents émanant de celle-ci ainsi que des services du chiffre américains, notamment les lieux de stockage des têtes nucléaires américaines en Europe.

Le profil des personnes condamnées pour des activités d'espionnage[71] révèle, dans une certaine mesure, les cibles privilégiées de l'espionnage soviétique : 60% d'entre elles appartenaient aux forces armées américaines. Parmi les 40% de civils, on trouve des agents de la CIA, des fonctionnaires du Département d'État, ainsi que quelques membres de l'industrie américaine. Cette dernière, surtout à partir des années 1970, devient l'une des cibles privilégiées du renseignement soviétique, pour combler le retard technologique et scientifique. De même, les documents et les noms fournis à partir de 1981 au contre-espionnage français par un officier supérieur de la direction T (responsable de l'espionnage scientifique et technique), Vladimir Vetrov, alias « Farewell », contrarient le travail du KGB. En 1983, pas moins de 148 « diplomates » soviétiques, dont 47 en France, sont expulsés -doc.4 p.415. Espionner derrière le rideau de fer.

Côté étatsunien, c’est dans le plus grand secret que des avions de reconnaissance sont conçus pour découvrir, identifier, localiser les arsenaux nucléaires soviétiques. Il a fallu l'incident de l'U2 abattu par les Soviétiques en 1960 pour que le public les découvre. Lors de l'affaire des missiles de Cuba en 1962, le président Kennedy a très largement utilisé les informations secrètes fournies par les photos aériennes et les moyens d'interception électronique.

Par la suite, les satellites d'observation ont permis de disposer de moyens d'observation échappant aux restrictions de survol des espaces aériens nationaux. Ces moyens d'observation ont été en quelque sorte officialisés en droit international quand, à la suite du processus d'Helsinki, qui s’ouvre en 1973[72], il a été fait explicitement référence aux « moyens techniques nationaux » pour la surveillance et la vérification réciproques de l’application des accords de désarmement.

3.     Le renseignement pour consolider et élargir sa sphère d’influence

Présent par exemple à Budapest au moment de l’insurrection hongroise (1956) et lors du Printemps de Prague (1968), le KGB veille à la solidité du bloc. Il s'agit, dans les pays de l'Est, de mettre en place des services de sécurité inféodés à Moscou, et d'assurer la domination des partis communistes locaux. Le KGB aide les régimes « amis » à se maintenir, en collaborant avec les polices de renseignement, comme la Stasi en Allemagne de l’Est.

Il peut parfois bénéficier de complicités : quand, à partir de 1949, la CIA échoue à renverser le régime d’Enver Hoxha en Albanie (projet Valuable[73]), c’est par l’entremise de Kim Philby[74], agent britannique œuvrant pour le KGB depuis les années 1930, démasqué en 1963 comme l’un des « Cinq de Cambridge ».

Parallèlement, le KGB déploie son action dans les pays du tiers-monde :

  • En Égypte, il recruta Sami Sharaf, responsable des services de renseignements et proche conseiller de Nasser.
  • En Inde, profitant des sympathies prosoviétiques du pouvoir, il lança des opérations de propagande antioccidentales. En 1968, le Free Press Journal de Bombay publiait ainsi une lettre accusant les Américains de mener une guerre bactériologique au Vietnam. Prétendument écrite par un officier de l'armée américaine, il s'agissait en fait d'un faux concocté par le KGB.
  • Mais c'est l'Afrique qui devint le lieu de prédilection de l'agence soviétique. Profitant de l'éclatement de l'ancien empire portugais, celle-ci apportait un soutien immédiat au Mouvement populaire pour la libération de l'Angola (MPI.A). On assistait de même à la prise du pouvoir, en 1975, sous ses auspices, de Samora Machel, dirigeant promarxiste du Front de libération du Mozambique, tandis qu'un gouvernement prosoviétique s'installait en Éthiopie en 1974.

De son côté, si la CIA échoue au début de la guerre froide à renverser les régimes communistes du bloc soviétique, elle entreprend avec succès de nombreuses

opérations de déstabilisation politique. Par exemple :

  • Le coup de force contre Mossadegh en Iran en 1953 -doc.2 p.414.
  • L’opération menée contre le président du Guatemala Jacobo Arbenz en 1954.
  • L’opération de la Baie des Cochons à Cuba en 1961.
  • Le coup d’État au Chili contre le président Allende en 1973.

B.    Circulation et formation des étudiants, transferts de technologie et puissance économique : l’exemple de l’Inde

Jalon p.416-417- La connaissance est aussi un enjeu de puissance en temps de paix. Le développement économique de l’Inde est très dépendant de sa capacité d’innovation, et sa montée en gamme dans la NDIT de sa capacité à avoir une main-d’œuvre formée. Ceci entraine une croissance continue des besoins en étudiants de haut niveau et en chercheurs.

L’Inde connaît une forte croissance du PIB nominal (6,9% en moyenne depuis 2012), ainsi que du PIB par habitant (environ 5% par an) ; près de 140 millions d’habitants sont sortis de la pauvreté en moins de 10 ans. Elle est depuis 2018 la cinquième puissance économique mondiale (PIB nominal) devant la France et le Royaume-Uni. Surnommée le « bureau du monde » en raison de son développement fondé sur la téléphonie, l’informatique et l’ingénierie, sa puissance repose en partie sur la formation des étudiants et sur les transferts de technologie (acquisition de savoir-faire techniques).

Comment la mobilité des étudiants et les transferts de technologie contribuent-ils à la puissance de l’Inde ?

1.     Les ingénieurs indiens, une tradition ancienne

a.       Le Raj britannique a besoin d’ingénieurs[75]

Doc.1 p.416. Sam Pitroda : un des « pères » de l’économie de la connaissance- Si l’ingénieur est aujourd’hui l’une des figures du succès économique indien, l’essor de la profession débute dès la colonisation britannique.

À partir des années 1850, les Britanniques investissent en Inde dans la formation d’ingénieurs formés sur le tas avec la construction du chemin de fer. En effet, les ingénieurs militaires (royal engineers), qui assument dans un premier temps la direction des travaux n’y suffisent plus, et les ingénieurs civils recrutés en métropole s’avèrent trop coûteux[76]. L’Inde fait ainsi figure d’exception dans le monde colonial : ailleurs, l’éducation technique est limitée à des niveaux très élémentaires, et ce n’est qu’à partir des années 1920-1930 que des tentatives pour former une main-d’œuvre plus qualifiée voient le jour. À la même époque, les ingénieurs indiens occupent aussi un tiers des postes d’ingénieurs de la colonie.

Les Indiens revendiquent l’égalité d’accès aux postes les plus élevés (résolution du Congrès national indien des 1887), mais la colour bar (discrimination raciale) assure aux ingénieurs de la métropole de meilleurs postes et de meilleurs salaires[77]. Au début du XXe siècle, les nationalistes indiens veulent créer un institut polytechnique central pour former les futurs cadres de l’industrie ; ils fondent en 1906 le Bengal Technical Institute. Grâce à la multiplication des établissements[78], la formation d’ingénieurs s’intensifie : en 1940, plus de 50% des ingénieurs de l’Indian Service of Engineers sont indiens.

b.      La formation qualifiée, un enjeu majeur de l’indépendance à l’émergence

Avec l’indépendance, la formation d’une main-d’œuvre qualifiée devient un enjeu majeur. Des instituts d’élite sont créés, les Indians Institutes of Technology (IIT) sur le modèle du Massachussetts Institute of Technology (MIT). Le premier est créé en 1951. Quatre autres sont fondés ensuite en collaboration avec des puissances étrangères (Allemagne de l’Ouest, États-Unis, Grande-Bretagne).

Les étudiants indiens sont aussi encouragés, par un système de bourses, à se former à l’étranger, principalement aux États-Unis. Outre la facilité linguistique, ce pays bénéficie de la connexion ancienne qui existe entre certaines élites indiennes et le MIT. Dans un contexte où le terrain technologique devient un des enjeux essentiels de la guerre froide, les autorités états-uniennes cherchent à attirer de brillants jeunes gens. Elles ouvrent de nombreuses American Libraries (bibliothèques) en Inde, et assouplissent les lois sur l’immigration afin de pouvoir conserver les jeunes diplômés. En 1967, l’Inde forme ainsi 10 000 ingénieurs par an dont 1 000 sortis des IIT, tandis que 2 300 Indiens étudient l’ingénierie aux États-Unis. Une partie d’entre eux choisissent de ne pas rentrer au pays. Le succès rencontré par certains durant le boom de la Silicon Valley des années 1980, tels Suhas Patil[79] et Vivek Ranadive[80], contribue à asseoir la réputation internationale des ingénieurs indiens.

Lorsqu’une politique de libéralisation de l’économie et d’ouverture aux multinationales étrangères est initiée dans les années 1990, cette main-d’œuvre peu coûteuse mais hautement qualifiée constitue pour l’Inde un atout majeur sur le marché international du travail. C’est en particulier le cas dans le domaine informatique, où des programmes de formation ont été créés dès la fin des années 1960 dans plusieurs IIT. L’installation de multinationales et l’essor de grandes firmes indiennes spécialisées dans les technologies de l’information, comme Infosys, suscitent un véritable engouement pour les formations d’ingénieurs. Entre 2000 et 2010, le nombre d’Engineering Colleges passe de 750 à 3 000[81] : la profession cristallise les espoirs d’ascension sociale d’une partie de la population.

2.     Du brain drain au brain gain

L‘Inde a une des plus fortes populations étudiantes du monde : 35 millions d’étudiants, très mobiles et encouragés à aller à l’étranger, les destinations les plus attractives étant les États-Unis, le Canada et l'Australie. Ces migrations concernent surtout des personnes originaires des grandes métropoles indiennes (Delhi, Mumbai, Chennai, Bangalore, Hyderabad) et issues de milieux socio-professionnels élevés (ingénieurs, médecins, universitaires, avocats). La communauté indienne des États-Unis, estimée à près de 4,5 millions d'individus en 2015, est ainsi la minorité ayant le PIB par habitant le plus élevé du pays. Les cohortes d'informaticiens indiens employés dans la Silicon Valley (10% des employés de Microsoft) constituent l’archétype de la success story des Indiens aux États-Unis. Par exemple, Satya Nadella, le nouveau PDG de Microsoft, est né à Hyderabad et a fait ses études supérieures à Chicago.

Un autre flux notable et récent, bien que très inférieur au précédent puisqu'il ne dépasse pas quelques dizaines de milliers de personnes, concerne le retour de migrants très qualifiés, et en particulier des ingénieurs. Leur cas est intéressant car il invite à relativiser la « fuite des cerveaux » (brain drain) que connaît l'Inde depuis les années 1960. Leur retour en Inde s'explique en partie par le boom du secteur informatique en Inde et par la nouvelle politique de New Delhi vis-à-vis des « non résident indians » (NRI)[82]. Leur réputation aux États-

Unis a également conduit de nombreuses firmes américaines et occidentales à externaliser leurs activités au profit de sociétés indiennes. La « diaspora » des ingénieurs indiens participe ainsi non seulement à un transfert de technologies en Inde, mais aussi à la création d'entreprises par investissements directs, notamment à Bangalore[83], ce qui invite finalement à parler d’un « brain gain »[84] pour qualifier les effets de ces migrations. Le gouvernement indien a évidemment compris l’intérêt que cela représentait pour le développement économique du pays, et pour son rayonnement international, et encourage les membres de la diaspora à revenir en Inde.

NB. On entend ici par « diaspora » un phénomène migratoire et transnational répondant à quatre principaux critères : 1/ Une population dispersée sous la contrainte dans plusieurs lieux ou territoires non immédiatement voisins de celui d’origine. 2/ Des territoires de destination choisis en raison de la constitution de chaînes migratoires. 3/ Une population s’intégrant dans les pays d’accueil sans s’assimiler, c’est-à-dire conservant une conscience identitaire liée à la mémoire de la société et du territoire d’origine. 4/ Des groupes dispersés qui conservent et développent entre eux et avec la société d’origine (lorsqu’elle existe encore), des échanges matériels et immatériels organisés en réseaux (personnes, biens, informations, capitaux, etc.) [85]. Les étudiants indiens font partie de cette diaspora.

3.     Transferts de technologie et puissance économique

a.       Bangalore, la Silicon Valley indienne

Bangalore est devenue la cinquième ville de l’Inde par la population (8,5 millions d’habitants, 12,4 pour le grand Bangalore, « métropole inattendue »[86]).

En 1977, le gouvernement du Karnataka a lancé une agence dédiée au développement d’entreprises d’électronique au sud-est, Electronics City[87], qui accueille depuis 1983 le siège d’Infosys, une des plus importantes sociétés indiennes du secteur. Sa trajectoire est comparée à celle d’Apple : née dans un garage, elle décolle dans les années 1990, et devient une FTN qui réalise 98% de son chiffre d’affaires hors d’Inde et emploie 160 000 salariés. Des zones d’activité spécifiques de plus en plus loin du centre sont créées. Par exemple, à l’est de Bangalore, à 20 km du centre historique une edge city se développe : le parc d’activité (technoburb) de Whitefield.

b.      De l’attractivité d’une main d’œuvre qualifiée et peu coûteuse aux transferts de technologie

La libéralisation des années 1990 est approfondie par les réformes de 2004-2005 pour attirer les IDE et les FTN : création de 200 zones spéciales en périphérie des grandes métropoles (Chennai, Bangalore, Hyderabad), avantages fiscaux, exemptions douanières...

Doc.5 p.417. Transferts de technologie et affirmation de la puissance indienne- Surtout, tout en ouvrant son économie aux FTN étrangères, l’Inde négocie des transferts de technologie. En 2014 le premier ministre N. Modi a lancé le Make in India. Les secteurs prioritaires sont l’automobile, l’aéronautique, les énergies renouvelables, la chimie les technologies de l’information, le ferroviaire et le textile. Les secteurs de la défense et de l’aérospatiale sont particulièrement représentés pour la France avec Dassault, Safran et Naval Group.

III. Le cyberespace : conflictualité et coopération entre les acteurs (Objet de travail conclusif)

Introduction

Problématique p.424-425- Dans l’Axe I, nous avons mesuré l’importance de la production et de la diffusion de la connaissance pour les États et les sociétés. Nous avons étudié l’intensification des échanges entre les scientifiques depuis le XVIe siècle, l’implication des États dans la démocratisation du savoir à travers l’exemple de l’alphabétisation des femmes dans le monde, et les inégalités qui persistent dans ce domaine.

Dans l’Axe II, nous avons vu que la connaissance est un instrument de pouvoir politique. Elle participe de la puissance militaire d’un État par l’intermédiaire du renseignement, et de son pouvoir économique dans des sociétés marquées par l’innovation technologique. Entre concurrence comme au temps de la guerre froide et coopération parfois nécessaire, la connaissance est un élément majeur des relations internationales.

Avec cet objet de travail conclusif, nous allons découvrir comment la production et la diffusion de la connaissance ainsi que la manière dont les États la favorisent ou la contrôlent s’appliquent dans le domaine du cyberespace -Vocabulaire p.426. La révolution numérique provoquée par l'adoption massive des technologies de l'information et l'interconnexion mondiale des systèmes d'information et de communication a connu une accélération fulgurante au cours des deux dernières décennies. Elle a entrainé un bouleversement profond des pratiques sociales, économiques et politiques des sociétés humaines, plus important peut-être que les ruptures engendrées par l'invention de l'écriture et de l'imprimerie. Des pans entiers de la connaissance et de l'activité humaine sont désormais transformés en données numériques, dont le volume connait une véritable explosion. Réseau planétaire sans frontières, source de conflictualité et de coopération, le cyberespace représente un défi pour la sécurité et la souveraineté des États, entre liberté de l’information et contrôle des données qui y circulent.

Quel enjeu le cyberespace constitue-t-il à l’échelle mondiale et pour la France ?

A.    Le cyberespace, entre réseaux et territoires (infrastructures, acteurs, liberté ou contrôle des données…)

Carte p.426-427. Le cyberespace : acteurs, contrôles et menaces- Le cyberespace, né de l’interconnexion des réseaux de télécommunication numérique, défie les représentations classiques du territoire -doc.1 p.430. Le cyberespace est-il un territoire ? en permettant des échanges immatériels transfrontaliers quasi instantanés. Les acteurs du cyberespace mettent en œuvre des stratégies pour se l’approprier, le contrôler ou en défendre l’indépendance.

1.     Définitions, enjeux

a.       Bienvenue dans la Matrice

Le cyberespace est un espace immatériel (parfois qualifié de « virtuel »[88]) qui émerge à la fin du XXe siècle. Il désigne l’ensemble des systèmes d’échange de données numériques, devenues aujourd’hui si massives qu’on parle de « big data » -Vocabulaire p.428.

Le cyberespace se présente donc comme un ensemble de couches superposées :

  • La première couche (hardware) est constituée par l’infrastructure physique, composée de terminaux (ordinateurs, smartphones…) et d’équipements de réseaux (serveurs, câbles, satellites…) -cet espace immatériel présente des externalités très concrètes[89] -Carte 2 p.430. Réseaux de câbles sous-marins et datacenters + Les data centers dans le monde p.428!
  • La deuxième couche (software) est l’infrastructure numérique : systèmes d’exploitation (Windows, Linux, macOS…) et applications (logiciels) assurant la transmission des données.
  • La dernière (data) est celle du contenu informationnel échangé entre utilisateurs.

Cet ensemble spatial « immatériel » est un nouvel environnement dans lequel nous évoluons. Il possède sa propre géographie, dont on sait encore très peu de choses. Pourtant, comprendre la géographie du cyberespace est indispensable à la compréhension du monde contemporain, car elle révèle des rapports de force et des stratégies d'acteurs, qui s'opèrent dans et hors de la datasphère.

b.      Les enjeux de la maîtrise du cyberespace

À des fins commerciales ou politiques

Associées à de puissants algorithmes, les données numériques permettent d'analyser nos déplacements, nos occupations, nos centres d’intérêt, nos comportements commerciaux. Nos traces numériques permettent des analyses prédictives sur nos comportements à des fins commerciales ou politiques. Le cyberespace est donc au cœur d’enjeux marchands, mais aussi politiques quand se mettent en place des formes de gouvernance numérique, par exemple en Chine[90] (mais pas seulement), ce qui soulève des préoccupations en termes de liberté -doc.4 p.431. Une restriction des libertés à l’ère de la data surveillance + Points de vue p.434-435. Le cyberespace : une menace pour les libertés individuelles ? + Sujet bac p.438-439. Internet en Chine.

Elles poussent ainsi les entreprises et les États à entamer une transformation numérique : la capacité à collecter, stocker, croiser et exploiter les données est désormais au cœur de l'innovation, moteur de la croissance économique et de l’exercice du pouvoir, mais aussi de multiples enjeux éthiques, démocratiques, de gouvernance et de légitimité.

À des fins de renseignement ou d'opérations militaires extérieures

Plus largement, et bien que le concept même de cyberguerre ne fasse pas consensus dans le monde académique[91], les années 2010 ont vu l’émergence de la représentation du cyberspace comme un nouveau domaine militaire. Les cyber opérations font désormais partie de l’arsenal des armées et viennent en appui de tous les moyens utilisés pour faire la guerre.

Mais la technologie est désormais à la portée d'un nombre beaucoup plus important d'acteurs, étatiques et non étatiques, de plus en plus entreprenants, imaginatifs… et agressifs. On distingue plusieurs types d’attaques numériques : le cyberespionnage (s’introduire dans un système pour y dérober des données) -Vocabulaire p.426, le sabotage (empêcher un système de fonctionner)[92], la subversion informationnelle (ingérences déstabilisatrices). La décennie 2010 a ainsi été marquée par une diversification des cibles et une diversification des acteurs -doc.5 p.431. Agresseurs et victimes dans le cyberespace.

La transformation numérique des sociétés les rend de plus en plus dépendantes au cyberespace, dont la stabilité est désormais essentielle à leur bon fonctionnement. Or, plus une société est connectée et dépendante au numérique, plus sa vulnérabilité est importante.

2.     Stratégies d’acteurs : entre conflictualités et coopérations

De multiples acteurs publics et privés coopèrent et s’affrontent dans le cyberespace. Aux côtés des particuliers, des entreprises (GAFAM -Vocabulaire p.429), des organismes indépendants[93] et des acteurs publics (États, collectivités), de nouveaux acteurs nés du numérique l’investissent[94].

a.       Conflictualités

Une menace plus présente, complexe, protéiforme et imprévisible

La multiplication des attaques a révélé la vulnérabilité mais aussi l'impréparation des États, y compris les plus avancés. Dès 2007, les cyberattaques -Vocabulaire p.426 contre l'Estonie ont servi de catalyseur à la cyberguerre. Menées dans le contexte de manifestations de la minorité russophone contre le déplacement d’une statue à Tallinn, ces attaques avaient paralysé les sites Web de banques, de médias, de ministères et du Parlement. En juillet 2008, une vague de cyberattaques contre des sites géorgiens précédait de peu l’entrée des chars russes dans le pays, inaugurant la première cyberattaque combinée à une opération militaire. En 2010, Stuxnet a inauguré la première attaque majeure contre une infrastructure critique, dans une tentative conjointe des Etats-Unis et d'Israël d'enrayer le programme nucléaire iranien. En 2014, les attaques contre Sony Pictures ont créé la surprise, en montrant que de grandes entreprises pouvaient être touchées -Cf. également l'attaque de TV5 Monde en 2015 -doc.5 p.433. La cyberattaque contre TV5 Monde.

Puis, en 2015, la surprise est venue de l’usage sophistiqué des réseaux sociaux par l'État islamique pour diffuser sa propagande, favoriser la radicalisation en ligne, lever des fonds, organiser des départs vers la Syrie et fomenter des attentats. En 2016, c’est au tour de l'administration américaine de se faire surprendre par les ingérences attribuées à la Russie dans l'élection présidentielle de 2016. Les manipulations de l'information à des fins de déstabilisation des démocraties mobilisent désormais une grande attention.

En 2016 et 2017 les attaques de WannaCry et NotPetya[95] -Rançongiciel : vocabulaire p.429, ont inauguré l'ère des attaques à propagation massive et incontrôlable, causant les dégâts les plus importants jamais enregistrés en touchant dans plus de 150 pays des dizaines d’entreprises et d'institutions. Elles ont démontré non seulement le besoin de protéger les systèmes mais aussi d'être en mesure de réagir très vite pour parer à la contamination.

Le cyberespace, un nouvel espace de confrontation dans les rivalités géopolitiques

Ces évolutions ont exacerbé une course aux cyberarmes, dans une dynamique de militarisation du cyberespace qui a conduit les États à en faire une priorité stratégique : il reflète donc les tensions internationales.

La Chine a pour ambition de devenir la « cyberpuissance majeure » -Vocabulaire p.426. Depuis la fin des années 1970, pour rattraper le retard sur les pays occidentaux, les dirigeants chinois ont élaboré des programmes d'investissements dans l'éducation et la recherche et cherché à acquérir des technologies étrangères. En abordant de nouvelles sources de croissance liées au numérique, l’économie chinoise s’est éloignée du modèle des années 1990 (exportations d’industries à faible valeur ajoutée) et a progressé dans la chaîne de valeur. C’est logiquement que l’on assiste en 2014 à la création du Groupe gouvernemental pilote pour la cybersécurité -Vocabulaire p.426 et l’informatisation[96]. Cet organe, présidé par Xi Jinping en personne, dirige la politique numérique du pays. Dans le langage politique chinois, le PCC cherche à accomplir le « rêve chinois ». Cette politique s'est construite en opposition au rôle mondial par les États-Unis.

L’approche étatsunienne des cyber opérations, théorisée à partir de 2009 avec la création par B. Obama d’un cybercommand, a connu un tournant en 2018 sous l’administration Trump, avec l’adoption d’une stratégie de confrontation continue (Persistent Engagement). Persistent Engagement reflète la « théorie de la victoire », un récit politique qui affirme que la patience stratégique manifestée par B. Obama dans le domaine des attaques numériques a diminué la sécurité américaine : d’où le choix de « créer de la friction »[97]. Pour certains observateurs, la stratégie du Persistent Engagement constitue une approche potentiellement déstabilisatrice de la conflictualité numérique[98], en contribuant à l'accélération de la course aux cyberarmes. Pour autant, elle n’a pas été abandonnée par l’administration Biden.

Les vingt dernières années ont été marquées par l’affirmation de la cyberpuissance russe.

 Depuis les attaques menées contre l’Estonie (2007), la Géorgie (2008) et l’Ukraine (2014, 2022), la Russie est régulièrement mise en cause dans des cyberattaques. Pirates, mercenaires, l’origine de ces cyberattaques est floue, mais les motivations, souvent nationalistes, font pencher pour un soutien de l’État à ces opérations, et ce d’autant plus quand elles se déroulent dans l’« étranger proche ». Ces dernières années, la conceptualisation de la guerre en Russie a évolué pour intégrer des moyens non militaires à côté des moyens armés traditionnels, par exemple à travers le concept de « guerre de l’information ». La stratégie cyber russe est ainsi intrinsèquement liée à sa stratégie de guerre de l’information, les campagnes de désinformation menées par des trolls russes s’accompagnant souvent de cyberattaques. Les acteurs impliqués dans ces opérations ont évolué, du recours à des hackeurs -Vocabulaire p.429 indépendants au début des années 2000 à l’instauration d’unités scientifiques militaires (2013) et d’une « force de cyber opérations » (2014).

b.      Coopérations

Entre acteurs étatiques

Les États font face à un dilemme sécuritaire à propos des opérations offensives dans le cyberespace, qui oppose deux représentations du risque cyber, suscitant des tensions complexes et des objectifs parfois irréconciliables :

  • D’un côté, les États se représentent la menace cyber comme un risque systémique, autrement dit un phénomène très complexe, transfrontalier, pas nécessairement d'origine étatique et qui à l’image des pandémies peut se répandre très rapidement, s'avérer très difficile à stopper et entraîner des dommages massifs. Il est dès lors dans l'intérêt de tous de stopper la contagion. Cette approche du risque plaide pour une coopération renforcée entre gouvernements et avec les acteurs privés, et une limitation des armes, dans l'intérêt commun de la stabilité du système.
  • Mais, d'un autre côté, la menace cyber est d'abord une menace géopolitique pour les États, puisque les outils offensifs sont utilisés par leurs adversaires pour accroître leur pouvoir en appui du renseignement, de l'espionnage, de l’influence, etc. Juguler ce risque entraîne les États dans la direction opposée, celle du développement d'un arsenal offensif et d'une coopération limitée pour protéger leurs capacités souveraines (notion de « souveraineté numérique ».

La seconde approche domine clairement les représentations des États aux capacités les plus avancées. Source de défiance entre États, elle les encourage à renforcer leur contrôle « territorial » du cyberespace. Elle limite leur capacité à se mettre d'accord sur la régulation du comportement des États dans le cyberespace. Les États se trouvent ainsi face au même type de dilemme que lors de la prise de conscience des dangers du nucléaire. Or la technologie numérique est à la portée d'énormément d'acteurs, et pas seulement des États : plus facile à voler et réutiliser qu'un missile nucléaire, elle nécessite une approche totalement différente de la contre-prolifération.

Des discussions sur la régulation du cyberespace ont quand même lieu. Dès 1998, l’ONU adopte une résolution sur la cybersécurité et en 2001, l’Assemblée générale crée un groupe d'experts gouvernementaux (GGE) pour entamer des discussions sur les enjeux de sécurité des technologies de l'information et de la communication (TIC). Les trois rapports produits par les GGE successifs[99] illustrent la prise de conscience par les États de leur propre vulnérabilité et de l'existence d'un risque systémique, donc de la nécessité que le droit international s’applique au cyberspace[100]. L'espace numérique n'est donc plus ce « Far West numérique » dans lequel seule la loi du plus fort domine, au moins en théorie. Mais les modalités de régulation du cyberespace sont l’objet de profondes dissensions :

  • D'un côté, une partie des États, dont les États-Unis, estiment que le droit international existant suffit à réguler les comportements et argumentent en faveur d’engagements politiques des États, via des normes non contraignantes, qui ne créent pas de nouvelles obligations internationales.
  • De l'autre côté, certains États, notamment la Russie, considèrent que le droit existant ne suffit pas à réguler le comportement des États dans le cyberespace. Il faut donc de nouvelles règles, de nouveaux droits et obligations contraignantes pour compléter le droit international, via un traité.

L’élaboration d'un consensus entre les États est chose ardue, mais des avancées ont pu être opérées. Ainsi, les États se sont mis d'accord en 2015 sur une série de normes non contraignantes pour réduire les risques : par exemple, les États ne doivent pas autoriser que depuis leur territoire des cyber-opérations causent des dommages intentionnels aux infrastructures d'importance vitale. Ils doivent échanger de l’information et se prêter mutuellement assistance. L'adoption de ces normes montre donc une volonté commune d'assurer la sécurité et la stabilité de l'espace numérique. Mais depuis 2016-2017, les négociations sont dans l’impasse, dans un contexte géopolitique tendu.

L’implication d’acteurs non-étatiques

En conséquence, des acteurs non étatiques, confrontés eux aussi au risque systémique, se sont impliqués directement dans ces discussions à travers différentes initiatives. En 2017, Brad Smith, président de Microsoft, lance un appel en faveur d’une convention de Genève du numérique. S'inspirant des conventions de Genève de 1949, il appelle les États à protéger les infrastructures et les citoyens contre les attaques informatiques en temps de paix, et à créer une organisation internationale sur le modèle de l’Agence internationale de l'énergie atomique. Au même moment, lors de la conférence de sécurité de Munich, la Global Commission on the Stability of Cyberspace (GCSC) lance ses travaux. Créée à l’initiative du ministre des Affaires étrangères des Pays-Bas avec le soutien de grandes entreprises et de quelques États, cette commission indépendante regroupe 28 experts internationaux venus du secteur privé, du monde académique, de la communauté technique et d’organisations non gouvernementales, chargés de proposer de nouvelles normes pour maintenir la sécurité et la stabilité dans l'espace numérique.

Entre 2017 et 2019, ces acteurs ont joué un rôle important dans les débats portant sur la sécurité et la stabilité de l'espace numérique. La GCSC a ainsi proposé huit normes de comportement[101] dont plusieurs ont été intégrées dans l'Appel de Paris en novembre 2018[102] et le Cybersecurity Act adopté en mai 2019 par l'Union européenne. Fin 2019, Microsoft, MasterCard et la Fondation Hewlett, créent le CyberPeace Institute, qui dispose d'une fonction d'accountability afin d'évaluer le respect des normes de comportement et du droit international par les États. De même, la désignation en janvier 2020 par Microsoft d'un représentant spécial chargé des questions onusiennes illustre la volonté de l'entreprise d'influencer directement les discussions internationales. L’apport des acteurs non étatiques dans les discussions internationales est reconnu de plus en plus largement, même s'il reste perçu de manière diverse.

Le paysage des négociations internationales devient ainsi particulièrement foisonnant voire confus, avec une multiplication des acteurs, des initiatives et des propositions, ce qui risque de conduire à des incohérences ou des ambiguïtés. Quelle que soit la tournure que prendront les négociations, le risque systémique restera nécessairement élevé en raison des intérêts stratégiques divergents des États parce que le cyberespace ça sert, d'abord, à faire la guerre, et que sa régulation relève de la défense par les États de leurs intérêts.

B.    Cyberdéfense, entre coopération européenne et souveraineté nationale : le cas français

1.     Enjeux

L’affaire Snowden (2013), et plus récemment l’affaire Cambridge Analytica, en révélant à la fois les abus des services de renseignement étatsuniens dans la captation des données personnelles[103], et ceux d'entreprises exploitant les données personnelles sur les plateformes numériques américaines à des fins d'influence politique dans les processus électoraux, ont joué un rôle dans la prise de conscience par la France et les États européens des inconvénients de leur dépendance de vis-à-vis des entreprises américaines du numérique, par exemple en les empêchant de combattre efficacement la propagande des groupes terroristes ou certaines manipulations de l'information. Cette prise de conscience, renforcée par l’augmentation des attaques informatiques et informationnelles attribuées à l'État russe, ou encore la montée en puissance des entreprises chinoises en matière d'intelligence artificielle et de technologies 5G, a suscité des discours en faveur d'une « souveraineté numérique » française et/ou européenne.

Mais l’emploi du terme « souveraineté numérique » pour aborder des enjeux stratégiques prête à confusion. Il est en effet basé sur la représentation d'une perte de souveraineté de l'État et d'une volonté de réappropriation du cyberespace, comme un territoire à reconquérir[104]. Or ce postulat est un non-sens du point de vue du droit international, puisque tout État indépendant est souverain ; seulement, la révolution numérique vient bouleverser les modalités de cette souveraineté en permettant des activités transfrontalières et en offrant des moyens d'action à distance. Aussi, les spécialistes mobilisent-ils davantage le concept d'autonomie stratégique, perçue comme le moyen pour la France d'exercer sa souveraineté et visant à détenir une capacité autonome d'appréciation, de décision et d'action pour protéger les informations stratégiques de l'État français[105].

Depuis 2009, la France dispose ainsi de l’Agence nationale de la sécurité des systèmes d’information (ANSSI -Vocabulaire p.428) et d'une force armée de cyberdéfense de 3 400 cyber-combattants (COMCYBER) -doc.1 p.432. L’organisation de la cyberdéfense française + doc.2 p.431. La stratégie française de cyberdéfense + doc.3 p.431. Des cyber-combattants lors d’un exercice de cyberdéfense européen.

Le recours au terme d'autonomie stratégique présente en outre l'avantage de ne pas exclure les coopérations indispensables entre États et s'applique ainsi aisément à l'échelle européenne. En effet, l’autonomie stratégique numérique ne peut se concevoir que dans l'interdépendance car l'interconnexion mondiale des réseaux numériques exclue par définition un raisonnement à la seule échelle nationale. Elle comprend donc un raisonnement à l’échelle nationale pour les technologies jugées les plus critiques, mais impose un raisonnement à l'échelle européenne pour développer et faire émerger des technologies avec des partenaires de confiance. La dimension européenne de cette recherche d'autonomie stratégique numérique est pour la France une priorité stratégique.

De fait le concept d'autonomie stratégique a fait son entrée dans la politique européenne, y compris dans les documents d'orientation stratégique. Mais l'attitude à adopter vis-à-vis des États-Unis est au cœur des discussions sur l'autonomie stratégique européenne et constitue l'un des points de crispation quant aux risques qu'elle pourrait faire peser sur les relations transatlantiques, particulièrement en matière de défense[106].

2.     Perspectives

Le degré de crédibilité du discours national ou européen sur l'autonomie stratégique numérique s'apprécie au regard de la confrontation avec le réel, c'est-à-dire avec l'état du tissu scientifique, socioéconomique et industriel mobilisable. Or, en l’état actuel des choses, ni la France ni l'Europe ne disposent des fondements socioéconomiques et industriels de leur souveraineté numérique. En effet, l’avenir de l’espace numérique souverain, notamment militaire, se joue principalement autour de trois technologies critiques :

  • L’intelligence artificielle (IA), qui révolutionne les processus de prise de décision.
  • L’informatique quantique, qui remet en cause les systèmes de chiffrement en vigueur dans les forces armées ;
  • La 5G, qui augmente la vitesse et le volume des flux d’information, et le potentiel de connexion.

Sur cet ensemble de technologies critiques, un duopole sino-américain est constitué, la Chine contestant le leadership des États-Unis. Quoi qu'il en soit de l’évolution du rapport de force, ce duopole paraît solidement établi[107]. L'émergence d'un nouvel acteur dans les technologies critiques de la souveraineté numérique semble donc improbable.

Cela ne signifie pas pour autant que la France et l'Europe n'ont plus d’autre choix que de s'aligner sur le moins mauvais des deux membres du duopole et de renoncer à toute autonomie décisionnelle. Il est possible de développer certaines formes d'autonomie stratégique, en matière militaire notamment, fondées sur le développement d'écosystèmes numériques locaux engendrant innovation coopérative et compétitivité -doc.4 p.433. Le pôle d’excellence cyber en Bretagne.

La domination du duopole sino-américain est probablement irréversible dans les technologies critiques aujourd'hui nécessaires pour construire une souveraineté numérique au sens le plus fort du terme. En revanche, les compétences propres des acteurs européens dans certains domaines ainsi que l'émergence de nouvelles technologies critiques (l’informatique quantique ou l'intelligence artificielle par exemple) devraient conduire à une politique sélective de soutien à des acteurs susceptibles de tenir leur rang dans la compétition avec leurs homologues américains ou chinois. Ainsi, l'Europe pourrait se doter d’une réelle autonomie stratégique sur la base de ces compétences limitées mais essentielles. Autant la conquête générale de la chaîne du numérique paraît exclue du fait du retard pris et de l'énormité du ticket d’entrée qu'il serait nécessaire d'acquitter, autant une politique ciblée concentrant les ressources limitées dont dispose l'Europe pourrait avoir une efficacité politique, économique et militaire suffisante.

La mise en œuvre du concept d'autonomie stratégique européenne en matière de numérique s’avère possible mais complexe, tant dans sa dimension politique que dans sa dimension industrielle. Et l'usage politique qui est fait du terme de « souveraineté numérique » dans le débat public n'est pas de nature à faciliter l'émergence d'une compréhension commune entre les États membres de l’Union européenne. Pourtant, cette compréhension commune s'avère particulièrement cruciale au regard des enjeux du numérique, qu’ils soient technologiques, démocratiques, éthiques, économiques ou encore de sécurité.

Conclusion

Révisions p.436-437

Sujets bac p.438-439

Conclusion du thème

Révisions p.440-441

Sujet bac p.442-443 (grand oral)


[1] « Si le terme « connaissance » est utilisé de façon générique, il est souvent employé pour désigner non pas tous les domaines du savoir, mais plus particulièrement la connaissance scientifique et technique qui conditionne le progrès technique, lui-même déterminant pour l’innovation et la performance des secteurs d’activité intensifs en connaissance » in Martine Azuelos, L’économie de la connaissance aux États-Unis : concepts, institutions, territoires, LISA, volume WIV-n°1 2016 https://doi.org/10.4000/lisa.8838

[2] Cf Marshall McLuhan et Derrick Kerckhove in J.-P. Alix, « Société de la connaissance, réforme ou révolution », Natures Sciences Sociétés19, 277-281 (2011) https://www.cairn.info/revue-natures-sciences-societes-2011-3-page-277.htm

[3] …Cf. son article As We May Think dans la revue Atlantic Monthly. Par ailleurs, Vannevar Bush est connu pour avoir conceptualisé le premier la navigation par lien hypertexte.

[4] Science qui utilise les résultats de la théorie du signal et de l'information pour développer une méthode d'analyse et de synthèse des systèmes complexes, de leurs relations fonctionnelles et des mécanismes de contrôle, en biologie, économie, informatique, etc.

[5] « Cybernetics, or Control and Communication in the Animal and the Machine » (1948).

[6] Il naît à Vienne, fait des études de droit à Francfort tout en travaillant dans une société textile à Hambourg. En 1933, il émigre en Angleterre puis aux États-Unis. Il travaille pour General Motors pour créer de nouvelles méthodes d’organisation (1946), devient consultant et professeur de management à la New York University (1950-1971) puis en Californie (Université de Claremont). Ce n’est pas un penseur en science sociale (son apport est surtout dans la théorie du management), mais c’est à lui que l’on attribue la formule de « société de la connaissance ».

[7] …visant à faire de l’UE en 2010 « l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale »

[8] Philippe Breton, « La société de la connaissance : généalogie d’une double réduction », De Boedck Supérieur, 2005/1n°15 https://www.cairn.info/revue-education-et-societes-2005-1-page-45.htm

[9] Stéphane Van Damme Sciences en société, Documentation photographique, janvier-février 2017 n°8115

[10] Geneviève Dumas, « Flux immatériels et diffusion des idées scientifiques au Moyen Âge », Siècles [En ligne], 46 | 2019. URL : http://journals.openedition.org/siecles/4333

[11] Karl Popper, La Logique de la découverte scientifique, 1934

[12] L’École polytechnique est sous statut militaire dès 1804 -Cf. devise : « Pour la Patrie, les Sciences et la Gloire »

[13] Cf. l'accroissement du nombre d'étudiants étrangers en France : en 1898, sur 12 000 étudiants, 20% viennent de Russie, 19% de Roumanie, 13% de Turquie.

[14] Ce conseil réunit les plus grands physiciens : Max Planck, Marie Curie, Henri Poincaré, Albert Einstein…

[15] En France, le Journal des Sçavans a été créé en 1665 par l’Académie de Sciences ; en Angleterre, il s’agit de la revue Philosophical Transactions éditée la même année par la Royal Society.

[16] Le Science Citation Index recense 6126 journaux, l’Elseviers’s Scopus recense 15000 revues à comité de lecteur et la base de données Medline offre 19 millions de référence.

[17] Cf. https://atlasocio.com/classements/education/publications/classement-etats-par-nombre-publications-scientifiques-monde.php

[18] Dans Frankenstein, Mary Shelley (1808) évoque les travaux de Darwin et les expériences anatomiques réalisées à Paris.

[19] François Arago (1786-1853) est un astronome, physicien et homme d'État français sous la IIème République.

[20] Les plus célèbres sont le Palais de la découverte et la Cité des sciences et de l'industrie de La Villette.

[21] …37 épisodes, qui s’inscrivent dans l’immense filmographie de l’auteur, et surtout dans la foulée de l’immense succès du film documentaire Le monde du Silence, tourné en 1956 et récompensé par une palme d’or et un Oscar.

[22] Cf. https://www.lemonde.fr/pixels/article/2021/01/14/wikipedia-fete-les-20-ans-d-une-belle-et-exigeante-utopie_6066271_4408996.html

[23] Cf. la déclaration d’indépendance du cyberespace (1996) : texte intégral (traduit), podcast France Culture.

[24] Cf. André Vitalis, « La « révolution numérique » : une révolution technicienne entre liberté et contrôle », Communiquer [En ligne], 13 | 2015. URL : http://journals.openedition.org/communiquer/1494

[25] Cf. Frédéric Joignot, « Les 30 ans du Web : de l’utopie à un capitalisme de surveillance », lemonde.fr, 14 février 2019

[26] Juan Luis Vives (1492-1540), est un théologien, un philosophe et un pédagogue espagnol.

[27] Philippe Melanchthon (1497-1560) : un humaniste, philosophe et réformateur protestant allemand.

[28]Elle est béatifiée en 1900 par le pape Léon XIII et canonisée le 15 mai 1949.

[29] Canonisée en 1767.

[30] François de Salignac de La Mothe-Fénelon (1651-1715), est un homme d'Église, théologien, pédagogue et écrivain français.

[31] Rassurez-vous, ils ont aussi 4 garçons...

[32] …dont elle fut secrètement la seconde épouse après la mort de la reine Marie-Thérèse en 1683.

[33] Maison fondée en 1686 par madame de Maintenon pour l'éducation des jeunes filles nobles et sans fortune, supprimée en 1790. Le site a accueilli l'École militaire de Saint-Cyr en 1808, puis le Lycée militaire de Saint-Cyr en 1964.

[34] « La femme est faite pour céder à l’homme et pour supporter même son injustice. » ; « Toute l’éducation des femmes doit être relative aux hommes. Leur plaire, leur être utiles, se faire aimer et honorer d’eux, les élever jeunes, les soigner grands, les conseiller, les consoler, leur rendre la vie agréable et douce : voilà les devoirs des femmes dans tous les temps, et ce qu’on doit leur apprendre dès l’enfance. », Jean-Jacques ROUSSEAU (1712-1778), L’Émile ou De l’éducation (1762)

[35] Institution aujourd’hui bicentenaire, les maisons d’éducation de la Légion d’honneur ont ainsi traversé tous les régimes politiques sous deux empereurs, trois rois et quatre républiques.

[36] …ou de « bonnes chrétiennes » quand leur éducation est prise en charge par l’Église.

[37] À approfondir avec cette émission de France-Culture

[38]Alphabétisation fonctionnelle : capacité d'une personne à s'engager dans toutes les activités dans lesquelles l'alphabétisation est nécessaire pour le fonctionnement efficace de son groupe et de sa communauté et aussi pour lui permettre de continuer à utiliser la lecture, l'écriture et le calcul pour ses propres besoins (UNESCO)

[39] France-Culture, « 750 millions d’analphabètes dans le monde mais des progrès », 8/09/2018.

[40] Les années 1990 marquent un tournant important : en 1990, lors de la Conférence mondiale sur l’éducation pour tous à Jomtien, en Thaïlande, l’éducation des filles est identifiée comme une priorité à l’échelle mondiale. Les institutions internationales accompagnent alors les États des Suds dans la mise en place de programmes de discrimination positive pour encourager l’accès des filles à l’école

[41] Des pays comme l’Arabie saoudite ou le Koweït ont réduit considérablement les inégalités de fréquentation scolaire entre filles et garçons ou les ont même fait disparaître dans le cas du Koweït, tout en maintenant des discriminations très importantes entre femmes et hommes, tant dans les droits de la personne, de la famille, du travail, que dans les droits civiques et politiques des femmes (NB. Les femmes n'ont obtenu le droit de vote qu'en 2005 au Koweït ou en 2011 en Arabie saoudite, soit pour le Koweït dix années après que les filles et les jeunes filles deviennent plus instruites que les garçons)

[42] Le cas du Sénégal, où les filles deviennent plus nombreuses à fréquenter l’enseignement primaire en 2010, le premier cycle du secondaire en 2012, puis le secondaire en 2019, illustre la réussite de certains pays à faibles revenus, alors que certains pays à haut revenu sont parfois incapables de gérer et d'améliorer leurs systèmes scolaires.

[43] Ainsi en Inde en 2011, sur les 265 millions d’analphabètes, 171 millions étaient des femmes.

[44] Concept reconnaissant une pluralité de pratique d’alphabétisation en fonction des situations économiques, sociales, culturelles, personnelles et collectives et tenant compte des progrès des technologies de l’information et de la communication.

[45] Anaïs BROSSEAU, « L’alphabétisation des femmes, un facteur de développement », La Croix, 2014.

[46] Aujourd’hui, sur le continent africain, 1 fille sur 10 ne va pas à l’école quand elle a ses règles, parce que les établissements scolaires ne proposent pas d’endroit où elles puissent se changer dans le respect de leur intimité.

[47] C'est-à-dire l'émission spontanée (sans apport d'énergie extérieure) de radiations par une substance inerte

[48] …en hommage au pays d’origine de Marie Curie, née Maria Skłodowska en 1867 en Pologne

[49] Marie Curie repose depuis 1995 au Panthéon, aux côtés de Pierre. Cf. le très beau discours prononcé à cette occasion par le président de la République, François Mitterrand.

[50] Cf. introduction.

[51] Les congrès Solvay sont toujours organisés, depuis la fin de la Seconde Guerre mondiale, selon un cycle de trois ans : conseil de physique la première année, aucune conférence la deuxième et conseil de chimie la troisième.

[52] Dès 1914, elle s’est engagée dans une première campagne sur la base d’une voiture équipée du matériel de recherche en radiologie, empruntée à Claudius Regaud, co-directeur de l’Institut du radium et un des pionniers de la radiothérapie. L’objectif était de limiter les déplacements des blessés, avant de radiographier leurs blessures. Cette discipline, inédite à l’époque, permettait de situer avec précision l’emplacement des éclats et faciliter ainsi l’opération chirurgicale. Celle-ci, selon la gravité, pouvait être différée et donc pratiquée en hôpital, ou immédiate, réalisée sur place.

[53] Au total, ce sont des centaines de postes de radiologie créés au sein des hôpitaux militaires. Les archives citent le nombre de plus d’un million de blessés ayant été secourus grâce à ces installations, dont un millier par Marie Curie en personne.

[54] Les physiciens nucléaires Leó Szilárd, Edward Teller et Eugene Wigner (trois réfugiés juifs hongrois) sont convaincus que l'énergie libérée par la fission nucléaire peut être utilisée dans des bombes par l'Allemagne nazie. Ils persuadent Albert Einstein d'alerter le président des États-Unis, par une lettre du 2 août 1939 dont Szilárd fit le brouillon. Franklin Roosevelt autorise la création du Advisory Committee on Uranium, réuni pour la première fois le 21 octobre sous la direction de Vannevar Bush.

[55] Brillante physicienne autrichienne, elle fuit l’Allemagne en 1938 avec l’aide de Hahn (qui y reste, tout en restant opposé au nazisme). Quand Hahn obtient le Prix Nobel de Chimie en 1944 pour leurs travaux, cela restera pour elle une grande blessure.

[56] …auquel Lise Meitner refuse de participer, par hostilité au principe d’une bombe atomique.

[57] Au lendemain d’Hiroshima, Staline exige l’intensification du programme atomique dirigé par Igor Kourtchatov.

[58] Impulsé par le général de Gaulle, avec la création du CEA mais il faut attendre le 4 novembre 1954 et le général Jean Crépin et le professeur Yves Rocard pour que démarre le programme militaire français. 13 février 1960, 1er essai à Reggane (Sahara) « Gerboise bleue ».

[59] « Devant les perspectives terrifiantes qui s'ouvrent à l'humanité, nous apercevons encore mieux que la paix est le seul combat qui vaille d'être mené. Ce n'est plus une prière, mais un ordre qui doit monter des peuples vers les gouvernements, l'ordre de choisir définitivement entre l'enfer et la raison ».

[60]Frédéric Joliot Curie, à l’origine de l’appel, est exclu de la présidence du CEA.

[61] Hostile à la fabrication de la bombe à hydrogène, il a été par la suite tenu à l’écart des secrets nucléaires en raison de ses anciennes sympathies pour des membres du parti communiste. Il n’a été réhabilité que neuf ans plus tard, en 1963.

[62] G. Arboit (2013), Au cœur des services secrets : Idées reçues sur le renseignement (pp. 13-15). Paris, Le Cavalier Bleu.

[63] Ses travaux, publiés en 1949, ont fait l’objet de nombreuses remises à jour (synthèse consultable ici) et remises en cause.

[64] « The Mitrokhin Archive », Christopher Andrew et Vassili Mitrokhine, Londres 1999

[65] Le projet Venona est le travail de cryptanalyse effectué par les services de renseignement américains pour tenter de casser les codes des communications des services de renseignement soviétiques, émises de 1940 à 1948. Ce travail dura de 1943 à 1980 et permit de déchiffrer partiellement ou totalement environ 3 000 messages. Ces messages déchiffrés furent une source importante d'information sur les activités des services de renseignement soviétiques, permettant notamment de découvrir le réseau des « cinq de Cambridge » et de plusieurs espions travaillant dans le domaine nucléaire (article Wikipédia). À voir : l’épisode des Brûlures de l’histoire intitulé « Les espions de l’atome ». À écouter : un podcast d’une émission de France-Inter consacrée à l’affaire Rosenberg.

[66] Avec la dislocation de l’URSS, le KGB est divisé en plusieurs branches : celle le renseignement extérieur porte le nom de SVR (Service de renseignement extérieur).

[67] « La question que chacun se posait en 1989 et en 1991, à savoir pourquoi le régime s'est-il effondré si soudainement, n'est pas inintéressante. Mais la véritable interrogation doit être : comment diable a-t-il pu tenir soixante-quinze ans ? L'existence du KGB et de son étroit système de contrôle social fournit au moins une partie de la réponse. » C. Andrew dans une interview pour Le Monde, en 1999.

[68] « And ye shall know the truth and the truth shall set you free » (« Et vous connaitrez la vérité et la vérité vous libérera »). La devise de la CIA, récitée par ses agents lors de leur prise de fonction, cite le Nouveau Testament (Jean, 8:32).

[69] Son existence n’a été reconnue qu’en 1957.

[70] À partir de 1962, les Soviétiques installent un gigantesque centre d'écoutes à Lourdes, près de La Havane.

[71] 139 personnes entre 1940 et 1994 sont condamnées par les autorités judiciaires américaines[71], mais ce chiffre ne montre qu’une partie de la réalité (Gildas le Voguer, « La guerre secrète du KGB », l’Histoire n°223, juillet-août 1998)

[72] Il débouche sur les Accords d’Helsinki en 1975.

[73] L’opération Valuable, menée par l'agence américaine en Albanie, visant à renverser le régime d'Enver Hoxha en organisant, depuis Malte, des missions de pénétration par des opposants albanais.

[74] Agent du Secret Intelligence Service (SIS) anglais, à la solde du KGB depuis les années 1930, c'est lui qui, en poste à Washington de 1949 à 1951, avait fourni les détails de la manœuvre au gouvernement albanais. En mai 1951, grâce aux efforts conjugués du chiffre américain et du FBI, l'espion britannique Donald Maclean fut démasqué. Il parvint toutefois à s'enfuir en URSS, en compagnie de Guy Burgess, lui aussi au service du KGB depuis les années 1930. Quant à Philby, son amitié avec Burgess provoqua sa disgrâce auprès du SIS, même s’il ne fut formellement identifié qu'en 1963.

[75] Vanessa Caru, 350 000 ingénieurs par an, L’Histoire n° 437-438, Juillet-août 2017

[76] À l’exception des ingénieurs militaires, la Grande-Bretagne n’a pas de corps d’ingénieurs publics comme en France. L’entrée dans la profession d’ingénieur n’est pas régulée par l’obtention d’un diplôme, mais s’effectue par apprentissage (pupillage) dans lequel l’autorité publique ne joue aucun rôle.

[77] Les autorités britanniques le justifient en prétendant que les colonisés seraient incapables d’exercer toute autorité, et que si les Indiens ont une réelle aptitude aux études théoriques (notamment aux mathématiques), ils n’ont pas le goût pour les travaux pratiques censés qualifier le bon ingénieur.

[78] …qui s’accentue avec la Première Guerre mondiale, où l’ingénierie et l’industrie indienne (aciéries Tata) contribuent à l’effort de guerre britannique.

[79] Suhas Patil est un entrepreneur, universitaire et capital-risqueur indo-américain. Il a fondé Cirrus Logic, une société de semi-conducteurs sans usine.

[80] Vivek Yeshwant Ranadivé est un chef d'entreprise, ingénieur, auteur, conférencier et philanthrope indo-américain. Ranadivé est le fondateur et ancien PDG de TIBCO Software et de Teknekron Software System.

[81] NB. Ces nouveaux établissements sont en majorité des institutions privées qui cherchent à profiter de la manne de ce marché éducatif en pleine expansion, sans toujours offrir les garanties d’une formation de qualité.

[82] Le gouvernement crée en 1973 la catégorie fiscale des « NRI » (Non-Resident Indians, 11 millions de personnes en 2015) pour éviter une double imposition aux émigrés indien.

[83] Cf. Varrel Aurélie, "Back to Bangalore" : étude géographique de la migration de retour des indiens très qualifiés à Bangalore

[84] Cf. Lionnel Trouillet (« Les populations d'origine indienne hors de l'Inde : fabrique et enjeux d'une diaspora », 2015)

[85] Cf. Michel Bruneau, « Phénomène diasporique, transnationalisme, lieux et territoires » -http://ceriscope.sciences-po.fr/content/part4/ph%C3%A9nom%C3%A8ne-diasporique-transnationalisme-lieux-et-territoires?(ge=show)

[86] Aurélie Varrel, Hortense Rouanet, De Bangalore à Whitefield : trajectoire et paysages d’une région urbaine en Inde, 2015.

[87] Electronics City est un parc d'activité dédié aux technologies de l'information située au sud-est de Bangalore en Inde. Il compte près de 100 000 emplois liés à ce secteur d'activité sur 136 hectares.

[88] Avec l’émergence de l’informatique grand public et l’usage croissant d’Internet et des TIC depuis le milieu des années 1990, le terme « virtuel » est de plus en plus employé pour désigner « ce qui se passe en ligne ». Il peut s’agir d’une conversation sur un réseau social, de la sauvegarde automatique de données dans un « cloud », d’une partie de jeu vidéo ou, aujourd’hui, des applications de « réalité virtuelle » qui permettent de s’immerger presque physiquement dans un environnement numérique.

Cet usage du terme virtuel dérive de sa signification philosophique initiale : est virtuel ce qui n’est que potentiel, par opposition à ce qui est actuel, effectif. Par dérive de sens, l’usage oppose aujourd’hui le monde réel, physique, dans lequel évolue le corps, à un pseudo-monde auquel on accéderait par le biais d’écrans, de claviers, de manettes, de micros, etc.

[89] De l’extraction de matières premières à leur transformation en produits finis et à la satisfaction de leurs besoins électriques, la géographie économique rappelle combien sont matérielles les fondations de nos mondes virtuels. Si le secteur informatique était un pays, il serait le troisième consommateur d’électricité au monde, après la Chine et les États-Unis, et devant la Russie.

[90] L’épisode du coronavirus illustre à la fois les bénéfices potentiels qu’elle offre mais aussi les risques d'atteinte aux droits humains qu'elle entraine.

[91] Thomas Rid, dans son ouvrage Cyber War Will Not Take Place (2013), estime que ces opérations ne relèvent pas de la guerre, mais ne sont que des versions à peine plus sophistiquées d’activités anciennes : l’espionnage, le sabotage et la subversion.

[92] Au printemps 2007, la première cyberattaque de l’histoire paralyse l’ensemble du réseau informatique de l’Estonie.

[93] C’est ainsi une société à but non lucratif, l’Icann, qui est chargée du nommage et de l’adressage (.com, .fr, etc.) d’Internet.

[94] C’est par exemple le cas des hackeurs et des organisations « hacktivistes » -Vocabulaire p.429 (Anonymous, WikiLeaks) poursuivant des objectifs variés (profit, révélations d’information…).

[95] « Les attaques WannaCry et NotPetya sont emblématiques du risque systémique que fait peser la prolifération des cyberarmes sur nos sociétés. Ces attaques se sont propagées à travers le monde à une vitesse fulgurante et de manière incontrôlée, touchant des hôpitaux et occasionnant des centaines de millions d'euros de dégâts dans des entreprises qui n'étaient même pas la cible initiale. En mai 2017, le rançongiciel WannaCry a en effet infecté plus de 200.000 ordinateurs dans 150 pays. Les investigations ont conduit notamment les États-Unis, le Royaume-Uni et l'Australie à rejeter la piste criminelle et attribuer l'attaque à la Corée du Nord. L'attaque NotPetya, ressemblant initialement à un rançongiciel, s 'est avérée conçue pour complètement saboter les systèmes. La Maison-Blanche chiffre à 10 milliards de dollars les dégâts occasionnés par cette seule attaque, la plus dévastatrice à ce jour, attribuée à la Russie par les pays des Five Eyes » F. Douzet et A. Géry, « Le cyberespace, ça sert, d’abord, à faire la guerre », in Géopolitique de la datasphère, Hérodote 177-178, juin 2020

[96] Renommé depuis Commission centrale pour la cybersécurité et l’informatisation.

[97] Celle-ci se traduit par l'intensification et la systématisation des réponses aux attaques numériques subies par les États-Unis, par l'exposition et la punition de leurs auteurs ou de leurs commanditaires supposés.

[98] Taillat, S. (2020). Cyber opérations offensives et réaffirmation de l’hégémonie américaine : une analyse critique de la doctrine de Persistent Engagement. Hérodote, 177-178(2-3), 313-328. https://doi.org/10.3917/her.177.0313

[99] En 2010, 2013 et 2015.

[100] La reconnaissance de l'application du droit international dans le cyberespace a donc pour conséquence de délimiter les droits et obligations des États en matière de cyber opérations puisque les États ne pourront par exemple pas mener des cyber opérations pour intervenir dans les affaires intérieures d'un autre État, sauf à violer le principe de non-intervention.

[101] Cf. https://cyberstability.org/norms/

[102] L'Appel de Paris, qui n'est toutefois pas soutenu par les États-Unis, la Chine et la Russie, témoigne d'une volonté affichée de s'engager ensemble pour assurer la sécurité et la stabilité du cyberespace.

[103] L’adoption du Règlement général sur la protection des données (RGPD) en 2016, qui définit des cadres légaux protecteurs de la vie privée notamment dans le cadre de transferts des données vers des FTN américaines, est une réponse partielle.

[104] Pour l’Agence française de cybersécurité (ANSSI), « les évolutions en cours […], avec par exemple la multiplication des objets connectés ou la concentration des plateformes de service en ligne entre les mains de quelques acteurs seulement, sont de nature à amplifier cette perte de maîtrise du cyberespace national »

[105] La stratégie prône alors le recours à des procédés cryptographiques au nom de l'autonomie stratégique.

[106] L'Estonie et la Lituanie considèrent même qu'une autonomie stratégique européenne pourrait être problématique, voire dangereuse, pour l'Otan.

[107] …et mutuellement dépendant : de nombreux liens ont été tissés entre les acteurs des deux camps

Joomla templates by a4joomla