2023 07 21 06 30 38 250

Cours  pdf 
Diapo

ppt

pdf

Sommaire

INTRODUCTION
A. LA NOTION DE « SOCIÉTÉ DE LA CONNAISSANCE » (PETER DRUCKER, 1969), ÉMERGENCE, PORTÉE ET DÉBATS
1. Des précurseurs
2. Peter Drucker et la « société de la connaissance » (1969)
3. Un concept en débat
B. LA NOTION DE COMMUNAUTÉ SAVANTE, COMMUNAUTÉ SCIENTIFIQUE EN HISTOIRE DES SCIENCES
1. Le temps des académies et des sociétés savantes
2. La naissance de la communauté scientifique moderne
C. LES ACTEURS ET LES MODALITÉS DE LA CIRCULATION DE LA CONNAISSANCE
1. Les revues scientifiques, reflet d’une géopolitique de la connaissance
2. De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public
3. La révolution numérique
CONCLUSION
I. PRODUIRE ET DIFFUSER DES CONNAISSANCES (AXE 1)
A. DONNER ACCÈS À LA CONNAISSANCE : GRANDES ÉTAPES DE L’ALPHABÉTISATION DES FEMMES DU XVIE SIÈCLE À NOS JOURS DANS LE MONDE
Introduction
1. D’un enjeu national ou religieux…
2. … à un enjeu international et à un combat pour un droit fondamental
Conclusion
B. PRODUIRE DE LA CONNAISSANCE SCIENTIFIQUE : RECHERCHE ET ÉCHANGES DES HOMMES ET DES FEMMES DE SCIENCE SUR LA QUESTION DE LA RADIOACTIVITÉ DE 1896 AUX ANNÉES 1950
Introduction
1. Découvrir la radioactivité et la partager pour le progrès de l’humanité…
2. … mais la mettre aussi au service de la puissance des États et douter
Conclusion
II. LA CONNAISSANCE, ENJEU POLITIQUE ET GÉOPOLITIQUE (AXE 2)
A. LE RENSEIGNEMENT AU SERVICE DES ÉTATS : LES SERVICES SECRETS SOVIÉTIQUES ET AMÉRICAINS DURANT LA GUERRE FROIDE
1. Deux organisations nées au début de la Guerre froide
2. Renseignement et sciences
3. Recruter pour savoir ou pour agir
B. CIRCULATION ET FORMATION DES ÉTUDIANTS, TRANSFERTS DE TECHNOLOGIE ET PUISSANCE ÉCONOMIQUE : L’EXEMPLE DE L’INDE
1. Les ingénieurs indiens, une tradition ancienne
2. Du brain drain ou brain gain
3. Transferts de technologie et puissance économique
III. LE CYBERESPACE : CONFLICTUALITÉ ET COOPÉRATION ENTRE LES ACTEURS (OBJET DE TRAVAIL CONCLUSIF)
INTRODUCTION
A. LE CYBERESPACE, ENTRE RÉSEAUX ET TERRITOIRES (INFRASTRUCTURES, ACTEURS, LIBERTÉ OU CONTRÔLE DES DONNÉES…)
1. Définitions, enjeux
2. Stratégies d’acteurs : entre conflictualités et coopérations
B. CYBERDÉFENSE, ENTRE COOPÉRATION EUROPÉENNE ET SOUVERAINETÉ NATIONALE : LE CAS FRANÇAIS
1. Enjeux
2. Perspectives
CONCLUSION

tspe 6

Manuel p.378-443

Introduction

Introduction

On entend généralement par connaissance l’ensemble du savoir, tous champs confondus. Mais d’un point de vue géopolitique et géoéconomique, la connaissance stratégique est avant tout scientifique et technique[1].

La connaissance se construit à l’échelle nationale et internationale et les États sont impliqués dans sa production et sa diffusion. Les enjeux de la connaissance sont multiples :

  • géopolitiques (affirmation de la puissance des États, source de compétition et de tensions) ;
  • sociaux et économiques (levier de développement) ;
  • culturels et symboliques.

Nous nous intéresserons particulièrement aux enjeux géopolitiques et sociaux en donnant une dimension historique à notre réflexion.

A.    La notion de « société de la connaissance » (Peter Drucker, 1969), émergence, portée et débats

Exercice sur corpus de textes.

1.     Des précurseurs

Les mutations des rapports entre société et savoir notamment dans le contexte de la tertiarisation de l’économie sont analysées dès après la Seconde Guerre mondiale par des intellectuels étatsuniens, qui évoquent la société de l’information ou de la communication[2] :

  • En 1945, Vannevar Bush (1890-1974), ingénieur et coordinateur du projet Manhattan, plaide auprès du président Roosevelt pour une production et une circulation accrues de la connaissance ; constatant les limites de la mémoire individuelle, il développe l'idée que la recherche scientifique doit, au lendemain de la Seconde Guerre mondiale, se consacrer à améliorer les moyens matériels permettant l'accès efficace à toute la connaissance humaine de façon à pouvoir l’étendre[3].
  • En 1948, le mathématicien américain Norbert Wiener (considéré comme l’inventeur de la cybernétique[4]), étudie les mécanismes d’information de systèmes complexes[5], et utilise l’expression de « société de la communication ».
  • Daniel Bell, sociologue américain, observe la tertiarisation de l’activité économique et réfléchit à la croissance de l’importance de la connaissance et de l’information (éléments immatériels) dans l’organisation de la société (Vers la société post-industrielle, 1973).
  • Dans les années 1960-1970, Les économistes libéraux, en particulier ceux de l’école de Chicago, identifient la connaissance comme un type de bien particulier. Pour Kenneth Arrow, prix Nobel d’économie en 1972, il s’agit d’un bien :
    • difficilement contrôlable et appropriable,
    • non rival dans l’usage (puisque l’usage que l’on en fait ne la détruit pas),
    • et cumulatif (la connaissance engendre d’autres connaissances).

Ces économistes établissent le concept d’économie de la connaissance -doc.2 p.380. Économie de la connaissance et société de l’information, qui désigne la capacité des États à produire et à diffuser des connaissances.

2.     Peter Drucker et la « société de la connaissance » (1969)

Peter Drucker (1909-2005) -Biographie p.380 s’inscrit dans la lignée des économistes libéraux. Consultant en management[6], il est lui aussi un libéral. Il publie The Age of Discontinuity en 1969, traduit en français en 1970 sous le titre La grande mutation.

Il s’appuie peu sur des références théoriques : sa démarche est essentiellement empirique. Dans la quatrième partie de son livre, il aborde ce qu’il nomme l’ère du savoir où il affirme que la connaissance est devenue le facteur de production décisif. Il en résulte selon lui que l’accès au savoir est une nécessité pour maintenir la productivité des travailleurs et la compétitivité, et que tout doit être repensé pour favoriser la circulation des connaissances : l’État, les hiérarchies sociales, le rôle des organisations. Cela induit par exemple une rupture avec le Taylorisme et le Fordisme qui impliquaient, par les tâches répétitives qu’ils imposaient, que les ouvriers « laissent leur intelligence au vestiaire ». Désormais, les travailleurs se voient assigner des objectifs à atteindre et sont incités à innover : c’est la naissance du management moderne.

L’école a une place centrale dans sa réflexion ainsi que la formation continue. Pour lui, il est nécessaire d’individualiser les apprentissages, de développer l’autonomie et l’évaluation des performances de l’école, pour former des individus plus productifs, capables d’apprendre tout au long de leur vie, et de coopérer pour favoriser la circulation de l’information, condition nécessaire à l’innovation… Il passe de l’idée d’une économie de la connaissance à celle d’une société de la connaissance -doc.2 p.380. Économie de la connaissance et société de l’information.

3.     Un concept en débat

Peter Drucker s’inscrit dans un courant néolibéral proche de l’école de Chicago, qui estime que l’État ne doit pas réguler l’économie. Pour lui, la connaissance valable est celle qui a une utilité économique. Joseph Stiglitz et Bruce Greenwald dans La nouvelle société de la connaissance (2017) s’opposent à cette conception et plaident pour une intervention de l’État pour réduire les inégalités en favorisant une « société de l’apprentissage » comme fondement de la croissance et du développement. Pour eux, l’enjeu n’est pas seulement économique mais démocratique.

En effet, la société de la connaissance peut engendrer des inégalités, dans des sociétés où triomphent les détenteurs du savoir scientifique maitrisant les outils de communication permettant d’échanger et d’enrichir leur propre capital. Intégrée aux orientations de l’UE depuis 2000, comme en témoigne l’adoption de la « stratégie de Lisbonne »[7], et poursuivie par la stratégie « Europe 2020 », la « société de la connaissance » présente encore de réelles limites, à l’échelle des États membres de l’UE comme à l’échelle mondiale -doc. 4 p.381. Les limites de la société de la connaissance + doc.5 p.381. La fracture numérique.

En outre, le sociologue Philippe Breton[8] critique la « double réduction ». Pour lui,

  • le processus de connaissance ne peut se réduire à un traitement de l’information,
  • et la connaissance scientifique et technique n’est pas la seule forme de connaissance légitime.

B.    La notion de communauté savante, communauté scientifique en histoire des sciences

Les historiens des sciences déconstruisent le mythe de la révolution scientifique forgé dans les années 1930 qui décrivait l’histoire européenne des sciences à partir de la seconde moitié du XVIe siècle avec l’idée d’un basculement opéré par quelques « grands hommes » (Copernic, Newton) de la tradition vers l’innovation[9] -doc.1 p.382. L’histoire des sciences, de l’homme à la communauté. Il a été montré récemment qu’il y a déjà une culture de l’innovation au Moyen-Âge ainsi qu’une vraie circulation des savoirs[10] ; de même, il faut souligner la dimension collective de la production et de la diffusion des savoirs. Les communautés savantes de l’époque moderne débattent des grandes questions du temps dans des domaines aussi variés que l'astronomie, la physique, la botanique, la chimie, et forment déjà des réseaux dans lesquels peuvent également s’exprimer des solidarités -doc.3 p.383. Une communauté savante organisée en réseau.

1.     Le temps des académies et des sociétés savantes

À partir du XVIIe siècle alors que se développent des sociétés de cour, le mécénat princier soutient les activités scientifiques et expérimentales dans le cadre des Académies. À Londres et à Londres, la création de la Royal Society (1662) et de l’Académie des sciences (par Colbert en 1666) centralise les nombreux cercles préexistants et leur donne une forme juridique ainsi qu’une protection royale. Ces académies sont des lieux de recherche scientifique mais aussi d’échanges (ordre du jour, séances, concours, discussions) et ont des réseaux de correspondants. Elles procurent à leurs membres un statut social, et une rémunération si elles sont contrôlées par un État. La science s’institutionnalise, ce qui favorise le développement des communautés savantes.

Au XVIIIe, le mouvement s’intensifie : les principales capitales européennes (Paris, Londres, Berlin, St Pétersbourg, Stockholm) puis d’autres villes (Göttingen, Turin, Barcelone, Padoue, Édimbourg, Dublin) se dotent d’académies, qui s’enrichissent mutuellement tout en se livrant une féroce compétition. L’espace savant européen est unifié par ces lieux mais aussi par la généralisation des concours, auxquels des lieux sont dédiés : Cf. la création du jardin botanique royal de la Pharmacie royale et de l’Observatoire royal (1790) à Madrid, par l’architecte Juan de Villanueva qui transforme le paysage urbain -Doc.4 p.383. Les académies au XVIIIe siècle, une géographie.

2.     La naissance de la communauté scientifique moderne

Au XIXe siècle on assiste à un double mouvement de nationalisation et d’internationalisation des sciences.

Les universités du monde occidental sont profondément réformées selon un modèle national au début du siècle. Le modèle allemand d’Alexander von Humboldt (Université de Berlin, 1810) regroupe toutes les disciplines. En France, Napoléon réorganise l’enseignement : au sommet se trouvent les nouvelles grandes écoles d'ingénieurs comme l'École polytechnique (sous statut militaire dès 1804[11]), dont l'enseignement scientifique est articulé avec des écoles d'application (comme l'École des Mines). L'Université impériale est structurée en facultés des sciences et des lettres et en écoles de droit, de médecine et de pharmacie. Après 1815, le Collège de France -Repère 2 p.386, l’Observatoire ou le Museum d’histoire naturelle deviennent les principaux lieux de recherche. Sous la IIIe République, de nouvelles réformes sont entreprises pour faire converger plus efficacement enseignement et recherche, dans l'optique d'un rattrapage du voisin et rival allemand.

En contrepoint de cette nationalisation, les historiens insistent aujourd'hui sur l’affirmation d’une dimension transnationale de la circulation scientifique fin XIXe–début XXe siècle. Les étudiants circulent davantage[12]. La circulation internationale des savoirs se fait à partir de la fin du XIXe siècle grâce à l’invention des congrès scientifiques. La première rencontre internationale de physique a lieu à Paris en1900. En 1911 se tient à Bruxelles le premier conseil Solvay organisé grâce au mécénat d’Ernest Solvay, chimiste et industriel belge réunissant les plus grands physiciens (Max Planck, Marie Curie, Henri Poincaré, Albert Einstein qui permet des avancées en physique quantique.

La notion de communauté scientifique s’impose. Cette communauté scientifique repose aujourd’hui sur des valeurs communes : l’universalisme, le travail collectif, le désintéressement et l’indépendance vis-à-vis des tutelles (États, FTN). La période la plus récente est marquée par une spécialisation disciplinaire croissante : les anciens savants « touche-à-tout » sont devenus des chercheurs spécialisés -Cf. le GIEC (Groupe d'Experts Intergouvernemental sur l'Évolution du Climat), fondé en 1988 par l’ONU -doc.5 p.393. Une communauté scientifique aujourd’hui.

C.    Les acteurs et les modalités de la circulation de la connaissance

La circulation de la connaissance est prise en charge par des acteurs variés : États, universités, centres de recherche et institutions soutenus par des financements publics ou privés, et même la « société civile » y contribuent.

1.     Les revues scientifiques, reflet d’une géopolitique de la connaissance

Des revues savantes, publiées par des scientifiques[13], existent depuis le XVIIe siècle ; elles deviennent de plus en plus nombreuses au XIXe, et leur nombre explose littéralement après la Seconde Guerre mondiale[14]. La géographie que dessinent les principaux pays émetteurs de ces publications reflète la hiérarchie des puissances scientifiques et les rapports de force qui l’animent.

Après un demi-siècle de règne états-unien, la Chine, devenue au XXIe siècle une superpuissance des technosciences, pointe en 2018 au 2ème rang mondial des publications, juste derrière les États-Unis[15].

2.     De l’intérêt des élites sociales à la vulgarisation : la connaissance à la rencontre du grand public

Aux XVIIe et XVIIIe siècles déjà, les élites sociales se passionnent pour les sciences, à travers les cabinets de curiosité et les démonstrations spectaculaires. Au XIXe siècle, cet engouement accélère sa diffusion, à travers les canaux les plus divers. La science-fiction (de Marie Shelley[16] à Jules Verne) emporte un grand succès, et la révolution de la presse permet une plus grande diffusion des sciences.

C’est au XIXe siècle que la science devient une valeur morale, ce qui implique de la sortir des seuls cercles scientifiques, l’idée étant que les sciences sont accessibles à tous par l’effort. En France, dans une optique républicaine, François Arago[17] veut faire de la science un bien commun de la nation tout entière, et son enseignement doit débuter dès les écoles élémentaires. Parallèlement, hors institutions scolaires et universitaires, des musées des sciences sont créés, des planétariums, etc.

Le terme de « vulgarisation » apparait au début du XXe siècle, supplantant celui de « science populaire ». La vulgarisation peut être définie comme une forme de diffusion pédagogique des connaissances qui cherche à les mettre à la portée d'un public non expert, avec l’émergence d’une culture de masse et dans un but « d’élévation générale du niveau »

Les musées, planétariums, etc., continuent d’apporter leur contribution, en se modernisant. Par exemple, la France a développé des centres de culture scientifique, technique et industrielle (CCSTI)[18]. Mais les supports par excellence des entreprises de vulgarisation sont les médias de masse, qui ont par opposition aux revues scientifiques vocation à s’adresser aux publics non spécialisés. Ainsi, aux revues de vulgarisation (Cf. Sciences et Vie, qui paraît en France dès 1913), sont venues s’ajouter les films documentaires et les émissions de télévision (Cf. L’odyssée sous-marine de l’équipe Cousteau, émission « culte » des années 1970[19], et plus proche de nous, les épisodes de C’est pas sorcier).

3.     La révolution numérique

L’essor des nouvelles technologies de l'information et de la communication (NTIC) et le déploiement d’Internet ont permis de démultiplier cette offre de manière exponentielle, avec des ressources qui nous sont familières comme les nombreuses chaînes de vulgarisation YouTube ou l’Encyclopédie collaborative en ligne Wikipédia[20] -doc.1 p.384. Wikipédia, une nouvelle modalité de circulation de la connaissance.

L'essor spectaculaire des nouvelles technologies bouleverse donc les modes de circulation de la connaissance, à tel point que l’on a pu parler de « révolution numérique »[21]. Pour autant il nous faut être conscient des tensions qui accompagnent le déploiement de cette société de la connaissance, particulièrement vives par exemple quand l’idéalisme des fondateurs (comme Tim Berners Lee) défenseurs de « l’esprit d’Internet » se heurte aux logiques capitalistes (comme Aaron Swartz), ou quand l’utilisation des données personnelles des usagers alimentent les craintes d’un big data intrusif ou de l’instauration d’une société sous surveillance[22]. À en croire un des principaux concepteurs d’Internet, il ne reste plus rien de son utopie initiale[23].

Conclusion

Repères p.386-387- Dans ces conditions, nous donnerons à ce thème a un double objectif : mettre en avant les conditions nationales et internationales de la construction de la connaissance, en particulier de la connaissance scientifique, et expliquer la manière dont les États favorisent ou contrôlent, entre coopérations et conflits, la production ou la diffusion de celle-ci :

  • Le premier axe souligne l’importance de l’alphabétisation des sociétés pour accroître le nombre de personnes susceptibles de produire, de recevoir et de diffuser de la connaissance, et examine le fonctionnement d’une communauté savante à partir de l’exemple des recherches sur la radioactivité au XXe siècle.
  • Le second axe montre comment des États se sont saisis de l’enjeu de la connaissance dans leurs affrontements, comme lors de la guerre froide ou dans leur souci de favoriser leur développement économique, restreignant ou favorisant la circulation des connaissances scientifiques et technologiques.

I. Produire et diffuser des connaissances (Axe 1)

Manuel p.388-407. Chapitre 16. Produire et diffuser des connaissances

Dans quelle mesure la production et la diffusion des connaissances constituent-elles un enjeu majeur pour les États et les sociétés ?

A.    Donner accès à la connaissance : grandes étapes de l’alphabétisation des femmes du XVIe siècle à nos jours dans le monde

Jalon p.396-397

Introduction

Document 1 p.396. L’enseignement de la lecture aux filles : la vision des artistes à l’époque moderne. Du XVème siècle où Gerson, grand chancelier de l’université de Paris, déclare que « tout enseignement pour les femmes doit être considéré comme suspect » au 10 décembre 1911 où Marie Curie reçoit le prix Nobel de Chimie pour l’isolement du radium après avoir reçu le prix de Nobel de physique en 1903 avec son mari Pierre et Henri Becquerel, ce sont des siècles de lutte pour l’éducation des filles. Combat qui continue aujourd’hui au niveau mondial alors qu’il a été reconnu comme un droit humain fondamental et inscrit dans la Déclaration universelle des Droits de l’Homme de 1948 et rappelé dans le plan « Éducation 2030 » de l’ONU.

De grandes étapes ont donc jalonné, notamment en France, l’accès des femmes à l’éducation : à une lente alphabétisation à l’époque moderne, succède un tournant au XIXème siècle, notamment en France avec les lois scolaires de Jules Ferry. Aujourd’hui, ce combat continue partout dans le monde, et notamment dans certains pays, en raison d’un développement économique entravé ou de freins culturels et religieux.

Quelles sont les grandes étapes de l’alphabétisation des femmes au XVIème siècle à nos jours dans le monde ? Quels en sont les enjeux et les défis hier et aujourd’hui ?

1.     D’un enjeu national ou religieux…

a.       Un contrôle religieux

L’humanisme, une première prise de conscience

L’éducation des filles a occupé les intellectuels et en particulier les humanistes du XVIème siècle. Dès 1523, Jean Louis Vivès[24] affirme dans son livre « L’instruction de la femme chrétienne » qu’une instruction est nécessaire aux jeunes filles, aux épouses et aux veuves. Mais cet enseignement est un enseignement spécifique axé sur le travail domestique et surtout sans latin (permettant l’accès à la connaissance). Seul Rabelais va jusqu’à mêler hommes et femmes également libres et instruits en parfaite harmonie à l’abbaye de Thélème.

La Réforme protestante : une étape majeure

Mais l’étape principale du XVIème siècle est le moment de la Réforme où l’éducation et l’alphabétisation des filles sont présentées comme une nécessité. Doc.2 p.397. L’alphabétisation des filles dans la Réforme protestante- Luther souhaite l’ouverture d’écoles populaires pour les filles et les garçons afin que tous accèdent directement à l’Écriture, traduite en langue vulgaire et au cœur de la Réforme. Il s’agit de poser les bases du droit au savoir pour tous, filles comprises.

La tâche de rénover le système scolaire dans l’Empire incombe à Philippe Melanchthon[25], qui mêle humanisme et Réforme. Dans les États protestants, la responsabilité scolaire est confiée aux autorités politiques et dès 1530, une école de filles est créée à Wittenberg. De même, à Genève, filles et garçons ont accès à un enseignement élémentaire public et gratuit. Le premier « gymnase » ouvre à Strasbourg en 1538.

L’alphabétisation se diffuse, des privilégiés aux groupes sociaux populaires, jusqu’à la paysannerie. Cette pratique de la lecture et de l’écriture donne aux réformés (et aux réformées !) une avance culturelle.

La prise de conscience de l’Église catholique

Le Concile de Trente (1545-1563) marque la riposte catholique contre les protestants[26], et la contre-réforme soutient un renforcement de l’alphabétisation des fidèles. Cette prise de conscience s’accompagne à la charnière des XVI et XVIIème d’initiatives concernant spécifiquement l’enseignement féminin. Les congrégations s’y consacrent en s’appuyant sur l’engagement de femmes laïques ou religieuses, comme :

  • Jeanne de Lestonnac[27], nièce de Montaigne, vigneronne, mère de cinq enfants et veuve, qui fonde à Bordeaux en 1607 la Compagnie de Marie Notre Dame ;
  • la baronne Jeanne de Chantal[28] (grand-mère de la marquise de Sévigné) aux côté de l’évêque François de sales fonde à Annecy la Visitation en 1610.

Dans ces établissements, l’ambition pédagogique est beaucoup plus limitée que pour les garçons. Le passage à l’école doit être bref et l’enseignement religieux prioritaire, avec des rudiments de lecture -pas forcément d’écriture et de calcul. Les travaux d’aiguilles sont enseignés afin de leur permettre aux filles du peuple de « gagner honnêtement » leur vie et aux filles plus aisées de les détourner de l’oisiveté.

b.      Les plans d’éducation des filles aux XVIIème et XVIIIème siècles

En France au XVIIème, on se moque comme Molière des « Précieuses ridicules » (1659) et des « Femmes savantes » (1672)… tout en réfléchissant à une meilleure éducation des filles :

  • L’Abbé Claude Fleury rédige en 1685 « Traité du choix et de la méthode des études » : les filles apprennent à « penser de suite et à raisonner solidement » : instruction religieuse, logique simplifiée, arithmétique, jurisprudence, pharmacopée de base. Fleury veut « un peu plus de raison et de réflexion ». Rien d’autre car selon lui des femmes plus savantes sombreraient dans la vanité.
  • Dans « De l’éducation des filles », destiné en 1687 par Fénelon[29] au duc de Beauvillier dont il est le directeur spirituel et à la duchesse, parents de 9 filles[30], il propose un plan d’éducation tenant compte de l’infériorité et de la faiblesse du deuxième sexe ; il considère que « la mauvaise éducation des femmes fait plus de mal que celle des hommes, puisque les désordres des hommes viennent souvent de la mauvaise éducation qu’ils ont reçue de leurs mères ». Il préconise donc un enseignement moral et religieux, de l’économie domestique et quelques savoirs profanes rudimentaires : grammaire, arithmétique, histoire, latin, musique, peinture. C’est son ouvrage qui inspire à Mme de Maintenon la création de la Maison royale de Saint-Louis le 18 juin 1686[31], qui accueille une centaine de pensionnaires issues de la noblesse désargentée.

Le XVIIIème siècle, celui des Lumières (et des salons où brilleront des femmes comme Mme Geoffrin, Mme du Deffand, Julie de l’Espinasse ou Mme Roland) voit l’éducation des filles diviser les philosophes : par exemple, Diderot affirme que la subordination de la femme à l’homme est une tyrannie, tandis que Rousseau affirme au contraire que la femme ne peut prétendre à l’égalité[32].

Depuis la Renaissance, l’éducation et l’alphabétisation des femmes ont progressé et vu l’ouverture de nombreuses écoles où souvent seul un enseignement rudimentaire et axé sur la religion est transmis, surtout en milieu urbain. Ainsi, à la veille de la Révolution, 44% des femmes (contre 71% des hommes) signent leur acte de mariage dans la France du Nord contre 12% (22%) dans le Sud du pays relevant la fragilité de cette éducation et les inégalités existantes.

c.       Une démocratisation accompagnée par l’État au XIXème siècle

Au début du XIXème siècle : les premières réalisations :

Au XIXème siècle, l’éducation des filles devient un enjeu politique majeur. Certains pays commencent à se doter de systèmes scolaires universels : ainsi, aux États-Unis en 1834, l’État de Pennsylvanie ouvre une école gratuite pour garçons et filles. En Europe, Les progrès dans l’alphabétisation des filles sont inégaux : tandis que les taux de scolarisation progressent en Allemagne, en Angleterre et en France, ils demeurent faibles en Europe de l’Est et du Sud. En France, Napoléon Ier crée le lycée et modernise les grandes écoles pour produire des élites capables de servir ses ambitions, mais il s’intéresse aussi à l’éducation des filles en créant les maisons d’éducation de la Légion d’honneur en 1805. Il définit lui-même le programme de ces futurs établissements, voulant assurer aux descendantes des décorés « une existence digne et indépendante ». C’est à partir de cette lettre de mission que la première maison d’éducation ouvre ses portes au château d’Ecouen en 1807, puis une deuxième dans l’ancienne abbaye de Saint-Denis[33].

L’idée d’une éducation ouverte aux filles de toutes conditions sociales fait son chemin sous Napoléon III : ainsi, la création d’écoles de filles est imposée aux communes de plus de 800 habitants en 1850 (loi Falloux), de plus de 500 habitants en 1867 (loi Duruy).

On y enseigne la lecture, l’écriture et le calcul, mais avec des programmes moins ambitieux que ceux des garçons, et des enseignements destinés à préparer leur avenir de mères, d’épouses[34]. Le taux d’alphabétisation des femmes rejoint alors presque celui des hommes. Julie-Victoire Daubié, première bachelière de France (1861) et première licenciée ès lettres (1871) alors que les cours à la Sorbonne ne sont pas ouverts aux femmes, montre la voie[35]

L’école de Ferry et la IIIème République : vers l’école de l’égalité

Doc.3 p.397. La IIIème République et les filles. Les républicains souhaitent un système éducatif véritablement universel et émancipé de l’Église.

En 1882, la loi Ferry reconnaît l’égalité des sexes devant l’instruction, encouragée par l’obligation scolaire. Celle-ci ne fait cependant que confirmer un mouvement de scolarisation de masse déjà largement amorcé -doc.4 p.397. L’évolution du taux d’alphabétisation en France.

Pour bien des républicains, le développement de l’instruction constitue une très importante réforme sociale qui permet aux individus, garçons comme filles, de développer librement leurs facultés et de s’élever dans la société, mais aussi une réforme politique majeure qui permet l’enracinement de la République et renforce la cohésion nationale, puisque l’ensemble des enfants recevra la même éducation[36]. Même si les traits d’un enseignement spécifiquement féminin persistent (latin et sciences continuent d’être réservés aux garçons aux lycées), la bataille de l’alphabétisation des femmes est gagnée en France. Au-delà du seul cas français, c’est l’ensemble des sociétés occidentales qui sont concernées. Cf. la mise en place en 1891 au Royaume-Uni d’un enseignement primaire gratuit.

Cependant les filles ne bénéficient pas encore d’une réelle égalité avec les garçons dans l’accès aux études supérieures. En France par exemple, il faudra attendre la loi Bérard (1924) pour ouvrir le bac aux jeunes filles, avec contenus et horaires identiques pour leur ouvrir plus largement l’accès à l’Université.

2.     … à un enjeu international et à un combat pour un droit fondamental

Carte 7 p.399. Alphabétisation des femmes et développement + Chiffres p.394

a.       Des progrès mais une situation qui reste alarmante…

Dans les pays des Suds, les taux d’accès à l’alphabétisation à la même période sont si faibles, en particulier pour les femmes, que les enjeux sont tout autres. Dans les nouvelles nations issues des indépendances dans les années 1950-1960, l’éducation est une priorité politique, car elle est une des clés du développement. L’essor scolaire qui, bien qu’inégal selon les pays, touche la majorité des Suds dans les années 1950-1970, permet de combler en partie le fossé entre filles et garçons. Les politiques d’alphabétisation des adultes, moins répandues, sont toutefois en plein essor à cette période. Selon les lieux, elles sont prises en charge avec les hommes dans des cours mixtes (Cuba) ou bien à part (Éthiopie).

Avec la crise économique des années 1980, la majorité des États des Suds acceptent, pour obtenir un soutien financier de la Banque Mondiale et du FMI, la mise en place de Plans d’ajustement structurels qui coupent les budgets publics. S’ouvre donc une période de déclin des systèmes éducatifs, qui conduit à une augmentation des inégalités d’accès à l’éducation. Dans ces conditions, les familles donnent la priorité à la scolarisation des garçons, misant sur leur insertion plus facile sur le marché du travail.

Les années 1990 marquent un tournant important : en 1990, lors de la Conférence mondiale sur l’éducation pour tous à Jomtien, en Thaïlande, l’éducation des filles est identifiée comme une priorité à l’échelle mondiale. Les institutions internationales accompagnent alors les États des Suds dans la mise en place de programmes de discrimination positive pour encourager l’accès des filles à l’école. En effet, l’alphabétisation des femmes contribue à améliorer le développement en accélérant aussi la transition démographique et en contribuant ay recul de la mortalité infantile : selon les projections, la mortalité infantile pourrait être réduite de 15% si toutes les mères avaient une instruction primaire et de 49% si elles avaient une instruction secondaire[37]. L’alphabétisation des filles est parfois évoquée comme la panacée contre tous les problèmes : l’articulation entre les bénéfices de l’instruction et les qualités pensées comme féminines (souci du bien-être familial et social, douceur, pacifisme, etc.) feraient des femmes instruites la solution aussi bien à l’islamisme radical qu’aux crises environnementales…

Le monde comptait 750 millions d'analphabètes en 2016, contre 874 millions en 1994 (source : UNESCO) : il s'agit d'un progrès indéniable. Aujourd'hui dans le monde, 86% des adultes (âgés de plus de 15 ans) savent lire et écrire. Ces progrès sont notamment le fruit de politiques internationales menées sous l'égide de l'UNESCO qui a lancé sa première journée internationale de l'alphabétisation en 1966, et qui a introduit le concept d'alphabétisation fonctionnelle[38], l'alphabétisation étant un moyen de s'insérer (socialement et professionnellement) et non une fin en soi. Les efforts se poursuivent : dans ses objectifs de développement durable pour 2030, l'Unesco souhaite « faire en sorte que toutes les filles et tous les garçons suivent, sur un pied d’égalité, un cycle complet d’enseignement primaire et secondaire gratuit et de qualité, qui débouche sur un apprentissage véritablement utile »[39].

Dans les pays des Nords, subsiste un analphabétisme résiduel (environ 2%), qui touche particulièrement les femmes en grande précarité et/ou issues de l’immigration. L’analphabétisme est parmi les causes de la marginalisation des femmes et constitue un obstacle de premier ordre à la réduction de la pauvreté extrême, dans un monde où les technologies occupent une place prépondérante et où savoir lire, écrire et compter est indispensable pour exercer ses droits fondamentaux et saisir ses chances pour changer le monde et combattre la pauvreté.

b.      ...mais encore le reflet d’inégalités entre pays et hommes et femmes

Doc.8 p.399. Alphabétisation et autonomisation des femmes- L'alphabétisation progresse mais elle peine à effacer les inégalités entre les sexes. Sur les 750 millions de personnes analphabètes -Vocabulaire p.398 dans le monde, 63% sont des femmes ; ainsi en Inde en 2011, sur les 265 millions d’analphabètes, 171 millions étaient des femmes. Le droit à l’éducation se restreint avec l’âge dans de nombreux pays ; ainsi au Burkina Faso, 8% des filles seulement font des études secondaires. L’analphabétisme des femmes est particulièrement élevé en Afrique sahélienne et sub-saharienne, au Moyen-Orient -doc.6 p.398. La scolarisation des filles au Moyen-Orient au XXe siècle et dans le sous-continent indien. À ce rythme, il faudrait attendre 2070 pour atteindre l’alphabétisation universelle[40].

Des obstacles à l’éducation des filles dans le monde persistent :

  • Le poids de traditions culturelles d’inégalité des genres : Dans certaines sociétés, l’éducation des filles n’est pas une priorité, voire n’a aucun sens car elle va à l’encontre du rôle qui leur est dévolu dans la société. Si une famille ne peut pas envoyer tous ses enfants à l’école, elle fera souvent le choix d’envoyer les garçons -y compris là où l’éducation est obligatoire. Par ailleurs, pour celles qui ont la chance d'aller à l'école, les nombreuses heures qu’elles dédient aux tâches ménagères sont autant qu’elles ne consacrent pas à leurs études.
  • Les violences à l’école et sur le chemin de l’école.
  • Les contraintes physiologiques[41].
  • Les mariages précoces: en Afrique occidentale et centrale, 4 filles sur 10 sont mariées avant 18 ans (et 1 fille sur 7 avant ses 15 ans).
  • Les grossesses précoces, consécutives à des mariages précoces ou à des violences sexuelles ainsi qu’à un manque d’accès à la contraception ou à l’avortement.
  • Les situations d’urgence, qui augmentent la pression économique qui pèse sur les foyers, entraînant des familles à pousser leurs filles vers un mariage précoce ou vers un travail dangereux, les obligeant ainsi à abandonner l’école[42].

Ce combat pour l’éducation des femmes est incarné aujourd’hui par Malala Yousafzai, jeune Pakistanaise grièvement blessée par les talibans pour sa prise de position en faveur de l’éducation des filles. Prix Nobel de la Paix en 2014, elle poursuit aujourd’hui, dans le cadre de sa fondation, le combat pour que toutes les filles puissent aller à l’école.

Conclusion

L’alphabétisation des filles est un long combat engagé depuis des siècles et qui ouvre la fois à l’égalité entre les femmes et les hommes. Dans les Nords, malgré quelques poches d’analphabétisme, le combat fut gagné grâce à l’engagement d’hommes et de femmes, qui nourrissaient un projet spirituel, politique et social (religieux à l’époque moderne, républicain aux XIXème et XXème siècles). Peu à peu, les filles ont eu accès à l’alphabétisation, premier pas vers le savoir émancipateur.

Au XXIème siècle, ce combat est toujours d’actualité et malgré l’engagement de l’ONU et de nombreuses ONG comme Plan International, les filles sont toujours victimes d’un accès inégal à l’éducation. Pourtant, la prise de conscience est mondiale à l’image de Kofi Annan, ex-secrétaire des Nations Unies qui dit « Il n’existe aucun instrument de développement plus efficace que l’éducation des filles. ». Malheureusement, les obstacles sont encore nombreux et il faudra encore beaucoup d’engagement pour que les filles aient un égal accès à l’école et ce dans toutes les régions du monde.

         « La preuve est claire : l'égalité pour les femmes signifie le progrès pour tous. » (Ban Ki-moon)

B.    Produire de la connaissance scientifique : recherche et échanges des hommes et des femmes de science sur la question de la radioactivité de 1896 aux années 1950

 Introduction

La découverte et les travaux sur la radioactivité montrent les liens entretenus par la communauté scientifique à l’échelle de la planète. Dans une quête de progrès pour l’humanité, les recherches font l’objet d’échanges et de partage entre les grands noms de la physique et de la chimie au-delà des frontières.

Ils montrent aussi que de 1896 aux années 1950, tout ce travail a reçu le soutien et subi le contrôle de gouvernements et d’États engagés dans des guerres mondiales et dans la guerre froide. Les scientifiques ont mis leurs savoirs au service de leurs gouvernements et ont été confrontés aux interrogations suscitées par l’utilisation de leurs travaux et de leurs prolongements.

En quoi les recherches sur la radioactivité sont-elles le reflet de la collaboration entre une communauté scientifique soucieuse de progrès et des rapports parfois complexes qu’ils entretiennent avec le pouvoir politique de 1896 aux années 1950 ?

1.     Découvrir la radioactivité et la partager pour le progrès de l’humanité…

a.       La radioactivité, une découverte partagée et prolongée...

Les grandes étapes d’une découverte fondamentale
  • Automne 1895, Wilhem Röntgen découvre de mystérieux « rayons X », qui traversent une feuille de papier, font scintiller un écran fluorescent mais sont arrêtés par les os.
  • 1896, Henri Becquerel découvre la radioactivité[43] en poursuivant les travaux de Röntgen sur la fluorescence.
  • 1897, Marie Curie prolonge dans sa thèse les travaux de Becquerel ; son mari Pierre arrête ses propres recherches sur le magnétisme pour s’y impliquer également.
  • 1898, Pierre et Marie Curie démontrent en 1898 l’existence de deux éléments radioactifs, le radium et le polonium[44].
  • 1903, Henri Becquerel, Pierre et Marie Curie obtiennent le Prix Nobel de physique[45].
  • Les recherches sont prolongées par d’autres chercheurs et d’autres pays :
    • L’Anglais Ernest Rutherford et l’Allemand Hans Geiger explorent la structure de l’atome,
    • 1934, Irène Joliot-Curie et son mari Frédéric Joliot-Curie découvrent la radioactivité artificielle,
    • 1939, l’américain Ernest Orlando Lawrence obtient le prix Nobel de physique « pour l'invention et le développement du cyclotron et pour […] la production d'éléments radioactifs artificiels »,
    • 1942, l’Italien Enrico Fermi invente la première pile atomique.
Pas la découverte d’un seul ou d’une seule mais celle d’une communauté

Pierre et Marie Curie refusent de breveter leurs découvertes et communiquent tous les détails de leur expérience. Pour eux, il s’agit de faire avancer la science et non d’en tirer des avantages personnels. Marie Curie n’hésite d’ailleurs pas à déclarer que « le radium ne doit enrichir personne. C’est un élément. Il appartient à tout le monde »[46].

Doc.2 p.400. Le Congrès Solvay de 1927- Les congrès Solvay[47] s’inscrivent dans cet état d’esprit : dans une Europe marquée par la montée des nationalismes, Ernest Solvay renforce la dimension internationale de la science en rassemblant des scientifiques de tous horizons. C’est la raison pour laquelle les Congrès ont lieu dans un pays neutre, la Belgique, et sont présidés par un scientifique hollandais polyglotte. Ceci correspond parfaitement à la vision d’Ernest Solvay, qui souhaitait inciter les élites scientifiques à collaborer quelle que soit leur nationalité, à une époque où la science était principalement considérée d’un point de vue national[48].

b.      … aux multiples applications porteuses de progrès

Dans le domaine médical

Les champs d’application des découvertes des Curie sont considérables. Durant la Première Guerre mondiale, Marie Curie met son personnel et ses recherches au service de l’armée avec dix-huit camionnettes légères, les « petites Curie », qui sillonnent sans relâche les différents champs de bataille pour effectuer des radiographies[49] des blessés. Elle est accompagnée de sa première fille Irène, encore adolescente[50].

La radiologie désormais adoptée par la médecine, Marie Curie milite alors pour une autre technique révolutionnaire, la radiothérapie : « Après les rayons qui dévoilent, les rayons qui soignent ». 1921 voit la naissance de la Fondation Curie, qui permet l’utilisation des radiations dans la lutte contre le cancer.

Dans les applications civiles

Au-delà du domaine médical, la découverte de la radioactivité ouvre d’autres champs d’application :

  • La production d’énergie nucléaire : le premier réacteur nucléaire à production électrique est inauguré aux États-Unis dans l’Idaho en 1951, et en France à Marcoule en 1956. D’ailleurs la signature du Traité de Rome en 1957 s’accompagne de celle du traité Euratom -doc.4 p.401. Un exemple de coopération internationale.
  • L’ archéologie : l’Américain Willard Franck Lilly (prix Nobel de chimie en 1960) effectue en 1949 la première datation au carbone 14 de deux échantillons de bois provenant de tombes égyptiennes.

2.     … mais la mettre aussi au service de la puissance des États et douter

a.       La radioactivité au service de la puissance des États

Les scientifiques ont su se mettre au service de leur État de naissance ou d’accueil, à l’image de Marie Curie qui déclarait à propos de son engagement dans la guerre : « Je suis déterminée à mettre toutes mes forces au service de mon pays d’adoption, maintenant que je ne peux plus rien faire pour mon malheureux pays natal ». Mais dès l’entre-deux guerres, le radium n’est pas seulement le symbole de la modernité, il est aussi un « marqueur » de la puissance d’un pays et suscite la convoitise les chefs d’État, qui se livreront une course à l’atome pendant la Seconde Guerre mondiale, puis pendant la guerre froide.

Doc.3 p.401. La prise de conscience des menaces- Ainsi, le 2 août 1939, Albert Einstein alerte le président Roosevelt sur le danger des recherches nazies sur la bombe atomique[51], lancées depuis avril sous le nom de « projet uranium » (uranprojekt), après la découverte par Otto Hahn de la fission nucléaire (travaux conduits avec Lise Meitner[52]). Dans le projet Manhattan[53], coopération entre scientifiques, politiques et militaires lancée par F. D. Roosevelt sous la conduite du physicien Robert Oppenheimer, il s’agit de prendre de vitesse l’Allemagne nazie :

  • 16 juillet 1945 : premier essai nucléaire américain sur le site d’Alamogordo au Nouveau Mexique.
  • 6 et 9 août 1945 les bombes « Little boy » (uranium) et « Fat man » (plutonium), sur Hiroshima et Nagasaki, marquent l’aboutissement du projet Manhattan.
  • 1949, l’Union soviétique se dote à son tour de la bombe atomique. Au lendemain du bombardement d’Hiroshima, Staline prend conscience de l’intérêt stratégique de l’atome, et exige l’intensification du programme atomique dirigé par Igor Kourtchatov.
  • 1952 : les États-Unis obtiennent la bombe à hydrogène un an avant l’URSS.

Les deux superpuissances, s’engagent dans une course à l’arme nucléaire, plaçant le monde est sous la menace d’une apocalypse. Détenir l’arme nucléaire est l’apanage des grandes puissances, d’où l’acquisition de cette technologie par le Royaume-Uni (1952), la France (1960) [54], la Chine (1964), etc.

b.      Un monde et des chercheurs qui doutent

Si le Japon, après les bombardements d’Hiroshima et Nagasaki, capitule (2 septembre 1945), mettant ainsi fin à la Seconde Guerre mondiale, la physique nucléaire a perdu son innocence, et la science inquiète désormais les intellectuels comme Albert Camus[55].

La dénonciation de la guerre atomique par le Mouvement mondial des partisans de la paix prend une dimension exceptionnelle lorsque le Conseil mondial de la paix (réuni à Stockholm) lance, le 19 mars 1950, « l'appel de Stockholm » qui exige notamment « l'interdiction absolue de l'arme atomique » [56]. Tandis que, dans le même temps, se déclenche la guerre de Corée, cette campagne rencontre un véritable succès populaire en France, porté par les militants communistes et le prestige d’intellectuels engagés (Picasso, Prévert) ou d’acteurs comme Yves Montand[57] ou Simone Signoret, et recueille 15 millions de signatures. Dans le monde, le Mouvement revendique plus de 500 millions de signatures (chiffre gonflé par le comptage systématique de l'ensemble des populations des pays de l’Est).

Cette prise de conscience concerne aussi les « pères » de l’arme atomique comme Albert Einstein, Robert Oppenheimer[58] et Andreï Sakharov (père de la bombe atomique soviétique), qui expriment leurs craintes et leurs regrets et militent pour une désescalade nucléaire. En 1955, onze personnalités de premier plan publient le manifeste Russel-Einstein, appel signé également par Frédéric Joliot-Curie. Bertrand Russell et Albert Einstein se réunissent avec un groupe d'intellectuels à Londres pour rédiger un manifeste qui met en garde contre la course vers un affrontement entre les blocs. Leur texte assimile la course aux armements à une menace pour l'humanité et regrette que le progrès technologique, en particulier l'invention de la bombe atomique, mette l'histoire humaine sur une voie probablement désastreuse. "Voici donc le problème que nous vous présentons, dans ce qu'il a d'austère, de terrible et d'inéluctable : allons-nous mettre fin à l'espèce humaine ; ou l'espèce humaine est-elle prête à renoncer à se faire la guerre ?"

Conclusion

La radioactivité, découverte en 1896 offre une parfaite illustration de l’esprit animant la communauté scientifique et de la richesse de ses échanges, permettant de faire avancer très rapidement les connaissances et le savoir scientifique. Elle aura été l’occasion de faire émerger de grandes personnalités scientifiques, dont certaines illustrent le combat des femmes pour obtenir reconnaissance dans le monde scientifique et égalité dans la société.

Si les scientifiques ont eu le souci d’œuvrer au service de l’humanité, ils n’ont pas échappé aux enjeux géopolitiques de leur époque en participant, parfois à leur corps défendant, à l’engagement de leurs pays dans la guerre. Certains ont ainsi regretté l’utilisation faite de leurs travaux et se sont engagés dans la lutte contre l’armement nucléaire au plus fort de la guerre froide, à l’image d’Oppenheimer ou d’Einstein. Ces scientifiques furent ainsi « citoyens du monde » pour le bonheur et sans doute aussi, pour une part, le malheur de l’Humanité mais aucun n’a échappé à la pensée de Rabelais pour lequel « Science sans conscience n’est que ruine de l’âme ».

II. La connaissance, enjeu politique et géopolitique (Axe 2)

Manuel p.408-423- Conscients de l'importance des savoirs dans la mise en œuvre d'une politique de puissance, les États cherchent à mettre en place des politiques de développement de la recherche et de l'innovation pour accroître leur prospérité économique, asseoir leur supériorité militaire mais aussi étendre leur influence culturelle. Entre rivalités et coopération, la connaissance devient un enjeu fondamental pour les relations internationales.

Pourquoi et comment les États se saisissent-ils de l'enjeu de la connaissance ?

A.    Le renseignement au service des États : les services secrets soviétiques et américains durant la guerre froide

Jalon p.414-415- Les services secrets pratiquent le renseignement, ce qui inclut la collecte d’informations en amont, l’analyse qui est faite de ces informations en aval, et la structure qui en assure le traitement. Leur finalité est la sécurité et l’action. L’utilisation de services secrets est récente (fin XIXe siècle), mais les espions existaient déjà au moment de la Guerre de Trente Ans, et même bien avant. Le terme « espionnage » a été progressivement remplacé par le mot « renseignement », moins péjoratif et plus proche des réalités de cette activité : en effet, au-delà de l’imaginaire développé par les films et la littérature d’espionnage, l’agent de renseignement est d’abord un acteur en quête d’informations[59].

La Guerre froide (1947-1991) a normalisé le mode de fonctionnement des services secrets. Pour les historiens, la fin de la guerre froide a permis la déclassification de sources[60]. Ainsi, les documents du projet Venona, publiés en 1995, permettent de mieux connaître les mécanismes d’infiltration des services de renseignement soviétiques aux États-Unis pendant la Seconde Guerre mondiale.

Quelles connaissances les services secrets américains et soviétiques recherchent-ils durant la guerre froide, et par quels moyens ?

1.     Deux organisations nées au début de la Guerre froide

a.       La CIA

Les États-Unis, jeune nation, ont découvert l'importance de l'espionnage au XXe siècle, notamment lors des deux guerres mondiales, notamment à travers l'OSS (Office of Strategic Services). Alors que le FBI (Federal Bureau of Investigation), fondé en 1908, est un service de sécurité intérieur (dont la finalité est la protection de l’État), la CIA (Central Intelligence Agency), apparait en 1947. Au début de la guerre froide, les États-Unis créent plusieurs agences de renseignement, dont la CIA (Central Intelligence Agency) [61], en leur accordant des moyens humains et techniques considérables[62]. La NSA (National Security Agency) est créée secrètement en 1952[63] ; elle dépend du Département de la Défense et gère les activités de cryptologie du gouvernement américain.

La CIA est placée directement sous l’autorité du Président des Etats-Unis. En 1949, elle obtient l’autorisation de dissimuler son organisation, ses membres, son budget. Si la CIA n’espionne pas sur le territoire américain, elle effectue toutefois certaines opérations aux Etats-Unis comme le recrutement de personnes étrangères résidant aux Etats-Unis.

b.      Le KGB

Pour les bolcheviques au pouvoir en 1917, le renseignement n’est pas une nouveauté : leurs dirigeants sont déjà entrainés à la clandestinité par leurs activités révolutionnaires. Au moment où ils fondent leurs services secrets, six semaines seulement après la conquête du pouvoir, ils héritent d’une tradition déjà bien enracinée pendant la période tsariste, en même temps que d’une spécificité : la répression interne (Tchéka, Guépéou, NKVD).

Pendant la Seconde Guerre mondiale, les services de renseignement soviétiques sont désignés par l’acronyme GRU (Direction principale du renseignement). Le KGB (Comité pour la Sécurité de l'État[64]) est créé en 1954. Il est chargé du contre-espionnage, de la surveillance des gardes-frontières, du renseignement extérieur et de la lutte contre les opposants. Durant la guerre froide, le KGB supplante peu à peu tous les organes du renseignement soviétiques, car ses prérogatives lui permettent de collecter des renseignements à la fois dans le domaine militaire et civil[65]. Doté d’un budget illimité, le KGB est dirigé par un haut fonctionnaire, nommé par le Comité central du PCUS, auquel il est étroitement lié[66].

Le KGB comptait parmi ses principales missions la chasse aux ennemis politiques à l’intérieur comme à l’extérieur. Présent par exemple à Budapest au moment de l’insurrection hongroise (1956) et lors du Printemps de Prague (1968), il veille à la solidité du bloc[67].

2.     Renseignement et sciences

a.       Le renseignement s’intéresse aux sciences : les Soviétiques et l’espionnage scientifique

En 1999, la publication par le transfuge du KGB Vassili Mitrokhine avec le professeur britannique Christopher Andrew d’un ouvrage[68] sur les services secrets de 1917 à 1991 a eu un grand retentissement. L’ancien colonel du KGB a recopié pendant 10 ans des milliers de fiches, dénonçant de nombreux scientifiques, journalistes, politiciens occidentaux ayant servi l’URSS, et décrit avec précision les organes du KGB. Ces documents montrent comment, en s’appuyant sur des services de renseignement efficaces, les Soviétiques ont connu le projet Manhattan, ce qui leur a facilité la tâche

pour se doter de l’arme atomique en 1949 -NB. Le pillage des secrets militaires de la première bombe atomique était connu de longue date par les autorités américaines, grâce au projet Venona[69], déclassé et rendu public en 1995. Grâce à la complicité du physicien nucléaire Klaus Fuchs, Lavrenti Beria, qui dirige les services secrets de Staline, a eu connaissance des principaux secrets de fabrication de la bombe dans un rapport du 28 février 1945… soit cinq mois avant le premier essai, à une époque où Harry Truman lui-même ignorait l’existence du projet.

b.      Le renseignement stimule le progrès technique et scientifique

C'est la NSA qui, pour les besoins de l'analyse cryptographique, a le plus contribué dans les années 1950-1960 au développement des gros ordinateurs capables d'effectuer des calculs mathématiques très complexes. C'est aussi dans le plus grand secret que des avions de reconnaissance sont conçus et mis en œuvre pour découvrir, identifier, localiser les arsenaux nucléaires soviétiques. Il a fallu l'incident de l'U2 abattu par les Soviétiques en 1960 pour que le public les découvre. Lors de l'affaire des missiles de Cuba en 1962, le président Kennedy a très largement utilisé les informations secrètes fournies par les photos aériennes et les moyens d'interception électronique.

Par la suite, les satellites d'observation ont permis de disposer de moyens d'observation échappant aux restrictions de survol des espaces aériens nationaux. Ces moyens d'observation ont été en quelque sorte officialisés en droit international quand, à la suite du processus d'Helsinki, qui s’ouvre en 1973[70], il a été fait explicitement référence aux « moyens techniques nationaux » pour la surveillance et la vérification réciproques de l’application des accords de désarmement[71].

3.     Recruter pour savoir ou pour agir

Dès le début de la guerre froide, la CIA mène des opérations de déstabilisation politique. Par exemple :

  • Le coup de force contre Mossadegh en Iran en 1953 -doc.2 p.414.
  • L’opération menée contre le président du Guatemala Jacobo Arbenz en 1954.
  • L’opération de la Baie des Cochons à Cuba en 1961.
  • Le coup d’État au Chili contre le président Allende en 1973.

Le KGB quant à lui aide les régimes « amis » à se maintenir, en collaborant avec les polices de renseignement, comme la Stasi en Allemagne de l’Est, et fournit une aide logistique et militaire à divers groupes armés en Afrique et au Moyen-Orient. Il peut également bénéficier de complicités : quand en 1949, la CIA échoue à renverser le régime d’Enver Hoxha en Albanie (projet Valuable), c’est par l’entremise de Kim Philby, agent britannique œuvrant pour le KGB depuis les années 1930, démasqué en 1963 comme l’un des « Cinq de Cambridge ». En effet, le KGB conserve l’avantage en termes de pénétration :

  • En Amérique du Nord[72], le canadien Hugh Hambleton à partir de 1951 lui communique des documents de l’OTAN. En 1953, Robert Lee Johnson, sergent dans l’US Army, fournit aux Soviétiques des renseignements militaires sur les lieux de stockage des têtes nucléaires américaines en Europe. 139 personnes entre 1940 et 1994 sont condamnées par les autorités judiciaires américaines [73], mais ce chiffre ne montre qu’une partie de la réalité.
  • En Europe, les informations livrées à la France par Vladimir Vetrov alias Farewell -doc.4 p.415. Espionner derrière le rideau de fer au début des années 1980 révèlent l’étendue du dispositif soviétique en Europe et mènent à l’expulsion de 148 diplomates soviétiques -dont 47 en France.
  • Dans le tiers-monde : en Égypte, le KGB recrute Sami Sharaf, responsable des services de renseignement et proche conseiller de Nasser ; en Inde, il mène une propagande antioccidentale.

B.    Circulation et formation des étudiants, transferts de technologie et puissance économique : l’exemple de l’Inde

Jalon p.416-417- La connaissance est aussi un enjeu de puissance en temps de paix. Le développement économique de l’Inde est très dépendant de sa capacité d’innovation, et sa montée en gamme dans la NDIT de sa capacité à avoir une main-d’œuvre formée. Ceci entraine une croissance continue des besoins en étudiants de haut niveau et en chercheurs.

L’Inde connaît une forte croissance du PIB nominal (6,9% en moyenne depuis 2012), ainsi que du PIB par habitant (environ 5% par an) ; près de 140 millions d’habitants sont sortis de la pauvreté en moins de 10 ans. Elle est depuis 2018 la cinquième puissance économique mondiale (PIB nominal) devant la France et le Royaume-Uni. Surnommée le « bureau du monde » en raison de son développement fondé sur la téléphonie, l’informatique et l’ingénierie, sa puissance repose en partie sur la formation des étudiants et sur les transferts de technologie (acquisition de savoir-faire techniques).

Comment la mobilité des étudiants et les transferts de technologie contribuent-ils à la puissance de l’Inde ?

1.     Les ingénieurs indiens, une tradition ancienne

a.       Le Raj britannique a besoin d’ingénieurs[74]

Doc.1 p.416. Sam Pitroda : un des « pères » de l’économie de la connaissance- Si l’ingénieur est aujourd’hui l’une des figures du succès économique indien, l’essor de la profession débute dès la colonisation britannique.

À partir des années 1850, les Britanniques investissent en Inde dans la formation d’ingénieurs formés sur le tas avec la construction du chemin de fer. En effet, les ingénieurs militaires (royal engineers), qui assument dans un premier temps la direction des travaux n’y suffisent plus, et les ingénieurs civils recrutés en métropole s’avèrent trop coûteux[75]. L’Inde fait ainsi figure d’exception dans le monde colonial : ailleurs, l’éducation technique est limitée à des niveaux très élémentaires, et ce n’est qu’à partir des années 1920-1930 que des tentatives pour former une main-d’œuvre plus qualifiée voient le jour. À la même époque, les ingénieurs indiens occupent aussi un tiers des postes d’ingénieurs de la colonie.

Les Indiens revendiquent l’égalité d’accès aux postes les plus élevés (résolution du Congrès national indien des 1887), mais la colour bar (discrimination raciale) assure aux ingénieurs de la métropole de meilleurs postes et de meilleurs salaires[76]. Au début du XXe siècle, les nationalistes indiens veulent créer un institut polytechnique central pour former les futurs cadres de l’industrie ; ils fondent en 1906 le Bengal Technical Institute. Grâce à la multiplication des établissements[77], la formation d’ingénieurs s’intensifie : en 1940, plus de 50% des ingénieurs de l’Indian Service of Engineers sont indiens.

b.      La formation qualifiée, un enjeu majeur de l’indépendance à l’émergence

Avec l’indépendance, la formation d’une main-d’œuvre qualifiée devient un enjeu majeur. Des instituts d’élite sont créés, les Indians Institutes of Technology (IIT) sur le modèle du Massachussetts Institute of Technology (MIT). Le premier est créé en 1951. Quatre autres sont fondés ensuite en collaboration avec des puissances étrangères (Allemagne de l’Ouest, États-Unis, Grande-Bretagne).

Les étudiants indiens sont aussi encouragés, par un système de bourses, à se former à l’étranger, principalement aux États-Unis. Outre la facilité linguistique, ce pays bénéficie de la connexion ancienne qui existe entre certaines élites indiennes et le MIT. Dans un contexte où le terrain technologique devient un des enjeux essentiels de la guerre froide, les autorités états-uniennes cherchent à attirer de brillants jeunes gens. Elles ouvrent de nombreuses American Libraries (bibliothèques) en Inde, et assouplissent les lois sur l’immigration afin de pouvoir conserver les jeunes diplômés. En 1967, l’Inde forme ainsi 10 000 ingénieurs par an dont 1 000 sortis des IIT, tandis que 2 300 Indiens étudient l’ingénierie aux États-Unis. Une partie d’entre eux choisissent de ne pas rentrer au pays. Le succès rencontré par certains durant le boom de la Silicon Valley des années 1980, tels Suhas Patil[78] et Vivek Ranadive[79], contribue à asseoir la réputation internationale des ingénieurs indiens.

Lorsqu’une politique de libéralisation de l’économie et d’ouverture aux multinationales étrangères est initiée dans les années 1990, cette main-d’œuvre peu coûteuse mais hautement qualifiée constitue pour l’Inde un atout majeur sur le marché international du travail. C’est en particulier le cas dans le domaine informatique, où des programmes de formation ont été créés dès la fin des années 1960 dans plusieurs IIT. L’installation de multinationales et l’essor de grandes firmes indiennes spécialisées dans les technologies de l’information, comme Infosys, suscitent un véritable engouement pour les formations d’ingénieurs. Entre 2000 et 2010, le nombre d’Engineering Colleges passe de 750 à 3 000[80] : la profession cristallise les espoirs d’ascension sociale d’une partie de la population.

2.     Du brain drain au brain gain

L‘Inde a une des plus fortes populations étudiantes du monde : 35 millions d’étudiants, très mobiles et encouragés à aller à l’étranger, les destinations les plus attractives étant les États-Unis, le Canada et l'Australie. Ces migrations concernent surtout des personnes originaires des grandes métropoles indiennes (Delhi, Mumbai, Chennai, Bangalore, Hyderabad) et issues de milieux socio-professionnels élevés (ingénieurs, médecins, universitaires, avocats). La communauté indienne des États-Unis, estimée à près de 4,5 millions d'individus en 2015, est ainsi la minorité ayant le PIB par habitant le plus élevé du pays. Les cohortes d'informaticiens indiens employés dans la Silicon Valley (10% des employés de Microsoft) constituent l’archétype de la success story des Indiens aux États-Unis. Par exemple, Satya Nadella, le nouveau PDG de Microsoft, est né à Hyderabad et a fait ses études supérieures à Chicago.

Un autre flux notable et récent, bien que très inférieur au précédent puisqu'il ne dépasse pas quelques dizaines de milliers de personnes, concerne le retour de migrants très qualifiés, et en particulier des ingénieurs. Leur cas est intéressant car il invite à relativiser la « fuite des cerveaux » (brain drain) que connaît l'Inde depuis les années 1960. Leur retour en Inde s'explique en partie par le boom du secteur informatique en Inde et par la nouvelle politique de New Delhi vis-à-vis des « non résident indians » (NRI)[81]. Leur réputation aux États-

Unis a également conduit de nombreuses firmes américaines et occidentales à externaliser leurs activités au profit de sociétés indiennes. La « diaspora » des ingénieurs indiens participe ainsi non seulement à un transfert de technologies en Inde, mais aussi à la création d'entreprises par investissements directs, notamment à Bangalore[82], ce qui invite finalement à parler d’un « brain gain »[83] pour qualifier les effets de ces migrations. Le gouvernement indien a évidemment compris l’intérêt que cela représentait pour le développement économique du pays, et pour son rayonnement international, et encourage les membres de la diaspora à revenir en Inde.

NB. On entend ici par « diaspora » un phénomène migratoire et transnational répondant à quatre principaux critères : 1/ Une population dispersée sous la contrainte dans plusieurs lieux ou territoires non immédiatement voisins de celui d’origine. 2/ Des territoires de destination choisis en raison de la constitution de chaînes migratoires. 3/ Une population s’intégrant dans les pays d’accueil sans s’assimiler, c’est-à-dire conservant une conscience identitaire liée à la mémoire de la société et du territoire d’origine. 4/ Des groupes dispersés qui conservent et développent entre eux et avec la société d’origine (lorsqu’elle existe encore), des échanges matériels et immatériels organisés en réseaux (personnes, biens, informations, capitaux, etc.) [84]. Les étudiants indiens font partie de cette diaspora.

3.     Transferts de technologie et puissance économique

a.       Bangalore, la Silicon Valley indienne

Bangalore est devenue la cinquième ville de l’Inde par la population (8,5 millions d’habitants, 12,4 pour le grand Bangalore, « métropole inattendue »[85]).

En 1977, le gouvernement du Karnataka a lancé une agence dédiée au développement d’entreprises d’électronique au sud-est, Electronics City[86], qui accueille depuis 1983 le siège d’Infosys, une des plus importantes sociétés indiennes du secteur. Sa trajectoire est comparée à celle d’Apple : née dans un garage, elle décolle dans les années 1990, et devient une FTN qui réalise 98% de son chiffre d’affaires hors d’Inde et emploie 160 000 salariés. Des zones d’activité spécifiques de plus en plus loin du centre sont créées. Par exemple, à l’est de Bangalore, à 20 km du centre historique une edge city se développe : le parc d’activité (technoburb) de Whitefield.

b.      De l’attractivité d’une main d’œuvre qualifiée et peu coûteuse aux transferts de technologie

La libéralisation des années 1990 est approfondie par les réformes de 2004-2005 pour attirer les IDE et les FTN : création de 200 zones spéciales en périphérie des grandes métropoles (Chennai, Bangalore, Hyderabad), avantages fiscaux, exemptions douanières...

Doc.5 p.417. Transferts de technologie et affirmation de la puissance indienne- Surtout, tout en ouvrant son économie aux FTN étrangères, l’Inde négocie des transferts de technologie. En 2014 le premier ministre N. Modi a lancé le Make in India. Les secteurs prioritaires sont l’automobile, l’aéronautique, les énergies renouvelables, la chimie les technologies de l’information, le ferroviaire et le textile. Les secteurs de la défense et de l’aérospatiale sont particulièrement représentés pour la France avec Dassault, Safran et Naval Group.

III. Le cyberespace : conflictualité et coopération entre les acteurs (Objet de travail conclusif)

Introduction

Problématique p.424-425- Dans l’Axe I, nous avons mesuré l’importance de la production et de la diffusion de la connaissance pour les États et les sociétés. Nous avons étudié l’intensification des échanges entre les scientifiques depuis le XVIe siècle, l’implication des États dans la démocratisation du savoir à travers l’exemple de l’alphabétisation des femmes dans le monde, et les inégalités qui persistent dans ce domaine.

Dans l’Axe II, nous avons vu que la connaissance est un instrument de pouvoir politique. Elle participe de la puissance militaire d’un État par l’intermédiaire du renseignement, et de son pouvoir économique dans des sociétés marquées par l’innovation technologique. Entre concurrence comme au temps de la guerre froide et coopération parfois nécessaire, la connaissance est un élément majeur des relations internationales.

Avec cet objet de travail conclusif, nous allons découvrir comment la production et la diffusion de la connaissance ainsi que la manière dont les États la favorisent ou la contrôlent s’appliquent dans le domaine du cyberespace -Vocabulaire p.426. La révolution numérique provoquée par l'adoption massive des technologies de l'information et l'interconnexion mondiale des systèmes d'information et de communication a connu une accélération fulgurante au cours des deux dernières décennies. Elle a entrainé un bouleversement profond des pratiques sociales, économiques et politiques des sociétés humaines, plus important peut-être que les ruptures engendrées par l'invention de l'écriture et de l'imprimerie. Des pans entiers de la connaissance et de l'activité humaine sont désormais transformés en données numériques, dont le volume connait une véritable explosion. Réseau planétaire sans frontières, source de conflictualité et de coopération, le cyberespace représente un défi pour la sécurité et la souveraineté des États, entre liberté de l’information et contrôle des données qui y circulent.

Quel enjeu le cyberespace constitue-t-il à l’échelle mondiale ?

A.    Le cyberespace, entre réseaux et territoires (infrastructures, acteurs, liberté ou contrôle des données…)

Carte p.426-427. Le cyberespace : acteurs, contrôles et menaces- Le cyberespace, né de l’interconnexion des réseaux de télécommunication numérique, défie les représentations classiques du territoire -doc.1 p.430. Le cyberespace est-il un territoire ? en permettant des échanges immatériels transfrontaliers quasi instantanés. Les acteurs du cyberespace mettent en œuvre des stratégies pour se l’approprier, le contrôler ou en défendre l’indépendance.

1.     Définitions, enjeux

a.       Bienvenue dans la Matrice

Le cyberespace est un espace immatériel (parfois qualifié de « virtuel »[1]) qui émerge à la fin du XXe siècle. Il désigne l’ensemble des systèmes d’échange de données numériques, devenues aujourd’hui si massives qu’on parle de « big data » -Vocabulaire p.428.

Le cyberespace se présente donc comme un ensemble de couches superposées :

  • La première couche (hardware) est constituée par l’infrastructure physique, composée de terminaux (ordinateurs, smartphones…) et d’équipements de réseaux (serveurs, câbles, satellites…) -cet espace « virtuel » présente des externalités très concrètes[2] -Carte 2 p.430. Réseaux de câbles sous-marins et datacenters + Les data centers dans le monde p.428!
  • La deuxième couche (software) est l’infrastructure numérique : systèmes d’exploitation (Windows, Linux, macOS…) et applications (logiciels) assurant la transmission des données.
  • La dernière (data) est celle du contenu informationnel échangé entre utilisateurs.

Cet ensemble spatial « immatériel » est un nouvel environnement dans lequel nous évoluons. Il possède sa propre géographie, dont on sait encore très peu de choses. Pourtant, cette géographie du cyberespace est indispensable à la compréhension du monde contemporain et des rivalités géopolitiques, car elle révèle des rapports de force et des stratégies d'acteurs, qui s'opèrent dans et hors de la datasphère.

b.      Les enjeux de la maîtrise du cyberespace

À des fins commerciales ou politiques

Les données numériques reflètent à la fois le monde physique et les activités humaines. Associées à de puissants algorithmes, ces données au volume vertigineux permettent d'analyser nos déplacements, nos occupations, nos centres d’intérêt, nos comportements commerciaux. Nos traces numériques permettent des analyses prédictives sur nos comportements à des fins commerciales ou politiques. Le cyberespace est donc au cœur d’enjeux marchands.

Il est également au cœur d’enjeux politiques, quand se mettent en place des formes de gouvernance numérique, par exemple en Chine[3] (mais pas seulement), ce qui soulève des préoccupations en termes de liberté -doc.4 p.431. Une restriction des libertés à l’ère de la data surveillance + Points de vue p.434-435. Le cyberespace : une menace pour les libertés individuelles ? + Sujet bac p.438-439. Internet en Chine.

Elles poussent ainsi les entreprises et les États à entamer une transformation numérique : la capacité à collecter, stocker, croiser et exploiter les données est désormais au cœur de l'innovation, moteur de la croissance économique et de l’exercice du pouvoir, mais aussi de multiples enjeux éthiques, démocratiques, de gouvernance et de légitimité.

À des fins de renseignement ou d'opérations militaires extérieures

Plus largement, et même si le concept même de cyberguerre ne fait pas consensus dans le monde académique[4], les années 2010 ont vu l’émergence de la représentation du cyberspace comme un nouveau domaine militaire. Les cyber opérations font désormais partie de l’arsenal des plus grandes armées et viennent en appui de tous les moyens utilisés pour faire la guerre.

Pendant des années, certains États ont profité de l'opacité de l'espace numérique pour mener des opérations offensives en toute discrétion. Mais la technologie est désormais à la portée d'un nombre beaucoup plus important d'acteurs, étatiques et non étatiques, acteurs de plus en plus entreprenants, imaginatifs… et agressifs. On distingue plusieurs types d’attaques numériques : le cyberespionnage (s’introduire dans un système pour y dérober des données) -Vocabulaire p.426, le sabotage (empêcher un système de fonctionner)[5], la subversion informationnelle (ingérences déstabilisatrices). La décennie 2010 a ainsi été marquée par une diversification des cibles et une diversification des acteurs -doc.5 p.431. Agresseurs et victimes dans le cyberespace.

La transformation numérique des sociétés les rend de plus en plus dépendantes au cyberespace, dont la stabilité est désormais essentielle à leur bon fonctionnement. Or, plus une société est connectée et dépendante au numérique, plus sa vulnérabilité est importante.

2.     Stratégies d’acteurs : entre conflictualités et coopérations

De multiples acteurs publics et privés coopèrent et s’affrontent dans le cyberespace. Aux côtés des particuliers, des entreprises (GAFAM -Vocabulaire p.429), des organismes indépendants[6] et des acteurs publics (États, collectivités), de nouveaux acteurs nés du numérique l’investissent[7].

a.       Conflictualités

Une menace plus présente, complexe, protéiforme et imprévisible

La multiplication des attaques a révélé la vulnérabilité mais aussi l'impréparation des États, y compris les plus avancés. Dès 2007, les cyberattaques -Vocabulaire p.426 contre l'Estonie ont servi de catalyseur à la cyberguerre. Menées dans le contexte de manifestations de la minorité russophone contre le déplacement d’une statue à Tallinn, ces attaques avaient paralysé les sites Web de banques, de médias, de ministères et du Parlement. En juillet 2008, une vague de cyberattaques contre des sites géorgiens précédait de peu l’entrée des chars russes dans le pays, inaugurant la première cyberattaque combinée à une opération militaire. En 2010, Stuxnet a inauguré la première attaque majeure contre une infrastructure critique, dans une tentative conjointe des Etats-Unis et d'Israël d'enrayer le programme nucléaire iranien.

En 2013, les révélations d'Edward Snowden ont démontré l’ampleur prise par les pratiques d'espionnage grâce à l'interconnexion planétaire des systèmes d'information et de communication, suscitant une prise de conscience de nombreux pays, de leur dépendance aux plateformes et technologies numériques américaines. En 2014, les attaques contre Sony Pictures ont créé la surprise, en montrant que de grandes entreprises pouvaient être touchées -Cf. également l'attaque de TV5 Monde en 2015 -doc.5 p.433. La cyberattaque contre TV5 Monde.

Puis, en 2015, la surprise est venue de l’usage sophistiqué des réseaux sociaux par l'État islamique pour diffuser sa propagande, favoriser la radicalisation en ligne, trouver de nouvelles recrues, lever des fonds, organiser des départs vers la Syrie et fomenter des attentats. En 2016, c’est au tour de l'administration américaine de se faire surprendre par les opérations d’ingérence attribuées à la Russie dans l'élection présidentielle de 2016. Les opérations de manipulations de l'information à des fins d'ingérence ou de déstabilisation des démocraties mobilisent désormais une grande attention.

En 2016 et 2017 les attaques de WannaCry et NotPetya[8] -Rançongiciel : vocabulaire p.429, ont inauguré l'ère des attaques à propagation massive et incontrôlable, causant les dégâts les plus importants jamais enregistrés en touchant dans plus de 150 pays des dizaines d’entreprises et d'institutions. Elles ont démontré non seulement le besoin de protéger les systèmes mais aussi d'être en mesure de réagir très vite pour parer à la contamination.

Le cyberespace, un nouvel espace de confrontation dans les rivalités géopolitiques

Ces évolutions ont exacerbé une course aux cyberarmes, dans une dynamique de militarisation du cyberespace qui a conduit les États à en faire une priorité stratégique : il reflète donc les tensions internationales (Russie vs États-Unis, États-Unis vs Chine, etc.).

La Chine a pour ambition de devenir la « cyberpuissance majeure » -Vocabulaire p.426. Depuis la fin des années 1970, pour rattraper le retard sur les pays occidentaux, les dirigeants chinois ont élaboré des programmes d'investissements dans l'éducation et la recherche et adapté les politiques publiques pour permettre l’acquisition de technologies étrangères. En abordant de nouvelles sources de croissance liées au numérique, l’économie chinoise s’est éloignée du modèle des années 1990 (exportations d’industries à faible valeur ajoutée) et a progressé dans la chaîne de valeur. C’est logiquement que l’on assiste en 2014 à la création du Groupe gouvernemental pilote pour la cybersécurité -Vocabulaire p.426 et l’informatisation[9]

. Cet organe, présidé par Xi Jinping en personne, dirige la politique numérique du pays : diplomatie numérique, questions de sécurité, protection des données, contrôle des contenus. Dans le langage politique chinois, le PCC cherche à restaurer la richesse et la force de la Chine, et ainsi accomplir le « rêve chinois ». Cette politique s'est construite en opposition au rôle mondial par les États-Unis.

L’approche étatsunienne des cyber opérations, théorisée à partir de 2009 avec la création par B. Obama d’un cybercommand, a connu un tournant en 2018 sous l’administration Trump, avec l’adoption d’une stratégie de confrontation continue (Persistent Engagement), qui doit permettre de contrer les menaces à leur source. Persistent Engagement reflète la volonté états-unienne de reprendre l'initiative et de mener des opérations offensives. En effet, l’administration Trump développe une « théorie de la victoire », un récit politique qui affirme que la patience stratégique manifestée par B. Obama dans le domaine des attaques numériques a diminué la sécurité américaine. Ainsi, sa logique opérationnelle (créer de la friction[10]) converge avec la logique stratégique du rétablissement de la supériorité américaine. Pour certains observateurs, la stratégie du Persistent Engagement constitue une approche potentiellement déstabilisatrice de la conflictualité numérique[11], en contribuant à l'accélération de la course aux cyberarmes. Pour autant, elle n’a pas été abandonnée par l’administration Biden.

Les vingt dernières années ont vu s’établir un nouvel équilibre dans le cyberespace avec l’affirmation de la cyberpuissance russe.

 Depuis les attaques menées contre l’Estonie (2007), la Géorgie (2008) et l’Ukraine (2014, 2022), la Russie est régulièrement mise en cause dans des cyberattaques. Pirates, mercenaires, soutenus ou non par Moscou… l’origine de ces cyberattaques est floue, mais les motivations, souvent nationalistes, font pencher pour un soutien de l’État à ces opérations, et ce d’autant plus quand elles se déroulent dans les anciennes Républiques soviétiques (« étranger proche »). Ces dernières années, la conceptualisation de la guerre en Russie a évolué pour intégrer des moyens non militaires à côté des moyens armés traditionnels, par exemple à travers le concept de « guerre de l’information ». La stratégie cyber russe est ainsi intrinsèquement liée à sa stratégie de guerre de l’information, les campagnes de désinformation menées par des trolls russes s’accompagnant souvent de cyberattaques. Bien que la posture officielle de la Russie soit défensive, le rôle des cyberarmes offensives dans la vision russe du conflit est régulièrement analysé dans les revues militaires russes. Les acteurs impliqués dans ces opérations ont évolué, du recours à des hackeurs -Vocabulaire p.429 indépendants au début des années 2000 à l’instauration d’unités scientifiques militaires (2013) et d’une « force de cyber opérations » (2014).

b.      Coopérations

Entre acteurs étatiques

Les États font face à un dilemme sécuritaire à propos des opérations offensives dans le cyberespace, qui oppose deux représentations du risque cyber, suscitant des tensions complexes et des objectifs parfois irréconciliables :

  • D’un côté, les États se représentent la menace cyber comme un risque systémique, autrement dit un phénomène très complexe, transfrontalier, pas nécessairement d'origine étatique et qui à l’image des pandémies peut se répandre très rapidement, s'avérer très difficile à stopper et entraîner des dommages massifs. Il est dès lors dans l'intérêt de tous de stopper la contagion. Cette approche du risque plaide pour une coopération renforcée entre gouvernements et avec les acteurs privés, et une limitation des armes, dans l'intérêt commun de la stabilité du système.
  • Mais, d'un autre côté, la menace cyber est d'abord une menace géopolitique pour les États, puisque les outils offensifs sont utilisés par leurs adversaires pour accroître leur pouvoir en appui du renseignement, de l'espionnage, de l’influence, etc. Juguler ce risque entraîne les États dans la direction opposée, celle du développement d'un arsenal offensif et d'une coopération limitée pour protéger leurs capacités souveraines (notion de « souveraineté numérique ».

La seconde approche domine clairement les représentations des États aux capacités les plus avancées. Source de défiance entre États, elle les encourage à renforcer leur contrôle « territorial » du cyberespace. Elle limite leur capacité à se mettre d'accord sur la régulation du comportement des États dans le cyberespace. Les États se trouvent ainsi face au même type de dilemme que lors de la prise de conscience des dangers du nucléaire. Or la technologie numérique est à la portée d'énormément d'acteurs, et pas seulement des États : plus facile à voler et réutiliser qu'un missile nucléaire, elle nécessite une approche totalement différente de la contre-prolifération.

Des discussions sur la régulation du cyberespace ont quand même lieu. Dès 1998, l’ONU adopte une résolution sur la cybersécurité et en 2001, l’Assemblée générale crée un groupe d'experts gouvernementaux (GGE) pour entamer des discussions sur les enjeux de sécurité des technologies de l'information et de la communication (TIC). Les trois rapports produits par les GGE successifs[12] illustrent la prise de conscience par les États de leur propre vulnérabilité et de l'existence d'un risque systémique, donc de la nécessité que le droit international s’applique au cyberspace[13]. L'espace numérique n'est donc plus ce « Far West numérique » dans lequel seule la loi du plus fort domine, au moins en théorie. Mais les modalités de régulation du cyberespace sont l’objet de profondes dissensions :

  • D'un côté, une partie des États, dont les États-Unis, estiment que le droit international existant suffit à réguler les comportements et argumentent en faveur d’engagements politiques des États, via des normes non contraignantes, qui ne créent pas de nouvelles obligations internationales.
  • De l'autre côté, certains États, notamment la Russie, considèrent que le droit existant ne suffit pas à réguler le comportement des États dans le cyberespace. Il faut donc de nouvelles règles, de nouveaux droits et obligations contraignantes pour compléter le droit international, via un traité.

L’élaboration d'un consensus entre les États est chose ardue, mais des avancées ont pu être opérées. Ainsi, les États se sont mis d'accord en 2015 sur une série de normes non contraignantes pour réduire les risques : par exemple, les États ne doivent pas autoriser que depuis leur territoire des cyber-opérations causent des dommages intentionnels aux infrastructures d'importance vitale. Ils doivent échanger de l’information et se prêter mutuellement assistance. L'adoption de ces normes montre donc une volonté commune d'assurer la sécurité et la stabilité de l'espace numérique. Mais depuis 2016-2017, les négociations sont dans l’impasse, dans un contexte géopolitique tendu.

L’implication d’acteurs non-étatiques

En conséquence, des acteurs non étatiques, confrontés eux aussi au risque systémique, se sont impliqués directement dans ces discussions à travers différentes initiatives. En 2017, Brad Smith, président de Microsoft, lance un appel en faveur d’une convention de Genève du numérique. S'inspirant des conventions de Genève de 1949, il appelle les États à protéger les infrastructures et les citoyens contre les attaques informatiques en temps de paix, et à créer une organisation internationale sur le modèle de l’Agence internationale de l'énergie atomique. Au même moment, lors de la conférence de sécurité de Munich, la Global Commission on the Stability of Cyberspace (GCSC) lance ses travaux. Créée à l’initiative du ministre des Affaires étrangères des Pays-Bas avec le soutien de grandes entreprises et de quelques États, cette commission indépendante regroupe 28 experts internationaux venus du secteur privé, du monde académique, de la communauté technique et d’organisations non gouvernementales, chargés de proposer de nouvelles normes pour maintenir la sécurité et la stabilité dans l'espace numérique.

Entre 2017 et 2019, ces acteurs ont joué un rôle important dans les débats portant sur la sécurité et la stabilité de l'espace numérique. La GCSC a ainsi proposé huit normes de comportement[14] dont plusieurs ont été intégrées dans l'Appel de Paris en novembre 2018[15] et le Cybersecurity Act adopté en mai 2019 par l'Union européenne. Fin 2019, Microsoft, MasterCard et la Fondation Hewlett, créent le CyberPeace Institute, qui dispose d'une fonction d'accountability afin d'évaluer le respect des normes de comportement et du droit international par les États. De même, la désignation en janvier 2020 par Microsoft d'un représentant spécial chargé des questions onusiennes illustre la volonté de l'entreprise d'influencer directement les discussions internationales. L’apport des acteurs non étatiques dans les discussions internationales est reconnu de plus en plus largement, même s'il reste perçu de manière diverse.

Le paysage des négociations internationales devient ainsi particulièrement foisonnant voire confus, avec une multiplication des acteurs, des initiatives et des propositions, ce qui risque de conduire à des incohérences ou des ambiguïtés. Quelle que soit la tournure que prendront les négociations, le risque systémique restera nécessairement élevé en raison des intérêts stratégiques divergents des États parce que le cyberespace ça sert, d'abord, à faire la guerre, et que sa régulation relève de la défense par les États de leurs intérêts.

A.    Cyberdéfense, entre coopération européenne et souveraineté nationale : le cas français

1.     Enjeux

L’affaire Snowden, et plus récemment l’affaire Cambridge Analytica, en révélant à la fois les abus des services de renseignement étatsuniens dans la captation des données personnelles[16], et ceux d'entreprises exploitant les données personnelles sur les plateformes numériques américaines à des fins d'influence politique dans les processus électoraux, ont joué un rôle dans la prise de conscience par la France et les États européens des inconvénients de leur dépendance de vis-à-vis des entreprises américaines du numérique, par exemple en les empêchant de combattre efficacement la propagande des groupes terroristes ou certaines manipulations de l'information. Cette prise de conscience, renforcée par l’augmentation des attaques informatiques et informationnelles attribuées à l'État russe, ou encore la montée en puissance des entreprises chinoises en matière d'intelligence artificielle et de technologies 5G, a suscité des discours en faveur d'une « souveraineté numérique » française et/ou européenne.

Mais l’emploi du terme « souveraineté numérique » pour aborder des enjeux stratégiques prête à confusion. Il est en effet basé sur la représentation d'une perte de souveraineté de l'État et d'une volonté de réappropriation du cyberespace, comme un territoire à reconquérir[17]. Or ce postulat est un non-sens du point de vue du droit international, puisque tout État indépendant est souverain ; seulement, la révolution numérique vient bouleverser les modalités de cette souveraineté en permettant des activités transfrontalières et en offrant des moyens d'action à distance. Aussi, les spécialistes mobilisent-ils davantage le concept d'autonomie stratégique, perçue comme le moyen pour la France d'exercer sa souveraineté et visant à détenir une capacité autonome d'appréciation, de décision et d'action pour protéger les informations stratégiques de l'État français[18].

Depuis 2009, la France dispose ainsi de l’Agence nationale de la sécurité des systèmes d’information (ANSSI -Vocabulaire p.428) et d'une force armée de cyberdéfense de 3 400 cyber-combattants (COMCYBER) -doc.1 p.432. L’organisation de la cyberdéfense française + doc.2 p.431. La stratégie française de cyberdéfense + doc.3 p.431. Des cyber-combattants lors d’un exercice de cyberdéfense européen.

Le recours au terme d'autonomie stratégique présente en outre l'avantage de ne pas exclure les coopérations indispensables entre États et s'applique ainsi aisément à l'échelle européenne. En effet, l’autonomie stratégique numérique ne peut se concevoir que dans l'interdépendance car l'interconnexion mondiale des réseaux numériques exclue par définition un raisonnement à la seule échelle nationale. Elle comprend donc un raisonnement à l’échelle nationale pour les technologies jugées les plus critiques, mais impose un raisonnement à l'échelle européenne pour développer et faire émerger des technologies avec des partenaires de confiance. La dimension européenne de cette recherche d'autonomie stratégique numérique est pour la France une priorité stratégique.

De fait le concept d'autonomie stratégique a fait son entrée dans la politique européenne, y compris dans les documents d'orientation stratégique. Mais l'attitude à adopter vis-à-vis des États-Unis est au cœur des discussions sur l'autonomie stratégique européenne et constitue l'un des points de crispation quant aux risques qu'elle pourrait faire peser sur les relations transatlantiques, particulièrement en matière de défense[19].

2.     Perspectives

Le degré de crédibilité du discours national ou européen sur l'autonomie stratégique numérique s'apprécie au regard de la confrontation avec le réel, c'est-à-dire avec l'état du tissu scientifique, socioéconomique et industriel mobilisable. Or, en l’état actuel des choses, ni la France ni l'Europe ne disposent des fondements socioéconomiques et industriels de leur souveraineté numérique. En effet, l’avenir de l’espace numérique souverain, notamment militaire, se joue principalement autour de trois technologies critiques :

  •  L’intelligence artificielle (IA), qui révolutionne les processus de prise de décision.
  • L’informatique quantique, qui remet en cause les systèmes de chiffrement en vigueur dans les forces armées ;
  • La 5G, qui augmente la vitesse et le volume des flux d’information, et le potentiel de connexion.

Sur cet ensemble de technologies critiques, un duopole sino-américain est constitué, la Chine contestant le leadership des États-Unis. Quoi qu'il en soit de l’évolution du rapport de force, ce duopole paraît solidement établi[20]. L'émergence d'un nouvel acteur dans les technologies critiques de la souveraineté numérique semble donc improbable.

Cela ne signifie pas pour autant que la France et l'Europe n'ont plus d’autre choix que de s'aligner sur le moins mauvais des deux membres du duopole et de renoncer à toute autonomie décisionnelle. Il est possible de développer certaines formes d'autonomie stratégique, en matière militaire notamment, fondées sur le développement d'écosystèmes numériques locaux engendrant innovation coopérative et compétitivité -doc.4 p.433. Le pôle d’excellence cyber en Bretagne.

La domination du duopole sino-américain est probablement irréversible dans les technologies critiques aujourd'hui nécessaires pour construire une souveraineté numérique au sens le plus fort du terme. En revanche, les compétences propres des acteurs européens dans certains domaines ainsi que l'émergence de nouvelles technologies critiques (l’informatique quantique ou l'intelligence artificielle par exemple) devraient conduire à une politique sélective de soutien à des acteurs susceptibles de tenir leur rang dans la compétition avec leurs homologues américains ou chinois. Ainsi, l'Europe pourrait se doter d’une réelle autonomie stratégique sur la base de ces compétences limitées mais essentielles. Autant la conquête générale de la chaîne du numérique paraît exclue du fait du retard pris et de l'énormité du ticket d’entrée qu'il serait nécessaire d'acquitter, autant une politique ciblée concentrant les ressources limitées dont dispose l'Europe pourrait avoir une efficacité politique, économique et militaire suffisante.

La mise en œuvre du concept d'autonomie stratégique européenne en matière de numérique s’avère possible mais complexe, tant dans sa dimension politique que dans sa dimension industrielle. Et l'usage politique qui est fait du terme de « souveraineté numérique » dans le débat public n'est pas de nature à faciliter l'émergence d'une compréhension commune entre les États membres de l’Union européenne. Pourtant, cette compréhension commune s'avère particulièrement cruciale au regard des enjeux du numérique, qu’ils soient technologiques, démocratiques, éthiques, économiques ou encore de sécurité.

Conclusion

Révisions p.436-437

Sujets bac p.438-439

Conclusion du thème

Révisions p.440-441

Sujet bac p.442-443 (grand oral)


[1] « Si le terme « connaissance » est utilisé de façon générique, il est souvent employé pour désigner non pas tous les domaines du savoir, mais plus particulièrement la connaissance scientifique et technique qui conditionne  le  progrès  technique, lui-même déterminant pour l’innovation et la performance des secteurs d’activité intensifs en connaissance » in Martine Azuelos, L’économie de la connaissance aux États-Unis : concepts, institutions, territoires, LISA, volume WIV-n°1 2016 https://doi.org/10.4000/lisa.8838

[2] Cf Marshall McLuhan et Derrick Kerckhove in J.-P. Alix, « Société de la connaissance, réforme ou révolution », Natures Sciences Sociétés19, 277-281 (2011) https://www.cairn.info/revue-natures-sciences-societes-2011-3-page-277.htm

[3] …Cf. son article As We May Think dans la revue Atlantic Monthly. Par ailleurs, Vannevar Bush est connu pour avoir conceptualisé le premier la navigation par lien hypertexte.

[4] Science qui utilise les résultats de la théorie du signal et de l'information pour développer une méthode d'analyse et de synthèse des systèmes complexes, de leurs relations fonctionnelles et des mécanismes de contrôle, en biologie, économie, informatique, etc.

[5] « Cybernetics, or Control and Communication in the Animal and the Machine » (1948).

[6] Il naît à Vienne, fait des études de droit à Francfort tout en travaillant dans une société textile à Hambourg. En 1933, il émigre en Angleterre puis aux États-Unis. Il travaille pour General Motors pour créer de nouvelles méthodes d’organisation (1946), devient consultant et professeur de management à la New York University (1950-1971) puis en Californie (Université de Claremont). Ce n’est pas un penseur en science sociale (son apport est surtout dans la théorie du management), mais c’est à lui que l’on attribue la formule de « société de la connaissance ».

[7] …visant à faire de l’UE en 2010 « l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale »

[8] Philippe Breton, « La société de la connaissance : généalogie d’une double réduction », De Boedck Supérieur, 2005/1n°15 https://www.cairn.info/revue-education-et-societes-2005-1-page-45.htm

[9] Stéphane Van Damme Sciences en société, Documentation photographique, janvier-février 2017 n°8115

[10] Geneviève Dumas, « Flux immatériels et diffusion des idées scientifiques au Moyen Âge », Siècles [En ligne], 46 | 2019. URL : http://journals.openedition.org/siecles/4333

[11] Cf. devise : « Pour la Patrie, les Sciences et la Gloire »

[12] Cf. l'accroissement du nombre d'étudiants étrangers en France : en 1898, sur 12 000 étudiants, 20% viennent de Russie, 19% de Roumanie, 13% de Turquie.

[13] En France, le Journal des Sçavans a été créé en 1665 par l’Académie de Sciences ; en Angleterre, il s’agit de la revue Philosophical Transactions éditée la même année par la Royal Society.

[14] Le Science Citation Index recense 6126 journaux, l’Elseviers’s Scopus recense 15000 revues à comité de lecteur et la base de données Medline offre 19 millions de référence.

[15] Cf. https://atlasocio.com/classements/education/publications/classement-etats-par-nombre-publications-scientifiques-monde.php

[16] Dans Frankenstein, Mary Shelley (1808) évoque les travaux de Darwin et les expériences anatomiques réalisées à Paris.

[17] François Arago (1786-1853) est un astronome, physicien et homme d'État français sous la IIème République.

[18] Les plus célèbres sont le Palais de la découverte et la Cité des sciences et de l'industrie de La Villette.

[19] …37 épisodes, qui s’inscrivent dans l’immense filmographie de l’auteur, et surtout dans la foulée de l’immense succès du film documentaire Le monde du Silence, tourné en 1956 et récompensé par une palme d’or et un Oscar.

[20] Cf. https://www.lemonde.fr/pixels/article/2021/01/14/wikipedia-fete-les-20-ans-d-une-belle-et-exigeante-utopie_6066271_4408996.html

[21] Le terme, non dénué d’ambigüité, est néanmoins contesté.

[22] Cf. André Vitalis, « La « révolution numérique » : une révolution technicienne entre liberté et contrôle », Communiquer [En ligne], 13 | 2015. URL : http://journals.openedition.org/communiquer/1494

[23] Cf. Frédéric Joignot, « Les 30 ans du Web : de l’utopie à un capitalisme de surveillance », lemonde.fr, 14 février 2019

[24] Juan Luis Vives (1492-1540), est un théologien, un philosophe et un pédagogue espagnol.

[25] Philippe Melanchthon (1497-1560) : un humaniste, philosophe et réformateur protestant allemand.

[26] Le concile a pour but de lutter contre les idées protestantes en matière de doctrine et de réformer le clergé catholique qui, jusque-là, était l'objet de critiques violentes. Le concile de Trente renforce l'unité des catholiques autour du pape dont la suprématie en matière de religion est affirmée.

[27]Elle est béatifiée en 1900 par le pape Léon XIII et canonisée le 15 mai 1949.

[28] Canonisée en 1767.

[29] François de Salignac de La Mothe-Fénelon dit Fénelon, né le 6 août 1651 au château de Fénelon à Sainte-Mondane et mort le 7 janvier 1715 à Cambrai, est un homme d'Église, théologien, pédagogue et écrivain français.

[30] Rassurez-vous, ils ont aussi 4 garçons...

[31] Maison fondée en 1686 par madame de Maintenon pour l'éducation des jeunes filles nobles et sans fortune, supprimée en 1790. Le site a accueilli l'École militaire de Saint-Cyr en 1808, puis le Lycée militaire de Saint-Cyr en 1964

[32] « La femme est faite pour céder à l’homme et pour supporter même son injustice. » ; « Toute l’éducation des femmes doit être relative aux hommes. Leur plaire, leur être utiles, se faire aimer et honorer d’eux, les élever jeunes, les soigner grands, les conseiller, les consoler, leur rendre la vie agréable et douce : voilà les devoirs des femmes dans tous les temps, et ce qu’on doit leur apprendre dès l’enfance. », Jean-Jacques ROUSSEAU (1712-1778), L’Émile ou De l’éducation (1762)

[33] Institution aujourd’hui bicentenaire, les maisons d’éducation de la Légion d’honneur ont ainsi traversé tous les régimes politiques sous deux empereurs, trois rois et quatre républiques.

[34] …ou de « bonnes chrétiennes » quand leur éducation est prise en charge par l’Église.

[35] À approfondir avec cette émission de France-Culture

[36]BARJOT D., CHALINE J.P., ENCREVÉ A., La France au XIXème siècle 1814-1914, PUF.

[37] Article d’Anaïs BROSSEAU du magazine « La Croix », L’alphabétisation des femmes, un facteur de développement, 2014.

[38]Alphabétisation fonctionnelle : capacité d'une personne à s'engager dans toutes les activités dans lesquelles l'alphabétisation est nécessaire pour le fonctionnement efficace de son groupe et de sa communauté et aussi pour lui permettre de continuer à utiliser la lecture, l'écriture et le calcul pour ses propres besoins (UNESCO)

[39] France-Culture, « 750 millions d’analphabètes dans le monde mais des progrès », 8/09/2018.

[40] Concept reconnaissant une pluralité de pratique d’alphabétisation en fonction des situations économiques, sociales, culturelles, personnelles et collectives et tenant compte des progrès des technologies de l’information et de la communication.

[41] Aujourd’hui, sur le continent africain, 1 fille sur 10 ne va pas à l’école quand elle a ses règles, parce que les établissements scolaires ne proposent pas d’endroit où elles puissent se changer dans le respect de leur intimité.

[42]Site de l’ONG Plan International.

[43] C'est-à-dire l'émission spontanée (sans apport d'énergie extérieure) de radiations par une substance inerte

[44] …en hommage au pays d’origine de Marie Curie, née Maria Skłodowska en 1867 en Pologne

[45] Pierre avait insisté auprès de l’Académie suédoise pour que Marie soit associée au prix « Les cahiers de science de vie » n°186, p.53

[46] Marie Curie repose depuis 1995 au Panthéon, aux côtés de Pierre. Cf. le très beau discours prononcé à cette occasion par le président de la République, François Mitterrand.

[47] Cf. introduction.

[48] Les congrès Solvay sont toujours organisés, depuis la fin de la Seconde Guerre mondiale, selon un cycle de trois ans : conseil de physique la première année, aucune conférence la deuxième et conseil de chimie la troisième.

[49] Dès 1914, elle s’est engagée dans une première campagne sur la base d’une voiture équipée du matériel de recherche en radiologie, empruntée à Claudius Regaud, co-directeur de l’Institut du radium et un des pionniers de la radiothérapie. L’objectif était de limiter les déplacements des blessés, avant de radiographier leurs blessures. Cette discipline, inédite à l’époque, permettait de situer avec précision l’emplacement des éclats et faciliter ainsi l’opération chirurgicale. Celle-ci, selon la gravité, pouvait être différée et donc pratiquée en hôpital, ou immédiate, réalisée sur place.

[50] Au total, ce sont des centaines de postes de radiologie créés au sein des hôpitaux militaires. Les archives citent le nombre de plus d’un million de blessés ayant été secourus grâce à ces installations, dont un millier par Marie Curie en personne.

[51] Les physiciens nucléaires Leó Szilárd, Edward Teller et Eugene Wigner (trois réfugiés juifs hongrois) sont convaincus que l'énergie libérée par la fission nucléaire peut être utilisée dans des bombes par l'Allemagne nazie. Ils persuadent Albert Einstein d'alerter le président des États-Unis, par une lettre du 2 août 1939 dont Szilárd fit le brouillon. La lettre sera remise par l'économiste Alexander Sachs au président le 10 octobre. Après cela, Franklin Roosevelt autorise la création du Advisory Committee on Uranium, réuni pour la première fois le 21 octobre sous la direction de Vannevar Bush.

[52] Brillante physicienne autrichienne, elle fuit l’Allemagne en 1938 avec l’aide de Hahn (qui y reste, tout en restant opposé au nazisme). Quand Hahn obtient le Prix Nobel de Chimie en 1944 pour leurs travaux, elle en est écartée. Cela restera pour elle une grande blessure.

[53] …auquel Lise Meitner refuse de participer, par hostilité au principe d’une bombe atomique.

[54] Impulsé par le général de Gaulle, avec la création du CEA mais il faut attendre le 4 novembre 1954 et le général Jean Crépin et le professeur Yves Rocard pour que démarre le programme militaire français. 13 février 1960, 1er essai à Reggane (Sahara) « Gerboise bleue ».

[55] « Devant les perspectives terrifiantes qui s'ouvrent à l'humanité, nous apercevons encore mieux que la paix est le seul combat qui vaille d'être mené. Ce n'est plus une prière, mais un ordre qui doit monter des peuples vers les gouvernements, l'ordre de choisir définitivement entre l'enfer et la raison ».

[56]Frédéric Joliot Curie, à l’origine de l’appel, est exclu de la présidence du CEA.

[57] En 1963, 13 ans après la pétition, Yves Montand était d'ailleurs interviewé dans l'émission "Sept jours du monde". Il évoquait notamment sa signature et les conséquences que cela a eu sur sa carrière pour lui et sa femme : "Je pense que ça serait crétin de ma part de ne pas m'intéresser aux problèmes qui se passent autour de moi. […] J’ai eu pas mal d’obstacles pendant une dizaine d’années. Pas seulement en Amérique mais aussi dans mon pays que j’aime bien. Le fait d’avoir des points de vue sur des choses qui ne me paraissaient pas tout à fait catholiques, ce n’était pas très bien vu. Ma femme et moi avons été boycottés pendant de nombreuses années. En Amérique, pendant l’époque du maccarthysme, j’ai eu l’interdiction de me présenter devant le public américain parce que j’avais signé l’appel de Stockholm par exemple."

[58] Hostile à la fabrication de la bombe à hydrogène, il a été par la suite tenu à l’écart des secrets nucléaires en raison de ses anciennes sympathies pour des membres du parti communiste. Il n’a été réhabilité que neuf ans plus tard, en 1963.

[59] G. Arboit (2013), Au cœur des services secrets : Idées reçues sur le renseignement (pp. 13-15). Paris, Le Cavalier Bleu.

[60] Gildas LE VOGUER, « Le renseignement soviétique aux Etats-Unis : vérité des archives et vérité historique », (pp 53-66) in Revue française d’études américaines n °3, Belin, publié sur Cairn.info, 2012

[61] Amiral Pierre Lacoste, « Une nouvelle stratégie pour le renseignement », Politique étrangère, n°1 - 1997 - pp. 83-97..

[62] « And ye shall know the truth and the truth shall set you free » ( « Et vous connaitrez la vérité et la vérité vous libérera »). La devise de la CIA, récitée par ses agents lors de leur prise de fonction, cite le Nouveau Testament (Jean, 8:32).

[63] Son existence n’a été reconnue qu’en 1957.

[64] Komitet gossoudarstvennoï bezopasnosti (en russe : Комитет государственной безопасности)

[65] Avec la dislocation de l’URSS, le KGB est divisé en plusieurs branches : celle le renseignement extérieur porte le nom de SVR (Service de renseignement extérieur).

[66] D’ailleurs, Youri Andropov était de 1967 à 1982 à la tête du KGB avant d’être à la tête du pays (1982-1983)

[67] « La question que chacun se posait en 1989 et en 1991, à savoir pourquoi le régime s'est-il effondré si soudainement, n'est pas inintéressante. Mais la véritable interrogation doit être : comment diable a-t-il pu tenir soixante-quinze ans ? L'existence du KGB et de son étroit système de contrôle social fournit au moins une partie de la réponse. » C. Andrew dans une interview pour Le Monde, en 1999.

[68] « The Mitrokhin Archive », de Christopher Andrew et Vassili Mitrokhine, Londres 1999

[69] À voir : l’épisode des Brûlures de l’histoire intitulé « Les espions de l’atome ». À écouter : un podcast d’une émission de France-Inter consacrée à l’affaire Rosenberg. À lire : article Wikipédia.

[70] Il débouche sur les Accords d’Helsinki en 1975.

[71] Lacoste. Une nouvelle stratégie pour le renseignement ? In : Politique étrangère, n°1 - 1997 - 62ᵉannée. pp. 83-97 ; doi : https://doi.org/10.3406/polit.1997.4614

[72] À partir de 1962, les Soviétiques installent un gigantesque centre d'écoutes à Lourdes, près de La Havane.

[73] Gildas le Voguer, La guerre secrète du KGB, l’Histoire n° 223, juillet-août 1998

[74] Vanessa Caru, 350 000 ingénieurs par an, L’Histoire n° 437-438, Juillet-août 2017

[75] À l’exception des ingénieurs militaires, la Grande-Bretagne n’a pas de corps d’ingénieurs publics comme en France. L’entrée dans la profession d’ingénieur n’est pas régulée par l’obtention d’un diplôme, mais s’effectue par apprentissage (pupillage) dans lequel l’autorité publique ne joue aucun rôle.

[76] Les autorités britanniques le justifient en prétendant que les colonisés seraient incapables d’exercer toute autorité, et que si les Indiens ont une réelle aptitude aux études théoriques (notamment aux mathématiques), ils n’ont pas le goût pour les travaux pratiques censés qualifier le bon ingénieur.

[77] …qui s’accentue avec la Première Guerre mondiale, où l’ingénierie et l’industrie indienne (aciéries Tata) contribuent à l’effort de guerre britannique.

[78] Suhas Patil est un entrepreneur, universitaire et capital-risqueur indo-américain. Il a fondé Cirrus Logic, une société de semi-conducteurs sans usine.

[79] Vivek Yeshwant Ranadivé est un chef d'entreprise, ingénieur, auteur, conférencier et philanthrope indo-américain. Ranadivé est le fondateur et ancien PDG de TIBCO Software et de Teknekron Software System.

[80] NB. Ces nouveaux établissements sont en majorité des institutions privées qui cherchent à profiter de la manne de ce marché éducatif en pleine expansion, sans toujours offrir les garanties d’une formation de qualité.

[81] Le gouvernement crée en 1973 la catégorie fiscale des « NRI » (Non-Resident Indians, 11 millions de personnes en 2015) pour éviter une double imposition aux émigrés indien.

[82] Cf. Varrel Aurélie, "Back to Bangalore" : étude géographique de la migration de retour des indiens très qualifiés à Bangalore

[83] Cf. Lionnel Trouillet (« Les populations d'origine indienne hors de l'Inde : fabrique et enjeux d'une diaspora », 2015)

[84] Cf. Michel Bruneau, « Phénomène diasporique, transnationalisme, lieux et territoires » -http://ceriscope.sciences-po.fr/content/part4/ph%C3%A9nom%C3%A8ne-diasporique-transnationalisme-lieux-et-territoires?(ge=show)

[85] Aurélie Varrel, Hortense Rouanet, De Bangalore à Whitefield : trajectoire et paysages d’une région urbaine en Inde, 2015.

[86] Electronics City est un parc d'activité dédié aux technologies de l'information située au sud-est de Bangalore en Inde. Il compte près de 100 000 emplois liés à ce secteur d'activité sur 136 hectares.

[87] Avec l’émergence de l’informatique grand public et l’usage croissant d’Internet et des TIC depuis le milieu des années 1990, le terme « virtuel » est de plus en plus employé pour désigner « ce qui se passe en ligne ». Il peut s’agir d’une conversation sur un réseau social, de la sauvegarde automatique de données dans un « cloud », d’une partie de jeu vidéo ou, aujourd’hui, des applications de « réalité virtuelle » qui permettent de s’immerger presque physiquement dans un environnement numérique.

Cet usage du terme virtuel dérive de sa signification philosophique initiale : est virtuel ce qui n’est que potentiel, par opposition à ce qui est actuel, effectif. Par dérive de sens, l’usage oppose aujourd’hui le monde réel, physique, dans lequel évolue le corps, à un pseudo-monde auquel on accéderait par le biais d’écrans, de claviers, de manettes, de micros, etc.

[88] De l’extraction de matières premières à leur transformation en produits finis et à la satisfaction de leurs besoins électriques, la géographie économique rappelle combien sont matérielles les fondations de nos mondes virtuels. Si le secteur informatique était un pays, il serait le troisième consommateur d’électricité au monde, après la Chine et les États-Unis, et devant la Russie.

[89] Sa mise en œuvre dans le cadre de l'épidémie du coronavirus illustre à la fois les bénéfices potentiels qu’elle offre mais aussi les risques éthiques et d'atteinte aux droits humains qu'elle entraine, ces initiatives confrontent les représentations occidentales des libertés individuelles à des représentations originales sur la nature et l'intérêt collectif.

[90] Thomas Rid, dans son ouvrage Cyber War Will Not Take Place (2013), estime que ces opérations ne relèvent pas de la guerre, mais ne sont que des versions à peine plus sophistiquées d’activités anciennes : l’espionnage, le sabotage et la subversion.

[91] Au printemps 2007, la première cyberattaque de l’histoire paralyse l’ensemble du réseau informatique de l’Estonie.

[92] Cf. l’informatique embarquée dans les appareils médicaux, les véhicules et même les armements militaires…

[93] C’est ainsi une société à but non lucratif, l’Icann, qui est chargée du nommage et de l’adressage (.com, .fr, etc.) d’Internet.

[94] C’est par exemple le cas des hackeurs et des organisations « hacktivistes » -Vocabulaire p.429 (Anonymous, WikiLeaks) poursuivant des objectifs variés (profit, révélations d’information…).

[95] « Les attaques WannaCry et NotPetya sont emblématiques du risque systémique que fait peser la prolifération des cyberarmes sur nos sociétés. Ces attaques se sont propagées à travers le monde à une vitesse fulgurante et de manière incontrôlée, touchant des hôpitaux et occasionnant des centaines de millions d'euros de dégâts dans des entreprises qui n'étaient même pas la cible initiale. En mai 2017, le rançongiciel WannaCry a en effet infecté plus de 200 000 ordinateurs dans 150 pays jusqu’à la découverte d'une astuce (kill switch) pour l'arrêter. Les investigations ont conduit notamment les États-Unis, le Royaume-Uni et l'Australie à rejeter la piste criminelle et officiellement attribuer l'attaque à la Corée du Nord. L'attaque NotPetya, ressemblant initialement à un rançongiciel, s 'est avérée conçue pour complètement saboter les systèmes. La Maison-Blanche chiffre à 10 milliards de dollars les dégâts occasionnés par cette seule attaque, la plus dévastatrice à ce jour, attribuée à la Russie par le Royaume-Uni, suivi par les autres pays des Five Eyes » F. Douzet et A. Géry, « Le cyberespace, ça sert, d’abord, à faire la guerre », in Géopolitique de la datasphère, Hérodote 177-178, juin 2020

[96] Renommé depuis Commission centrale pour la cybersécurité et l’informatisation.

[97] Celle-ci se traduit par l'intensification et la systématisation des réponses aux attaques numériques subies par les États-Unis, par l'exposition et la punition de leurs auteurs ou de leurs commanditaires supposés.

[98] Taillat, S. (2020). Cyber opérations offensives et réaffirmation de l’hégémonie américaine : une analyse critique de la doctrine de Persistent Engagement. Hérodote, 177-178(2-3), 313-328. https://doi.org/10.3917/her.177.0313

[99] En 2010, 2013 et 2015.

[100] La reconnaissance de l'application du droit international dans le cyberespace a donc pour conséquence de délimiter les droits et obligations des États en matière de cyber opérations puisque les États ne pourront pas mener d'opérations contraires à leurs engagements internationaux. À titre d'exemple, ils ne pourront pas mener des cyber opérations pour intervenir dans les affaires intérieures d'un autre État, sauf à violer le principe de non-intervention.

[101] Cf. https://cyberstability.org/norms/

[102] L'Appel de Paris, qui n'est toutefois pas soutenu par les États-Unis, la Chine et la Russie, témoigne d'une volonté affichée de s'engager ensemble pour assurer la sécurité et la stabilité du cyberespace.

[103] L’adoption du Règlement général sur la protection des données (RGPD) en 2016, qui vise à définir des cadres légaux protecteurs de la vie privée notamment dans le cadre de transferts des données vers des entreprises américaines, constitue une réponse partielle à ce problème.

[104] En 2015, la stratégie de l’Agence française de cybersécurité (ANSSI) notait par exemple que « les évolutions en cours tant au niveau des technologies que dans les modèles économiques, avec par exemple la multiplication des objets connectés ou la concentration des plateformes de service en ligne entre les mains de quelques acteurs seulement, sont de nature à amplifier cette perte de maîtrise du cyberespace national »

[105] La stratégie prône alors le recours à des procédés cryptographiques au nom de l'autonomie stratégique.

[106] L'Estonie et la Lituanie considèrent même qu'une autonomie stratégique européenne pourrait être problématique, voire dangereuse, pour l'Otan.

[107] …et mutuellement dépendant : de nombreux liens ont été tissés entre les acteurs des deux camps

[108] Dans le cas particulier de l'écosystème de la cyberdéfense, un possible conflit de gouvernance pourrait naître du fait de la structure même du secteur concerné. L'industrie de la défense est, en effet, traditionnellement organisée autour d'un lien privilégié entre les autorités et un petit nombre des entreprises de premier rang qui sont susceptibles de piloter des programmes d'armement majeurs. Cette relation privilégiée confère aux grandes firmes du secteur un pouvoir d'organisation vis-à-vis des entreprises de second rang, des sous-traitants ou des petites entreprises porteuses d'innovation fondamentales dans le secteur du numérique. Or le succès de l'écosystème de la cyberdéfense repose sur la mise en place d’une gouvernance démocratique sans laquelle la confiance indispensable à la coopération d’acteurs très hétérogènes ne peut pas s'établir.

[1] Avec l’émergence de l’informatique grand public et l’usage croissant d’Internet et des TIC depuis le milieu des années 1990, le terme « virtuel » est de plus en plus employé pour désigner « ce qui se passe en ligne ». Il peut s’agir d’une conversation sur un réseau social, de la sauvegarde automatique de données dans un « cloud », d’une partie de jeu vidéo ou, aujourd’hui, des applications de « réalité virtuelle » qui permettent de s’immerger presque physiquement dans un environnement numérique.

Cet usage du terme virtuel dérive de sa signification philosophique initiale : est virtuel ce qui n’est que potentiel, par opposition à ce qui est actuel, effectif. Par dérive de sens, l’usage oppose aujourd’hui le monde réel, physique, dans lequel évolue le corps, à un pseudo-monde auquel on accéderait par le biais d’écrans, de claviers, de manettes, de micros, etc.

[2] De l’extraction de matières premières à leur transformation en produits finis et à la satisfaction de leurs besoins électriques, la géographie économique rappelle combien sont matérielles les fondations de nos mondes virtuels. Si le secteur informatique était un pays, il serait le troisième consommateur d’électricité au monde, après la Chine et les États-Unis, et devant la Russie.

[3] Sa mise en œuvre dans le cadre de l'épidémie du coronavirus illustre à la fois les bénéfices potentiels qu’elle offre mais aussi les risques éthiques et d'atteinte aux droits humains qu'elle entraine, ces initiatives confrontent les représentations occidentales des libertés individuelles à des représentations originales sur la nature et l'intérêt collectif.

[4] Thomas Rid, dans son ouvrage Cyber War Will Not Take Place (2013), estime que ces opérations ne relèvent pas de la guerre, mais ne sont que des versions à peine plus sophistiquées d’activités anciennes : l’espionnage, le sabotage et la subversion.

[5] Au printemps 2007, la première cyberattaque de l’histoire paralyse l’ensemble du réseau informatique de l’Estonie.

[6] C’est ainsi une société à but non lucratif, l’Icann, qui est chargée du nommage et de l’adressage (.com, .fr, etc.) d’Internet.

[7] C’est par exemple le cas des hackeurs et des organisations « hacktivistes » -Vocabulaire p.429 (Anonymous, WikiLeaks) poursuivant des objectifs variés (profit, révélations d’information…).

[8] « Les attaques WannaCry et NotPetya sont emblématiques du risque systémique que fait peser la prolifération des cyberarmes sur nos sociétés. Ces attaques se sont propagées à travers le monde à une vitesse fulgurante et de manière incontrôlée, touchant des hôpitaux et occasionnant des centaines de millions d'euros de dégâts dans des entreprises qui n'étaient même pas la cible initiale. En mai 2017, le rançongiciel WannaCry a en effet infecté plus de 200 000 ordinateurs dans 150 pays jusqu’à la découverte d'une astuce (kill switch) pour l'arrêter. Les investigations ont conduit notamment les États-Unis, le Royaume-Uni et l'Australie à rejeter la piste criminelle et officiellement attribuer l'attaque à la Corée du Nord. L'attaque NotPetya, ressemblant initialement à un rançongiciel, s 'est avérée conçue pour complètement saboter les systèmes. La Maison-Blanche chiffre à 10 milliards de dollars les dégâts occasionnés par cette seule attaque, la plus dévastatrice à ce jour, attribuée à la Russie par le Royaume-Uni, suivi par les autres pays des Five Eyes » F. Douzet et A. Géry, « Le cyberespace, ça sert, d’abord, à faire la guerre », in Géopolitique de la datasphère, Hérodote 177-178, juin 2020

[9] Renommé depuis Commission centrale pour la cybersécurité et l’informatisation.

[10] Celle-ci se traduit par l'intensification et la systématisation des réponses aux attaques numériques subies par les États-Unis, par l'exposition et la punition de leurs auteurs ou de leurs commanditaires supposés.

[11] Taillat, S. (2020). Cyber opérations offensives et réaffirmation de l’hégémonie américaine : une analyse critique de la doctrine de Persistent Engagement. Hérodote, 177-178(2-3), 313-328. https://doi.org/10.3917/her.177.0313

[12] En 2010, 2013 et 2015.

[13] La reconnaissance de l'application du droit international dans le cyberespace a donc pour conséquence de délimiter les droits et obligations des États en matière de cyber opérations puisque les États ne pourront par exemple pas mener des cyber opérations pour intervenir dans les affaires intérieures d'un autre État, sauf à violer le principe de non-intervention.

[14] Cf. https://cyberstability.org/norms/

[15] L'Appel de Paris, qui n'est toutefois pas soutenu par les États-Unis, la Chine et la Russie, témoigne d'une volonté affichée de s'engager ensemble pour assurer la sécurité et la stabilité du cyberespace.

[16] L’adoption du Règlement général sur la protection des données (RGPD) en 2016, qui définit des cadres légaux protecteurs de la vie privée notamment dans le cadre de transferts des données vers des FTN américaines, est une réponse partielle.

[17] Pour l’Agence française de cybersécurité (ANSSI), « les évolutions en cours […], avec par exemple la multiplication des objets connectés ou la concentration des plateformes de service en ligne entre les mains de quelques acteurs seulement, sont de nature à amplifier cette perte de maîtrise du cyberespace national »

[18] La stratégie prône alors le recours à des procédés cryptographiques au nom de l'autonomie stratégique.

[19] L'Estonie et la Lituanie considèrent même qu'une autonomie stratégique européenne pourrait être problématique, voire dangereuse, pour l'Otan.

[20] …et mutuellement dépendant : de nombreux liens ont été tissés entre les acteurs des deux camps

Joomla templates by a4joomla