Revue Sources

[print-me]

Un siècle a suffi pour que s’édifie solidement un «village planétaire», véritable monde unifié où l’information circule à une vitesse incroyable. L’évolution technologique, longuement et discrètement façonnée, connut un tournant décisif au cours du XXe siècle. En l’espace d’une soixantaine d’années une véritable révolution numérique a déferlé sur le monde, nivelant au passage bon nombre de frontières. Quelle est la genèse de cet avènement et quelles perspectives laisse-t-il poindre? Quels enjeux suscite-t-il aujourd’hui et quel regard poser sur ce que Benoît XVI appelait «le continent numérique»? Autant de questions qui constituent la trame de ce propos.

Un phénomène extraordinaire?

Beaucoup en conviendront: il y a quelque chose de fascinant dans l’évolution technologique. Ses avancées continuent d’émerveiller. Les plus âgées se souviennent de la première voix émanant d’une radio ou de la première image retransmise par un poste de télévision. Aujourd’hui encore, on reste frappé d’étonnement quand il suffit de pointer un smartphone vers le ciel pour découvrir non seulement d’où est parti l’avion qui vole sur notre tête, mais également son itinéraire, l’heure prévue de son atterrissage et la vitesse avec laquelle il se dirige vers la ville où il déposera la centaine de personnes qu’il transporte.

Dans le même temps, nous pressentons bien quelques éléments négatifs dans cette course au développement technologique. Or la critique est rendue difficile pour deux raisons: d’une part, l’incessante innovation tend à rapidement submerger celui qui s’y intéresse; d’autre part, la fascination d’un grand nombre devant cette déferlante numérique étouffe les voix critiques.

Ce que nous appelons depuis une vingtaine d’années la «révolution numérique» est un fait massif et, semble-t-il, soudain. Ordinateurs, smartphones et autres tablettes ont envahi l’espace. On les retrouve non seulement dans nos foyers, mais aussi dans les transports publics, les écoles ou encore les restaurants. Cet avènement prend des allures quasi mystérieuses: comment en sommes-nous arrivés là si rapidement? Une telle évolution, si universelle et précipitée, semble défier la logique. Or, il n’en est rien. Avant d’en souligner les enjeux, il est intéressant de nous pencher sur la genèse de cette révolution afin de «démythifier» ce phénomène, mais aussi de favoriser sa compréhension.

Révolution numérique: une définition…

L’expression «révolution numérique désigne l’introduction progressive mais massive de la technologie numérique dans tous les domaines et les moments de la vie, du niveau social – économie, administration, espaces publics – au niveau individuel – équipements domestiques, activités de loisir jusqu’aux objets que l’on porte sur soi ou désormais en soi. Dans les faits, la révolution numérique est une évolution technique extrêmement rapide qui ne cesse de se développer depuis la seconde partie du XXe siècle. Comparable à la révolution industrielle, elle est directement associée à la naissance puis au développement de l’informatique. En effet, l’informatique, en s’appuyant sur des moyens de communication toujours plus efficaces, a contribué à l’émergence d’un réseau mondial tentaculaire qui ne cesse de se densifier par de nouveaux supports.

Comment en sommes-nous arrivés là si rapidement ? Une telle évolution si universelle et précipitée semble défier la logique.

«Informatique» reste un de ces mots-valise qui tend à échapper à une définition ciselée. En soi, le terme désigne la numérisation de tout type d’information: caractère d’imprimerie, son, forme, couleur et, de là, mot, texte, musique, photographie, film etc. Cette numérisation, qui s’exprime par une combinaison binaire – en l’occurrence de 0 et de 1 –, a pour but de stocker, d’éditer et de transmettre ces informations au moyen d’une pléthore d’appareils dont les plus connus sont les ordinateurs, les tablettes ou encore les smartphones. Ces appareils toujours plus performants permettent aujourd’hui à des milliards d’individus d’effectuer des tâches toujours plus complexes dans des délais toujours plus courts – au point que l’on s’accorde à dire qu’ils sont dotés d’«intelligence artificielle».

Fondamentalement donc, l’informatique repose sur des chiffres – historiquement d’ailleurs, les premiers ordinateurs n’étaient que de simples machines à calculer. D’une certaine manière, ce phénomène remonte à l’Antiquité, dès lors que les humains ont commencé à concevoir abaques et bouliers. Pour comprendre comment son développement a donné lieu à l’émergence d’un village planétaire, il est intéressant d’approcher non seulement son évolution technique, mais aussi de souligner quelques étapes-clé de l’édification d’un réseau de communications qui relie aujourd’hui la quasi totalité du monde habité. Loin de lister toutes les étapes qui relie l’ordinateur au boulier, brossons un tableau général des grandes évolutions de l’informatique et de la manière dont elle a investi notre monde.

et une genèse

Au XVIIe siècle déjà, deux événements sont à relever: l’invention de la «pascaline» et l’institutionnalisation de l’esprit des télécommunications. Influencé par l’hypothèse que la pensée peut se formuler de façon systématique par le biais d’un langage mathématique[1], Blaise Pascal met au point la première machine à calculer dont le fonctionnement permet de traiter un algorithme, principe fondamental s’il en est de l’informatique. Dans le même temps, Henri IV fait créer un corps de courriers chargé de transporter les correspondances administratives et privées. En 1612 un service de diligences transportant à la fois courriers, paquets et voyageurs est mis sur pied. La «poste» est née et, avec elle, une première ébauche d’un réseau qui ne cessera de se densifier.

Au XVIIIe siècle, dans le but d’automatiser le fonctionnement des métiers à tisser, le Français Jean-Baptiste Falcon invente le système de cartes perforées – morceau de papier rigide contenant des informations représentées par la présence ou l’absence de trou dans une position donnée. Dès lors, émerge ce qui constituera le cœur de l’informatique: le système binaire[2]. Le siècle des Lumières verra également naître l’Encyclopédie dont le but de promouvoir l’universalisme préfigure, d’une certaine manière, les notions de réseaux et de «village global». Un siècle plus tard, le réseau ferroviaire affinera encore cette préfiguration.

Le XIXe siècle verra naître la «machine analytique» du mathématicien anglais Charles Babbage. Véritable ancêtre de l’ordinateur, cet appareil, alimenté par l’énergie à vapeur, associe la machine à calculer de Pascal et le système de cartes perforées des métiers à tisser inventée par Falcon. Le siècle est également marqué par des inventions décisives dans le domaine des télécommunications. En 1844, Samuel Morse effectue la première démonstration publique du télégraphe, en envoyant un message sur une distance de 60 kilomètres entre Philadelphie et Washington. En 1858, le premier câble transatlantique est tiré entre les Etats-Unis et l’Europe. En 1876, l’Américain Graham Bell invente le téléphone. L’énergie électrique, quant à elle, est mieux maîtrisée. La fin du siècle, enfin, verra naître le tube cathodique qui servira aux premiers écrans de télévision puis aux ordinateurs – jusqu’à l’invention de l’écran plat.

Au début du XXe siècle, l’électricité investit l’industrie, l’éclairage public, le chemin de fer puis les foyers. En 1906, la voix est pour la première fois enregistrée sur les ondes radio et, en 1926, l’Écossais John Logie Baird effectue la première retransmission télévisée publique en direct.

Un tournant décisif

Les années trente et quarante marquent un tournant décisif. En 1930, l’Anglais Fredrik Bull crée la première entreprise développant et commercialisant des équipements mécanographiques en utilisant le principe des cartes perforées. L’Allemagne nazie s’intéresse de près à ce procédé. En 1941, à Berlin, l’ingénieur Konrad Zuse met au point le Z3, calculateur électromécanique, première machine programmable entièrement automatique.

C’est aux Etats-Unis, cependant, que s’amorce véritablement la révolution numérique. En l’espace de trois ans, de 1945 à 1948, trois prouesses technologiques marqueront le début d’une hégémonie américaine en terme de progrès technique. En effet, durant cette période, l’ingénieur Vannevar Bush imagine une machine à mémoriser mécanique qui stocke des microfilms. Dans les murs de l’Université de Pennsylvanie, l’ENIAC[3] devient en 1946 le tout premier ordinateur mondial. Enfin, en 1948 le transistor ouvre la voie à la miniaturisation des composants.

Et tout va très vite

Dès lors tout va aller très vite: en 1958 Jack Kilby invente le circuit intégré, un composant capable d’effectuer plusieurs fonctions complexes sur un minuscule support en silicium. La même année, la société téléphonique Bell met au point le modem, un périphérique permettant de transmettre des données binaires sur une ligne téléphonique – Internet pointe le bout de son nez. En 1961 Léonard Kleinrock développe une technologie permettant d’accélérer le transfert de ces données. Grâce à ses recherches, le projet Arpanet[4] voit le jour en 1969. Mis en place dans le contexte de la Guerre froide, ce réseau, qui deviendra l’internet, poursuit initialement un but militaire. L’objectif est de créer un réseau de télécommunication de structure décentralisée, capable de fonctionner malgré des coupures de lignes. En 1971, vingt-trois ordinateurs sont reliés sur Arpanet et le premier courriel est envoyé.

En 1977, l’Apple II est l’un des premiers ordinateurs personnels fabriqué à grande échelle. Conçu par Steve Wozniak – cofondateur, avec Steve Jobs, de la société Apple – il gagne la sphère privée. En 1981, le numérique envahit littéralement la vie quotidienne lorsque l’IBM-PC fait irruption dans les foyers. En 1983 le mot «Internet» fait son apparition. 562 ordinateurs sont connectés en août[5].

En 1990, Arpanet disparaît pour laisser la place au World Wide Web[6]. En 1992, on dénombre un million d’ordinateurs connectés pour 130 sites internet. Très rapidement cet archipel devient un labyrinthe: en quatre ans à peine le nombre de sites explose: on en recense rapidement plus d’un million. Dès lors, l’orientation devient un enjeu de taille dans cette masse énorme de données. Les premiers moteurs de recherche voient le jour[7].

Le premier smartphone date de 1992. Commercialisé deux ans plus tard, il est l’objet le plus symbolique de la révolution numérique: tenant dans la main et pouvant être utilisé presque en tout lieu, il concentre toute sorte de fonctions: téléphone, appareil photo, ordinateur, poste de radio etc.

En 2000, alors qu’Internet passe au haut-débit, 368 millions d’ordinateurs sont connectés dans le monde. Le réseau se démocratise progressivement: un grand nombre d’individus se l’approprient en ouvrant leur propre site. Les nouveaux moyens d’expression deviennent de plus en plus intuitifs et ne requièrent plus de compétences informatiques très spécifiques. Dès lors Internet n’est plus conçu comme une «autoroute de l’information», mais plutôt comme une «société de communication»[8]. Ce que l’on peut également nommer le «web participatif» verra l’émergence d’interactions toujours plus nombreuses. Dans ce contexte Jimmy Wales et Larry Sanger fondent Wikipedia, première encyclopédie collaborative. Les réseaux sociaux font leur apparition: en 2004, Mark Zuckerberg crée Facebook; deux ans plus tard, Jak Dorsey met en place Twitter. Internet s’immisce dès lors dans tous les domaines de la sphère privée. Les premières années de la décennie 2010 sont caractérisées par deux éléments: d’une part, par le fait que la traditionnelle distinction entre vie privée et vie publique ne cesse de s’estomper; d’autre part, par l’avènement des «big data», lié au fait que l’ensemble des informations circulant dans le monde est devenu si volumineux qu’il exige de nouveaux outils.

Et demain? A la pointe de la technologie

Si l’on en croit la presse spécialisée, la révolution numérique a encore de beaux jours devant elle. Parmi les derniers rejetons d’une technologie toujours fleurissante: les lunettes interactives Google. Selon certains spécialistes, elles pourraient rapidement s’imposer dans le grand public et atteindre plus de 20 millions d’unités vendues d’ici 2018[9]. Le principe de ces lunettes révolutionnaires: «pouvoir accéder immédiatement à des informations pratiques provenant d’Internet par l’intermédiaire d’un minuscule écran semi-transparent fixé sur une monture»[10]. Ses avantages? Un GPS pour s’orienter dans les rues ou au volant de sa voiture; la possibilité de lire ses nouveaux mails directement dans la lunette, découvrir des informations pratiques liées à des commerces, des lieux ou des monuments ou encore prendre des photos et des vidéos[11], le tout par commande vocale, bien évidemment.

Bien que la finalité annoncée d’un tel projet soit bonne, il ne peut se soustraire à d’urgentes questions éthiques.

Ultime développement médiatisé en janvier de cette année: l’ordinateur quantique. Un ordinateur capable d’être théoriquement des millions de fois plus puissant que nos «bonnes vieilles» machines qui fonctionnent – encore – sur un système binaire. Synthèse entre physique quantique et informatique traditionnelle, cette machine ne calculerait plus seulement avec des 0 ou des 1, mais aussi avec des variables qui peuvent être des 0 et des 1 au même moment[12].

Où va-t-on s’arrêter?

Qui ne s’est jamais posé la question de savoir où va s’arrêter cette technologie. Personnellement, je me souviens l’avoir naïvement posée à l’un de mes professeurs d’informatique un jour qu’il nous présentait ses hypothétiques perspectives. «Lorsque le paradis sur terre sera instauré» m’avait-il répondu d’un ton péremptoire! Tout un symbole: la technologie se substituerait ainsi aux grandes aspirations religieuses ou politiques! Qu’elle soit explicite ou non, une telle opinion – prégnante sous nos latitudes – associe ainsi développement technologique et progrès social. L’expression «révolution numérique» est d’ailleurs connotée en ce sens. Elle servirait le progrès de l’humanité à différents niveaux: social, économique, mais désormais également sur un plan anthropologique. En effet, les penseurs transhumanistes attendent de cette révolution qu’elle transforme radicalement l’espèce humaine[13].

En ce sens, le Human Brain Project (le «Projet du cerveau humain»), dirigé par une équipe de l’École polytechnique fédéral de Lausanne, en collaboration avec 90 universités et hautes-écoles réparties dans 22 pays différents, vise à simuler le fonctionnement du cerveau grâce à un superordinateur. Bien que la finalité annoncée d’un tel projet soit bonne – le développement de nouvelles thérapies sur les maladies neurologiques – il ne peut se soustraire à d’urgentes questions éthiques.

Point de vue critique

Opposés à cette conception «technophile», d’autres penseurs ne voient pas du tout d’un bon œil cette déferlante numérique. Les plus pessimistes considèrent même que cette prolifération informatique, signe d’une aliénation profonde, pourrait conduire l’humanité à sa perte. Critique sans pour autant tomber dans cet extrême, le théologien protestant Jacques Ellul percevait dans l’adaptation à la technique la marque d’un nouveau type de conformisme: «L’homme est aujourd’hui tellement fasciné par le kaléidoscope des techniques qui envahissent son univers qu’il ne sait et ne peut vouloir rien d’autre que de s’y adapter complètement»[14]. Pour lui, l’association des mots «révolution» et «technique» est une contorsion du langage car l’homme moderne serait non pas libéré, mais submergé par une technique qui le contraint et l’oblige toujours davantage.

De nouvelles inquiétudes

C’est désormais un lieu commun d’affirmer que les innovations technologiques ont révolutionné notre rapport au monde. Aujourd’hui, les échanges s’opèrent de façon toujours plus immatérielle, les barrières géographiques et culturelles s’estompent, les règles géopolitiques et économiques sont bouleversées. Indéniablement, ces mutations ont changé notre conception du monde. Tout est à portée de main – ou plutôt de clic – et, il faut l’avouer, il y a là quelque chose de fascinant. Or, l’essor du numérique génère également son lot d’inquiétudes. Des phénomènes tels que la vidéosurveillance, le fichage biométrique et la géolocalisation pourraient inaugurer de nouveaux types de totalitarismes. Les effets de la révolution numérique sur l’environnement sont, quant à eux, encore trop peu soulignés. En dématérialisant l’activité humaine, le numérique peut certes avoir un impact positif sur la crise environnementale. En revanche, il n’est pas «propre» pour autant:

«Si le monde numérique semble virtuel, les nuisances qu’il provoque, elles, sont bien réelles : la consommation des centres de données dépasse celle du trafic aérien, une recherche sur Google produit autant de CO2 que de porter à ébullition de l’eau avec une bouilloire, la fabrication des équipements nécessite l’utilisation d’une quantité considérable de matières premières, l’obsolescence des produits ne cesse d’accroître la mise au rebut de composants électroniques extrêmement polluants»[15].

La révolution numérique bouleverse également les cadres juridiques traditionnels. La mise en ligne d’œuvres artistiques – films, musique, photos, livres etc. – oblige à une révision de la notion de propriété intellectuelle. Internet, tout en inaugurant de nouveaux types de délits, comme le piratage, développe certains pans de la criminalité «classique»: incitation à la haine raciale, blanchiment d’argent, pédophilie etc. Internet et les réseaux sociaux en particulier peuvent être source d’addictions et, aussi paradoxal que cela puisse paraître, destructeurs du lien social. Exemple emblématique: ces personnes qui ne quittent pas leur smartphone des yeux lorsqu’elles partagent un repas au restaurant ! Au niveau social, ces mutations impliquent également des bouleversements intergénérationnels. Ce ne sont plus les anciens qui détiennent le savoir, mais les jeunes générations. De plus, la généralisation de l’anonymat sur Internet invite à repenser la notion de responsabilité alors que la prolifération des informations rend toujours plus difficile l’exercice de l’esprit critique. Citons enfin, dans cette liste non exhaustive, un élément qui est très certainement en train de bouleverser notre champ éthique: le libre accès aux contenus pornographiques, toujours plus massif, sur n’importe quel type de support.

Un défi de taille pour l’Église du XXIe siècle

La révolution numérique est aussi fascinante que déroutante. Capable d’innovations technologiques époustouflantes, elle appelle, dans le même temps, une critique qui se doit d’être toujours au fait de ses dernières évolutions. C’est là un défi de taille pour l’Église. «Experte en humanité» jusque dans les périphéries du web 2.0, elle ne peut faire l’économie d’une connaissance profonde d’un «continent numérique» qu’elle entend évangéliser. Négliger les limites – bien réelles – du virtuel en jetant un regard dépourvu de critique sur ce phénomène amputerait d’une possible fécondité toutes démarches d’évangélisation. Internet et les nouveaux moyens de communication sont, d’une certaine manière, le réceptacle de tout ce qui fait l’humanité, dans sa vulnérabilité, mais aussi dans sa bonté. Dès lors, le regard le plus profond que l’Église peut poser sur cette révolution numérique est un regard d’espérance. Dans sa compréhension des moyens de communication, l’Église est passée de l’outil au topos: il ne s’agit plus simplement de moyens qui peuvent servir à l’annonce de la Bonne Nouvelle, mais de lieux où le Royaume doit s’édifier[16]. L’espérance saisit que le message de l’Évangile peut non seulement résonner au cœur de ce continent, mais aussi le transformer de l’intérieur afin qu’il développe toujours davantage les virtualités de bonté qu’il contient.

Bibliographie

  • BENOÎT XVI, Message pour la XLVIIe Journée mondiale des communications sociales, 2013.
  • BOSTROM Nick, Qu’est-ce que le transhumanisme, www.transhumanism.org.
  • CONCILE VATICAN II, Décret sur les moyens de communications sociales Inter Mirifica, 1963.
  • ELLUL Jacques, Le bluff technologique, Paris, 2004.
  • FLIPO Fabrice, DOBRE Michelle, MICHOT Marion, La face cachée du numérique. L’impact environnemental des nouvelles technologies, Paris, 2013.
  • FRANÇOIS, Message pour la XLVIIIe Journée mondiale des communications sociales, 2014.
  • LIPKIN Jonathan, Révolution numérique. Une nouvelle photographie, Paris, 2006.

[1] «La raison […] n’est rien d’autre que le fait de calculer» HOBBES Thomas, Léviathan, Paris, 2000.

[2] La carte perforée indique de manière matérielle ce que le langage binaire signifiera de façon électrique. En effet le système binaire a deux états (0 ou 1) selon qu’un circuit électrique laisse ou non passer un courant électrique.

[3] Pour Electronic Numerical Integrator Analyser and Computer. Pesant trente tonnes, occupant 167 m2 et consommant 150 kilowatts, il effectue 5000 additions par seconde.

[4] Pour Advanced Research Projects Agency Network.

[5] On en comptera 1000 en 1984, 10’000 en 1987 et 100’000 en 1989.

[6] Littéralement «la large toile [d’araignée] mondiale».

[7] Dont le désormais célébrissime Google en 1998.

[8] Ce nouvel essor est connu sous l’appellation «Web 2.0».

[9] cf. Le Figaro a essayé les Google Glass, sur www.lefigaro.fr, septembre 2013.

[10] Cf. Idem.

[11] En vue, peut-être, lorsque la distinction entre vie privée et vie publique sera encore plus estompée, de la reconnaissance de visage.

[12] Une technologie qui intéresse d’ailleurs vivement la NSA, selon les documents transmis par Edward Snowden, puisque ces machines sont potentiellement capables de révolutionner le monde de la cryptographie. En effet, elles mettraient quelques secondes à décoder les clés de cryptage les plus sophistiquées – alors qu’il faudrait des milliers d’années aux ordinateurs actuels les plus puissants.

[13] «Si nous pouvions scanner la matrice synaptique d’un cerveau humain et la simuler sur un ordinateur il serait donc possible pour nous de migrer de notre enveloppe biologique vers un monde totalement digital (ceci donnerait une certaine preuve philosophique quant a la nature de la conscience et de l’identité personnelle). En s’assurant que nous ayons toujours des copies de remplacement, nous pourrions effectivement jouir d’une durée de vie illimitée». BOSTROM Nick, Qu’est-ce que le transhumanisme, www.transhumanism.org, le 07.02.14.

[14] ELLUL Jacques, Le bluff technologique, Paris, 2004.

[15] FLIPO Fabrice, DOBRE Michelle, MICHOT Marion, La face cachée du numérique. L’impact environnemental des nouvelles technologies, Paris, 2013.

[16] Cf. L’article de François-Xavier Amherdt, Inculturer la bonne nouvelle dans le continent numérique: enjeu de la nouvelle évangélisation, dans ce même numéro, pour un développement plus complet de l’approche du Magistère quant aux nouvelles technologies de la communication.

[print-me]


Pierre Pistoletti

Pierre Pistoletti (Photo: Eric Frattasio)

Pierre Pistoletti, étudiant en théologie, informaticien de formation, est l’initiateur de Kerusso communications (www.kerusso.ch) qui a développé à ce jour une trentaine de sites internet, principalement dans le milieu ecclésial. Il est membre du comité de rédaction de la revue Sources.

 

Article suivant