Toute l’information que peut porter une puce

L’Almanach Cousteau de l’Environnement – Outils propres et impropres – pages 360-361

 

L’ENIAC (Electronic Numerical Integrator and Computer), le premier calculateur universel électronique, fut mis en marche en 1946 à l’Université de Philadelphie. Cet énorme ordinateur de 30 tonnes commandé par l’armée américaine pour effectuer des calculs balistiques avait coûté pas moins d’un demi-million de dollars et fonctionnait avec près de 18 000 tubes à vide. L’ENIAC pouvait réaliser 100 000 additions par seconde.

ENIAC

E.N.I.A.C.

C’est en 1951 que fut mis sur le marché l’UNIVAC (Universal Automatic Computer), le premier ordinateur commercial. Il pouvait effectuer 8 333 additions par seconde.

Inventés en 1947 par des ingénieurs des Laboratoires Bell, les transistors furent à l’origine d’une véritable révolution de l’électronique et rendirent rapidement les tubes obsolètes. La technologie M.O.S. (Metal Oxyde Semiconductor), développée en 1970, permet de fabriquer et d’assembler des transistors de plus en plus petits et rapides (technologies SSI, MSI, LSI et VLSI : Small, Medium, Large, Very large Scale Integration).

En 1959, Jack Kilby inventa le circuit imprimé (puce électronique) qui consistait à assembler dans un même bloc de semi-conducteur plusieurs composants électroniques, dont des transistors.

Microprocesseur Intel 4004

Microprocesseur Intel 4004

En 1971, le premier microprocesseur commercialisé par Intel, le “4004”, comportait 2 300 transistors et pouvait exécuter 90 000 opérations par seconde, soit une puissance de calcul comparable à celle de l’ENIAC dans un simple composant életronique de 200 dollars! C’était déjà beaucoup, mais ce n’était encore rien. Les microprocesseurs actuels d’un ordinateur de bureau haut de gamme (2016) comptent plus de 700 millions de transistors et peuvent effectuer plus de 3,5 milliards d’opérations par seconde (3,5 GHz). Selon la loi de Moore (Gordon Moore, cofondateur d’Intel), le nombre de transistors incorporés dans les microprocesseurs double tous les deux ans. Il s’agit plus d’une prédiction que d’une loi scientifique, mais qui s’est avéré, jusqu’à maintenant, étonnement précise.

Les premiers micro-ordinateurs munis d’un clavier et d’un écran sont nés en 1973. En 1977, trois modèles de PC (Personal Computer) ont été mis sur le marché et ont démocratisé véritablement l’informatique : L’Apple II, le PET 2001 (Commodore) et le TRS-80 (Tandy RadioShack). En 1979, plus d’un demi-million de micro-ordinateurs étaient vendus dans le monde.

En 1980, il n’existait pas encore de réseau permettant d’accéder à des banques de données, ce qui limitait l’intérêt de ces ordinateurs pour le grand-public (que faites-vous sur votre PC lorsqu’il n’y a pas de réseau Internet ?). On imaginait déjà utiliser la technologie du câble pour la télévision pour relier les ordinateurs personnels à des banques de données, l’idée étant de recevoir, par exemple, le bulletin météo, les dernières cotations en bourse, les dernières nouvelles, la liste des films passant dans les cinémas de la ville… Il était déjà question à l’époque de pouvoir numériser des livres ; l’IBM 3820 pouvait par exemple stocker 3,8 millions de kilobits, soit l’équivalent d’un million de livres. La technologie du câble de retour, déjà en service aux USA, permettait de dialoguer avec la station émettrice. Les spécialistes de l’époque prévoyaient que cette technologie allait permettre de transmettre des données vers la station émettrice, par exemple pour donner son avis sur un programme particulier, commander et payer un produit après en avoir vu la publicité à la télévision, voter, réaliser des opérations de banque, réserver des places d’avion ou une table de restaurant, faire des recherches bibliographiques, jouer à des jeux, ou trouver l’âme sœur…. Tout ce que propose Internet aujourd’hui avait donc déjà été imaginé dans les années 70.

Apple II

Apple II

Comme l’imprimerie et le téléphone avant lui, l’Internet a révolutionné le monde des communications, en étant tout à la fois un média de diffusion de l’information et un moyen d’interaction entre les individus dans le monde entier. L’Internet a été le résultat d’une collaboration réussie entre le gouvernement, l’industrie et l’université américaine. Leonard Kleinrock, du M.I.T. (Massachusetts Institute of Technology), écrivit le premier article sur l’utilisation de la commutation de paquets, technologie de transmission de données numériques utilisée par Internet (1961). J.C.R. Licklider, travaillant lui aussi au M.I.T., fut le premier à décrire, dès 1962, un “réseau galactique” d’ordinateurs interconnectés au niveau mondial permettant d’accéder rapidement aux données depuis n’importe quel site. Le premier réseau ARPANET (Advanced Research Projects Agency Network), ancêtre d’Internet, relia en 1969 l’Institut de Recherche de Stanford et les universités de Californie à Los Angeles (UCLA), de Californie à Santa Barbara (UCSB) et de l’Utah. Trois protocoles permirent d’améliorer les performances de transferts par paquets: TCP/IP (“Transmission Control Protocol” et “Internet Protocol”) en 1973, puis UDP (“User Datagram Protocol”) en 1980. Le courrier électronique, première application de cette nouvelle technologie, fut inventé en 1972. Tim Berners-Lee, alors chercheur au CERN de Genève, fut l’inventeur en 1989 du premier serveur Web, qu’il appela “httpd”, et du premier client Web, qu’il appela “WWW” (World Wide Web). Le Web permit d’étendre la technologie Internet au grand public. En 1993, Mosaic fut le premier des navigateurs grand public, l’ancêtre de Google né en 1998. L’ascension du Web fut ensuite fulgurante, jusqu’à devenir un outil indispensable des sociétés modernes.

Loi de Moore

Loi de Moore

Selon les auteurs de l’Almanach Cousteau en 1981, les microprocesseurs de l’époque devaient encore être améliorés pour qu’apparaisse “ce nouveau monde réticulé”. Ils supposaient qu’il faudrait assembler leurs composants au moyen de rayons X ou de faisceaux d’électrons et que des métaux supraconducteurs seraient utilisés pour booster leur mémoire. Ils imaginaient même des microprocesseurs à “cristaux biologiques”, sur le modèle du code génétique. Il est vrai que la technologie du silicium a ses limites de miniaturisation (en dessous d’une certaine taille, les forces intra-atomiques (effets quantiques) l’emportent sur les lois de l’électricité. Pour surmonter cet obstacle, Richard Feynman, Prix Nobel de physique en 1982, imagina l’ordinateur quantique. Si de nombreuses équipes de chercheurs travaillent actuellement sur le développement d’un ordinateur quantique, nous n’en sommes qu’aux balbutiements. D’autres équipes essayent de développer des calculateurs utilisant des séquences d’ADN (ou d’autres biomolécules), afin de mettre à profit les capacités colossales de stockage de données de ce type de molécules. Les premiers “ordinateurs-ADN” basés sur ce principe permettent déjà de réaliser certaines opérations basiques.

En 1981, on pensait que les progrès dans le domaine des communications permettraient à de nombreux employés de bureau de travailler chez eux, ce qui diminuerait les transports et donc la pollution des villes. On imaginait déjà que les citoyens allaient être plus informés, mais leur droit à la vie privée deviendrait illusoire. La trace de toute notre activité, ce que nous avons regardé, lu, acheté, serait stockée dans la mémoire de nos ordinateurs et dans des fichiers des autorités. Les auteurs de l’Almanach Cousteau prévoyaient aussi que l’informatique allait engendrer une vie virtuelle qui nous éloignerait peu à peu de tout contact physique avec les autres.

La révolution de l’informatique ne pouvait pas se faire sans quelques dégâts. Selon une note rédigée en 1978 par Simon Nora et Alain Minc à la demande du Président de la République française (“L’informatisation de la société”), la généralisation des procédés informatiques devait supprimer 30% des emplois dans les banques et les compagnies d’assurance françaises. Aux USA, la Citycorp Bank prévoyait même de réduire ainsi son personnel de 40%. Tout ceci grâce à des microprocesseurs montés par des ouvriers indonésiens payés 1 franc de l’heure.

copyright Sampaio

Sampaio ©

Depuis quelques années, le secteur de l’informatique et des services d’information crée plus d’emploi en France qu’il n’en perd (création de 18 000 emplois nets en 2016). Ce secteur est boosté par la démocratisation des objets connectés et l’émergence de l’intelligence artificielle associée à la robotique. Selon un rapport de l’institut de conseil McKinsey paru en 2013 (“Technologies de rupture : des avancées qui changeront la vie, le commerce et l’économie mondiale”), douze innovations dites de rupture,créatrices de forte valeur économique, seraient susceptibles de supprimer de nombreux emplois à l’horizon 2025. Selon cette étude, les technologies devant générer les plus gros gains pour l’économie mondiale devraient être celles liées à l’Internet mobile (3 000 milliards à 8 000 milliards d’euros), à l’automatisation du travail intellectuel, aux objets connectés et au cloud. Ces technologies de rupture génèrent ce que Joseph Schumpeter désignait en 1942 par “destruction créatrice”. Que va-t-il advenir des professeurs lorsque les logiciels d’apprentissage seront devenus aussi performants qu’eux ? Quid des techniciens et ingénieurs lorsque les automates pourront faire le même travail à des coûts nettement plus compétitifs ? A quoi serviront les chauffeurs de taxi dans des automobiles devenues autonomes ? Il sera nécessaire d’inventer d’autres types d’emploi, selon un processus de progrès qui a jusqu’à maintenant bénéficié au développement de la société. Cependant, nous sommes dans une phase exponentielle d’innovations technologiques qui pourrait inverser la balance et accroitre le chômage, en particulier chez les plus défavorisés qui n’auront pas reçu la formation pour s’adapter.

Le cas de la société Kodak est souvent cité en exemple lorsqu’on évoque les technologies de rupture. Cette multinationale créée en 1881, leader de la photographie, employait 80 000 personnes dans les années 60. Alors que ses ingénieurs ont inventé le premier appareil photo numérique en 1975, Kodak n’a pas réussi à prendre le virage du numérique et était menacé de faillite en 2012. L’empire fut démantelé et l’activité photo arrêtée. En septembre 2013, Eastman Kodak ne comptait plus que 8 500 salariés et s’est spécialisé dans l’impression pour les entreprises.

L’explosion du marché de l’électronique n’a pas provoqué de véritables vagues de création d’emplois industriels dans les pays occidentaux, ni dans les années 70, ni après. Selon la société d’études Reed Electronics Research, la fabrication de produits électroniques a migré des pays occidentaux et du Japon vers des pays à bas coût de main-d’œuvre (69% de la production en 2015), au premier rang desquels la Chine qui comptait en 2015 pour 38% de la production mondiale. Depuis quelques année, la Chine elle-même voit ses productions délocalisées vers des pays à plus faible coût de main-d’œuvre, comme l’Inde, l’Indonésie et le Vietnam… Et après ?

Évolution

Comments are closed