Futurologie ratée de l’ordinateur I. L’ordinateur comme objet mythique (avant 1982)

Des ordinateurs, circa 1970

YSENGRIMUS   Alors, la vogue est à la « contre-histoire des Internets ». Je crois, pour ma part, qu’il faut surtout méditer une contre-histroire de l’ordinateur. L’ordinateur fut effectivement l’un des objets les plus mal anticipés qui soit. Le voyant pourtant venir de fort loin, on a passé presque un siècle à fantasmer l’impact qu’il était voué à avoir sur nos vies et, dans cette immense futurologie raté, on n’a à peu près rien vu de ce qui venait vraiment. C’est parfaitement atterrant. J’aimerais ici vous convoquer à la premiere partie d’une petite chronologie sélective en deux phases. Elle est, certes, marquée au coin d’une trajectoire culturelle et technologique toute personnelle (surtout lors de la première phase, où je picore un peu au hasard dans le gargantuesque cloaque de la culture sci-fi du temps, en matière d’ordinateurs et de computation – c’est quand même pas tout le monde qui a lu et relu pieusement Les bulles de l’Ombre Jaune). Mais il s’agit ici indubitablement d’une sélection de faits significatifs en ce qui concerne les dimensions mythique (première phase) et pratique (seconde phase) de l’ordinateur dans notre vie collective. Matez-moi un peu ça. Le contraste entre les deux dimensions de la bécane (la mythique et la pratique) est hurlant.

PHASE I: L’ORDINATEUR COMME OBJET MYTHIQUE

1818: le roman Frankenstein, or the modern Prometheus de Mary Shelley, présente une version scientiste du vieux mythe du Golem (un perso fabriqué de main d’homme qui devient potentiellement dangereux). L’impact de ce roman, et de ses sous-produits littéraires et cinématographiques, sur l’imaginaire de masse du siècle suivant sera tonitruant.

1928: la compagnie IBM (International Business Machines) fait breveter la fameuse carte perforée à quatre-vingt colonnes, devenue depuis l’archétype du genre. J’ai vu de mes yeux, dans ma jeunesse (circa 1978, cinquante ans plus tard donc), un gros ordi de bureau aspirer une pile de ces cartes. On savait pas exactement ce que ça foutait mais qu’est-ce que c’était impressionnant à voir aller.

1936: introduction, dans un article scientifique, de la machine de Turing. C’est une réflexion sur la proto-computation (ladite machine n’exista jamais que sur papier).

1947: des mathématiciens américains, britanniques et français réunis en congrès à Nancy (France) commencent à conceptualiser le programme de travail de la cybernétique, pour le moment une affaire de matheux pas trop claire. Apparition de la notion de bug. La légende veut qu’un insecte se serait coincé dans le dispositif d’un grand ordinateur expérimental, causant des avaries. Marginale dans la période mythique (cette dernière étant hautement réfractaire à l’idée du moindre pépin amenant l’ordinateur à «se tromper»), la notion de bug est devenue courante (voire galvaudée) avec la banalisation de l’ordi comme instrument ordinaire.

1949: le roman 1984 de George Orwell popularise l’idée d’une dictature omnisciente, centralisée, hautement scrutatrice (Big Brother is watching you) et surtout, reposant largement sur un support technologique, machinal, et parfaitement nuisible à la liberté de conscience et d’action.

1950: le recueil de nouvelles I, Robot, d’Isaac Asimov popularise l’idée du robot anthropomorphe, serviteur puissant, toujours potentiellement menaçant, et susceptible de prendre intempestivement les commandes de la vie sociale, au risque de la rendre machinale et insensible. L’idée de robotique (et les fameuses trois lois fondamentales de la robotique) remonte à ces textes de science-fiction.

1954: la compagnie IBM lance son premier grand ordinateur commercial. Ce n’est évidemment pas un objet destiné au grand public.

1955: invention du premier langage informatique par IBM, le FORTRAN.

1956: fondation officielle d’une discipline de recherche vouée à un essor durable (et à un bonheur variable): l’intelligence artificielle.

1957: apparition, dans des publications scientifiques (d’abord en allemand puis en français), du mot informatique (construit sur mot-valise à partir des mots information et automatique). Si le mot est désormais formulé, ça doit être que la chose s’en vient…

1961: mise en marché, par le conglomérat Coca-Cola, de la boisson gazeuse citronnée Sprite. «Quel rapport?» me direz vous. Tout un rapport. De fait, on fera longtemps croire au consommateur que le nom Sprite fut généré aléatoirement, une lettre après l’autre, par un ordinateur. Cette foutaise, présentant le ci-devant «cerveau électronique» comme une sorte de marmite de sorcier semi-magique, se joindra à une longue et tortueuse série de procédés rhétoriques mythifiant ouvertement le rôle calculatoire voire «intellectuel» de l’ordinateur. «Après avoir mis tous ces chiffres dans les ordinateurs du ministère des finances, ils nous ont transmis les résultats suivants…» C’est aussi à cette époque que se met à circuler l’idée voulant que l’ordinateur ne fasse jamais d’erreur, que ce soit l’humain qui le programme qui soit le seul à se tromper. Inutile de dire qu’il ne reste plus grand-chose de cette culture canulardière computationnelle depuis que l’ordi est devenu un objet de tous les jours.

1962-1963: le dessin animé The Jetsons met en vedette une famille futuriste de 2062, se déplaçant en voiture-aéronef et vivant dans une maison technologique (c’est le pendant futuriste des Flinstones). Au nombre des personnages, on retrouve Rosie, un robot bonne d’enfant qui fait la bise aux gamins, en les mettant au lit, avec sa bouche fixe laissant sur la joue la sensation d’un petit aspirateur.

1963: la compagnie Honeywell lance son premier grand ordinateur commercial. Dans ces années là, un ordinateur (computer), dans la vision qu’on en a, c’est un gros appareil mural avec des bobines tournant aléatoirement, des types en sarreau blanc ou des dames très sérieuses se tenant devant, et on est dans les bureaux souterrains secrets du Pentagone, de la NASA ou de General Electric.

1965: début de l’hégémonisme intellectuel de la Grammaire Générative Transformationnelle de Noam Chomsky. Elle imposera la chape de plomb d’une mythologie machiniste qui pèsera de tout son poids sur les sciences humaines universitaires pendant au moins trente ans. Inutile de dire que la grammaire-machine chomskyenne ne fut jamais réalisée.

1965-1968: la série télévisée à succès Lost in space raconte les pérégrinations de la famille Robinson perdue dans l’espace dans son vaisseau-soucoupe, le Jupiter II. Le robot serviteur de la famille signale les dangers en criant Danger! Danger! Mais il peut parfois aussi être déprogrammé par un traître et se retourner contre la famille. Il frappe alors le gros ordinateur de bord scintillant de ses larges pinces et tout pète dans un flot décourageant de flammèches et de boucane.

1966: l’épisode de Star Trek intitulé What are little girls made of? introduit, pour la toute première fois, la notion d’androïde (android), qui sera amplement reprise, notamment, au sein de ladite saga Star Trek, avec les personnages des androïdes Data et Lore (dans Star Trek: the next generation). Ici (en 1966) l’androïde, fabriquée de main d’homme, s’appelle Andrea et elle est pleinement opérationnelle pour la réalisation de l’intégralité des fonctions biologiques humaines (le mythe de Pygmalion s’enchevêtre dans l’affaire – je vous passe les détails. Un honorable aperçu de dix minutes est disponible ici)… On rencontre aussi l’androïde Ruk, gaillard frankensteinesque, baraqué, costaud et peu amène. Véritable ordi pleinement anthropomorphe, surhumain mais aspirant tendanciellement à l’humanité (I am not a computer! s’exclamera un de ces personnages), l’androïde apparaît comme un dangereux serviteur qui, si on en perd le contrôle, peut faire des ravages. Lors de telles crises, il faut finaudement éberluer l’androïde en le tirant vers ses tendances humaines et/ou en lui instillant des émotions non machinales sur fond inquiétant de paradoxes insolubles.

1967: le compositeur de musique électroacoustique Pierre Henry crée la bande musicale du ballet Messe pour le temps présent du chorégraphe Maurice Béjart. L’étrange pétarade électronique de Psyché Rock et de Jéricho Jerk change radicalement notre perception du son musical qui jouera désormais dans le petit radio de la cuisine. Un an plus tard (1968), l’album Switched-On Bach de Walter/Wendy Carlos nous donne à entendre, pour la toute première fois, du Jean-Sébastien Bach joué sur cette nouvelle invention d’un certain Robert Arthur Moog, le clavier synthétiseur. Deux ans plus tard (1969), l’album Moog plays the Beatles de Marty Gold fera avancer cette sonorité nouvelle d’un cran plus profond au sein des âmes mélomanes. Dans les deux décennies qui suivront, des instruments de musique programmables de plus en plus sophistiqués vont faire leur apparition. Le piano électrique, le mellotron et le ci-devant synthétiseur de Moog (pour s’en tenir ici aux plus vénérables – les tous premiers n’étaient pas spécialement computarisés. On avait, ici encore une fois, largement affaire à de l’informatique fantasmée) vont imposer leurs sonorités pimpantes et machinales dans la musique populaire. Frisson angoissé. À cause de l’aptitude imitative de certains de ces claviers électroniques, il va vite se trouver des voix pour annoncer la disparition prochaine des guitares, des cuivres, des bois et du piano à cordes. Une futurologie ratée de plus. On attend encore (et je ne vais pas pleurer ce ratage là – ordi et musique font aujourd’hui très bon ménage, l’un servant l’autre magistralement, pour le plus grand bonheur de l’oreille et de la diversité artistique la plus riche imaginable).

1968: dans le célèbre long métrage 2001: A space Odyssey de Stanley Kubrick, l’ordinateur central de bord d’une mission spatiale vers Jupiter, invisible (parce qu’omniprésent), doucereux et déférent (il s’appelle Hal et a une voix feutrée inoubliable), constate froidement que les cosmonautes du navire nuisent aux opérations et, donc, il les tue calmement, un par un, comme si c’était des parasites. On le débranche à temps, mais ça passe juste. La même année, dans l’épisode de Star Trek intitulé The Ultimate computer, on propose au capitaine James T. Kirk de se faire remplacer par un ordinateur central qui contrôle son navire. Cela fout le bordel meurtrier dans la flotte de la Fédération des Planètes et il faut finir par débrancher l’ordinateur M5, que son inventeur, un peu savant-fou sur les bords, traite comme son enfant. Il va sans dire que le tout ne se fait pas sans casse car l’ordinateur en question n’a tout simplement pas de bouton interrupteur…

1970: dans le roman de la série Bob Morane intitulé Les bulles de l’ombre Jaune, Henri Verne transporte ses héros, agents de la ci-devant Patrouille du Temps, en l’an de grâce 3222. Ils arrivent alors à Niviork (New-York), inquiétante mégapole en ruine (suite à un conflit nucléaire) dont toutes les activités sont coordonnées par un gigantesque cerveau électronique central nommé Ibémé (on apprend éventuellement que ce nom dérive d’IBM). Sorte de Baal abstrait au sommet d’une pyramide à degrés, Ibémé assure l’intendance de cycles obligatoires de sacrifices humains. Il faudra donc le détruire car il est parfaitement nuisible à la vie humaine.

1974-1978: la série télévisée The six million dollar man lance et popularise le mythe de l’homme bionique, un être humain accidenté qu’on retape et améliore en le réparant avec de la technologie programmée, amplifiant ses capacités physiques (et éventuellement mentales). De la femme bionique à la civilisation Borg, en passant par RoboCop et le Terminator, ce concept de fusion entre l’humain et la machine aura une riche postérité mythique.

1975: la compagnie Commodore commence à produire ses premiers terminaux à clavier. On parle alors beaucoup, sans trop comprendre à quoi ça rime, de puces (chips). Ce gros clavier avec écran penché, dont les touches font clac, clac, clac, on se demande ce que ça fout exactement et on y découvre surtout… des jeux.

1976: la compagnie Control Data embauche du prolo en masse à Montréal. Le principal boulot offert est celui de key-punch. Il s’agissait de dactylographier des données sur des machines à cartes perforées ressemblant un peu à de vieilles calculatrices de table.

1977, 1980, 1983: la première trilogie Star Wars de George Lucas renoue avec les thèmes échevelés, irrationalistes et manichéens du space opera et ne place pas vraiment la problématique de l’ordinateur en position centrale. On y rencontre cependant deux personnages de soutien qui contribueront pour la première fois à significativement renouveler l’image mythique de l’ordi. Le robot C-3PO est un droïde de protocole anthropomorphe, parlant 6,000 formes de communication. En dehors de cela, c’est un trouillard, un geignard et un ignare, mais il est difficile de ne pas le trouver insondablement attachant, tellement humain, en un mot, pour lâcher le mot. Beaucoup plus déterminant aux fins de la thématique, le robot non-anthropomorphe R2-D2 est un droïde d’entretien ne s’exprimant que par cyber-pépiements. Il est rien de moins qu’un super-terminal portatif autonome car il peut, de sa propre initiative ou sur demande, communiquer harmonieusement avec tous les mainframes imaginables, y compris ceux de l’ennemi. Mais surtout, en observant attentivement sa remarquable trajectoire, on découvre que R2-D2 est un serviteur discret, efficace jusqu’à l’omnipotence, sagace jusqu’à l’omniscience, et doté d’une extraordinaire élévation morale. Devenu une icône culturelle en soi, le droïde R2-D2 est incontestablement la première manifestation fortement positive et laudative d’une vision respectable, sereine et éthique de l’ordi, dans le grand cinéma de masse.

1978: un confrère, étudiant de fac en informatique de gestion, nous annonce triomphalement à la cantonade que, dans dix ans, tout le monde devra connaître un ou deux langages de programmation et que ce sera certainement FORTRAN et COBOL qui domineront ce nouveau champ de savoir populaire. L’explosion ultérieure du user-friendly (sans parler de l’apparition, chez les informaticiens, du Pascal, du C, du C++ du SQL, du Java, du Dot-net et j’en passe) rendra cette prédiction parfaitement inopérante, justement dans la décennie où elle était censée se réaliser.

1979: un jeune Ysengrimus de vingt-et-un printemps pianote sur un ordi pour la première fois de sa douce vie, dans une obscure salle de terminaux de la fac où il étudie. C’est justement un terminal. Le lettrage est vert fluo, il faut taper toutes sortes de codes cryptiques pour «entrer» dans le ci-devant mainframe et on a aucune idée de ce qu’on fout là exactement quand on y arrive. Inoubliable.

1980: la compagnie Atari introduit les premiers ordinateurs avec clavier et écran ne requérant pas qu’on pianote une litanie de commandes en code avant de se déclencher. Ils bootent (comme on disait alors) automatiquement sur allumage (tout un soulagement au demeurant) et servent surtout pour des jeux vidéo et la constitution de bases de données rudimentaires.

1981: apparition du robot industriel, servant notamment à l’assemblage des voitures. Cet appareil perfectionné de chaîne de montage portera un coup durable au fantasme asimovien du robot anthropomorphe. Désormais, un robot, c’est un type perfectionné de machine-outil utilisé dans l’industrie et non un compagnon domestique avec des yeux et une bouche pour parler. Et un androïde, bien ça n’existe tout simplement pas.

1982: le film de science-fiction Blade Runner de Ridley Scott incorpore des androïdes intégralement anthropomorphes en pagaille mais surtout, il met en scène une technologie de recherche d’informations préfigurant assez astucieusement l’Internet.

.

Quel que soit le jugement qu’on porte sur la portée intellectuelle et ethnoculturelle des faits que je retiens ici comme exemplaires (et make no mistake: beaux ou laids, grandioses ou riquiqui, ils sont exemplaires), il s’avère que l’anticipation formulée dans la première phase rate totalement son coups pour ce qui est de prévoir les immenses phénomènes sociologiques de la seconde phase… Qui ira encore, après un ratage aussi tonitruant, appeler un roman de science-fiction un roman d’anticipation? Anticipation mon fion. La seule à avoir vraiment anticipé, c’est Mary Shelley (1797-1851), et c’est sur ce sur quoi on allait collectivement fantasmer qu’elle a anticipé, rien de plus. Les œuvres du vingtième siècle ayant déliré les androïdes, les robots et les ordinateurs n’ont finalement pas anticipé grand-chose de factuel (et la notion d’uchronie est bien plus adéquate pour les décrire – cela ne s’est pas passé et ne se passera jamais). Ces oeuvres ont simplement exprimé des hantises qui étaient bien plus celles de leur temps que celles du futur. La grande peur post-orwellienne de l’ordinateur déshumanisant rappelle bien plus la réification industrielle et/ou usinière (pour ne pas mentionner la rigidité politique –rigidité des blocs- issue de la guerre froide) du siècle passé. On voit co-exister un peu éclectiquement, dans la première phase, spéculation universitaire (largement exploratoire, décrochée et, disons la choses comme elle est, en grande partie stérile aussi) de l’informatique et du cybernétique et fiction populaire de l’inhumain ordinateur totalitaire et du méchant robot fauteur de troubles. On hypertrophie aussi les pouvoirs de l’ordinateur. On en fait un «cerveau électronique». On lui impute, dans cette phase mythique, et ce, au plan du bobard le plus ouvertement foutaisier, des aptitudes fantastiques, merveilleuses, formidables. On sait, dans la phase pratique, qu’il ne détiendra pas de telles facultés avant fort longtemps, si jamais. Parallèlement, presque en autarcie industrielle (car, dans ce temps là, l’ordinateur domestique, on y croyait pas trop), apparaissent les cartes perforées, les grands ordinateurs, les premiers microprocesseurs à clavier, les terminaux aux lettrages fluo. Ils vrillent leur chemin vers la vie ordinaire sans que le public sache encore exactement à quoi ils servent exactement. Il semble bien que personne ne pouvait vraiment le prévoir, en fait. La révolution des mœurs qu’ils enclencheront sera une surprise totale. C’est ce qu’on verra, peut-être, la semaine prochaine, dans Futurologie ratée de l’ordinateur II. L’ordinateur comme objet pratique (après 1982).

avatar

Ysengrimus

Voir ici: http://ysengrimus.wordpress.com/about/

2 pensées sur “Futurologie ratée de l’ordinateur I. L’ordinateur comme objet mythique (avant 1982)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *