lundi 30 juillet 2012

Informatique ou numérique, peut-on faire fi de l'étymologie ? (2/2)


"Le numérique" (entendre : "les technologies fondées sur le calcul numérique") est une manière de représenter le monde qui emprunte à la nature son mode d'écriture (une technique). L'informatique en est l'outil et l'informatisation, un phénomène dont les aspects anthropologiques sont particulièrement importants à prendre en compte. Les profondes mutations anthropologiques induites par l’émergence des technologies fondées sur le calcul numérique, conduisent à appliquer l’adjectif numérique à tout un ensemble d’objets dont le périmètre est aussi vaste que la révolution (numérique) à l’œuvre dans nos sociétés.

Faut-il pour autant détourner le sens du mot numérique en prenant le contre-pied de son étymologie, pour lui faire désigner l'ensemble des phénomènes anthropologiques que suscite l'informatisation ? À la lumière de ce qui précède (partie 1/2), ce serait à mon sens une faute, certes bénigne, mais bien inutile.

Ce détournement serait un peu en effet comme celui qui a malheureusement déjà été fait du mot information, en faisant fi de son étymologie pour inventer le terme informatique. Même s’il a été officialisé par l’Académie française, qui en 1967 a décidé de lui attribuer la signification de science du traitement rationnel et automatique de l’information, le mot informatique a en effet été construit en fusionnant les notions d’information et d’automatique pour désigner la science des calculateurs, c’est-à-dire une science s’intéressant au traitement des données numériques. L’information, si l’on en croit ce néologisme improbable, serait susceptible de se réduire à une matière dont le traitement pourrait être automatisé. Ce serait faire fi de l’extraordinaire complexité de cette notion d’information dont l’étymologie devrait pourtant nous inciter à tenir compte.[1]

Comme Michel Volle, je pense que nous galvaudons le mot information, en particulier avec la science des ingénieurs qui a dominé tout le vingtième siècle, et cette fameuse "théorie de l’information" de Shannon qui n’était en réalité qu’une théorie de la communication (A mathematical theory of communication), tandis que l’information dont elle traitait n’était en fait qu’un signal. Étymologiquement, une "information", c'est quelque chose qui modifie ou complète la forme de votre représentation du monde, qui donc vous forme intérieurement, vous in-forme, ajoute Michel Volle. Si l’on s’efforce d’être précis, poursuit encore celui-ci, on voit que la donnée ne devient une information que quand elle est reçue par un être humain qui l’interprète. La dimension humaine (donc non automatisable, sauf à transformer l’homme en automate) de la notion d’information est incontournable.

Le signal se traite, les données se mémorisent et se calculent, mais l’information s’exploite. Exploiter[2] une information, c'est en tirer profit en l’interprétant pour en extraire le sens, enregistrer le savoir qu’elle engendre, puis l’intégrer dans une connaissance que l’on peut restituer sous forme d’une nouvelle information, pour partager la connaissance restituée ou encore communiquer un nouveau savoir. Présenté ainsi, ce travail de la pensée peut paraître simple, mais encore faut-il examiner ce qui se cache derrière les mots interpréter, sens, connaissance, savoir et encore information, pour se faire une idée de l’extraordinaire complexité des tâches couramment assumées par le cerveau humain.

Si l’ordinateur, et le calcul numérique qui fonde l’ensemble des techniques liées à son usage, permettent de traiter des signaux et de calculer, puis de mémoriser des données, ils s’avèrent en revanche parfaitement incapables d’exploiter l’information. Des algorithmes (calcul) peuvent être conçus et développés pour automatiser de nombreuses tâches permettant de faciliter l’exploitation de l’information, grâce à la numérisation du document (traitement du signal) qui est son support désormais universel, en particulier en matière d’analyse (calcul), de mémorisation et de restitution des innombrables données qui s’y attachent. Mais il en va tout autrement du travail réalisé par le cerveau humain qui, à partir de la perception d’un signal lui donnant sens (effet produit par la réception du signal chez un sujet, selon Atlan[3]), suscite une représentation mentale susceptible de s’exprimer par l’intermédiaire d’une proposition réalisant l’énoncé (phénomène linguistique) d’un jugement (phénomène intellectuel) pour restituer de manière formelle une in-formation.

L’automate capable de remplacer le cerveau humain pour exploiter une information n’est pas né.

L’ordinateur, comme la technique informatique et le calcul numérique sur lesquels repose son fonctionnement, ne sont d’ailleurs pas faits pour cela. Tout au plus peuvent-ils tirer profit d’un signal en le "traitant" pour en extraire des données dont la mémorisation et le calcul peuvent être d’une très grande utilité à l'élaboration et à l'énoncé d'un jugement, puis, à l’issue de ce dernier (dont nous aimons à croire qu'il ne peut être que  l’œuvre  d'un cerveau humain), participer à l’élaboration d’un nouveau signal en codant une nouvelle information pour la transmettre et communiquer ainsi un nouveau savoir. C’est déjà énorme mais n’a rien à voir avec l’exploitation de l’information qui implique l’usage de la raison (à ne pas confondre avec la logique). Le raisonnement est un phénomène intellectuel qui n’a rien d’automatique donc d’informatisable.

Le terme numérique, même substantivé pour désigner le calcul numérique, cette technologie dont les applications bouleversent nos modes de vie, n'est pas en soi un phénomène ou un ensemble de phénomènes, mais bien, « par opposition à Analogique », un « codage » « d'informations ou de grandeurs physiques sous forme de chiffres ou de signaux à valeur discrète (ou discontinue) » comme nous l’indique le dictionnaire de l’Académie française (cf. encadré partie 1/2). C’est une manière de représenter des phénomènes, qui emprunte aux mathématiques. En cela d'ailleurs, la technologie numérique se conforme à la nature dont le livre est écrit, comme chacun sait depuis Galilée et avant lui Pythagore, en langage mathématique.

Ce n'est pas l'informatisation qui suscite un phénomène numérique, mais bien l'inverse : l'informatisation est suscitée par l'essor des techniques numériques (le - calcul - numérique) comme l'industrialisation l'a été en son temps par l'essor des techniques mécaniques (la mécanique). C'est l'informatisation, comme l'industrialisation l'a été en son temps, qui peut être et doit être sans aucun doute considérée comme un phénomène dont la dimension anthropologique est incontournable. Le numérique n'est pas un phénomène suscité par l'informatisation, mais une technique dont l'essor suscite un ensemble de phénomènes anthropologiques faisant partie intégrante du phénomène d'informatisation qui succède au phénomène d'industrialisation.


[1]      En toute rigueur, Philippe Dreyfus, ingénieur chez Bull, qui voulait en 1962 traduire l’expression computer science et à qui Michel Volle attribue l’origine de ce mot, aurait été sans doute mieux inspiré d’inventer le terme datamatique qui exprime bien la notion de traitement automatique de données pour laquelle l’ordinateur a été conçu.
[2]      « 1. Faire valoir un bien, le rendre productif, de manière à en tirer un profit. 2. Utiliser à son avantage ; tirer parti de. », selon le Dictionnaire de l’Académie française, 9ème édition.
[3]      Atlan H. (1977), Modélisation et maîtrise des systèmes, Suresnes, Éditions Hommes et Techniques.


Aucun commentaire:

Enregistrer un commentaire