Petite histoire de l’informatique et du numérique

L’histoire d’ADELI a été une véritable histoire parallèle de l’informatique. Depuis 45 ans, ADELI œuvre pour rendre les concepts intelligibles au plus grand nombre, pour démystifier et démythifier les aspects marketing souvent tous roses et parfois mensongers.

Les cartes perforées

ADELI a été créée en 1978. Mes premiers cours d’informatique à l’université de Lorraine datent de cette période-là.

Lorsque l’on écrivait un programme, il fallait l’avoir en tête ou l’écrire à la main sur un cahier, car on nous donnait des fiches cartonnées pour le recopier. Des opérateurs, ensuite, perforaient les fiches pour « passer » le programme – c’est-à-dire pour le compiler puis l’exécuter. Le lendemain, nous recevions le listing du programme ainsi que le résultat de l’exécution de celui-ci. C’était laborieux ! Nous ne disposions pas d’écran ! Quelle préhistoire…

On ne peut même pas imaginer, aujourd’hui où l’instantanéité est de mise, comment c’était possible de travailler à l’époque.

Je n’étais pas passionnée par cette informatique.

Micro-informatique

Après mes études, j’ai fait un stage de formation à la micro-informatique médicale et hospitalière à Paris V.  Jean-Louis Deloffre nous a expliqué quels étaient les rudiments d’un ordinateur, comment il fonctionnait avec son unité centrale, son microcode en assembleur, ses registres, sa mémoire, ses périphériques d’entrées-sorties que sont le clavier, l’écran, les disques, disquettes… J’ai commencé à comprendre. Il nous a appris le Basic, un langage interprété facile à écrire et à mettre en œuvre. Il était possible de tester immédiatement son programme. Ce n’était pas encore graphique…

Le microordinateur sur lequel je travaillais était un Alcyane.

Marcel Spector était un pionnier de la micro-informatique à l’hôpital. Il souhaitait que l’information médicale soit disponible au pied du lit du malade. La gestion comptable et financière était, pour sa part, administrée indépendamment sur de gros systèmes.

Le disque dur externe amovible sur lequel je travaillais était un disque de 30 × 30 cm de 10 Mo (je pense).

Unix

On commençait à parler d’Unix, un système d’exploitation géré par les utilisateurs. Le langage de commande (shell script) était pour le moins un langage abscons ; il m’a immédiatement plu. J’aimais me creuser la tête pour trouver le bon enchaînement de commandes séparées par des « | » (pipe).

L’intérêt d’Unix est de gérer des flux de caractères ; des groupes d’utilisateurs  (les « user groups ») créent les commandes et valident les plus utilisées, il est possible de rediriger le flux de données vers un écran, un fichier, une imprimante… C’est magique !

Unix est un système d’exploitation multi-utilisateur. Il est possible d’administrer le système en étant super-utilisateur. Des droits différents peuvent être donnés à l’utilisateur, au groupe et au Super user sur les fichiers et les directories (répertoires).

Réseaux

Les réseaux de microordinateurs sont apparus.

Internet a été inventé, puis le Web. Les protocoles réseaux se sont améliorés et normalisés.

Analyse fonctionnelle

De nombreuses activités peuvent se décrire de façon fonctionnelle. La fonction peut se décomposer en sous-fonctions.

Interface graphique

Puis les interfaces graphiques sont venues avec toute la variété (Apple, Windows, X Window System, …), dans lesquelles nous pouvions lancer une commande dans une fenêtre, visualiser un tableau, un graphique…

Les bases de données

Si, en informatique de gestion, données et programmes étaient séparés dans des fichiers différents, leur accès ne pouvait se faire que de façon séquentielle, au travers de processus de type « batch ».   Les fichiers séquentiels indexés puis les bases de données ont permis l’accès direct aux données et permis l’exécution de processus temps réel. Les bases de données relationnelles ont pris l’avantage sur d’autres modèles qui présentaient également de l’intérêt. Tout cela ne s’est pas fait en un jour, mais sur plusieurs années, voire des dizaines d’années. Je précise que je ne travaillais pas en informatique de gestion qui utilisait les fichiers séquentiels depuis longtemps, alors qu’en informatique scientifique les données pouvaient être encore codées en dur dans les programmes.

La théorie Objet

Le monde réel pouvait-il être décrit à l’aide d’objets et d’interactions entre objets ?

« La programmation orientée objet (POO), ou programmation par objet, est un paradigme de programmation informatique. Elle consiste en la définition et l’interaction de briques logicielles appelées objets ; un objet représente un concept, une idée ou toute entité du monde physique, comme une voiture, une personne ou encore une page d’un livre. Il possède une structure interne et un comportement, et il sait interagir avec ses pairs. »

La théorie orientée objet manipulait des classes d’objets (abstraction) ; ces modèles permettaient d’instancier un objet, visaient à encapsuler l’information contenue dans l’objet ; les « méthodes » permettaient d’interagir entre objets. L’objet devenait une entité. Les objets s’échangeaient des messages entre eux. Des mécanismes ont été ajoutés assurant l’héritage entre classes d’objets. Cela permettait de ne pas décrire de nouveau ce qui avait déjà été décrit.

Puis, il y a eu l’héritage multiple, le polymorphisme…

Assurance qualité

Dans l’entreprise, les employés créaient de nombreux documents (textes, calculs, schémas, présentations…). De nombreux fichiers s’échangeaient pour travailler.

Tous ces fichiers, ces bases de données naissaient un peu partout. Il fallait être capable de « retrouver ses petits », de consolider l’information, d’agréger l’information. Les principes de l’assurance qualité, venus du monde industriel, ont été adaptés au monde de la gestion (commerciale et administrative) puis de l’informatique. Les normes étaient des cadres. Les exigences devaient être décrites et respectées par tous. C’était l’époque de la standardisation des données, des processus…

Et puis, il fallait maîtriser la qualité de ce qui était produit (bien matériel ou service, pièce d’usine comme logiciel).

Les versions de documents, de fichiers, de programmes, de bases de données sont apparues.

L’entreprise voulait modéliser ses activités afin de mieux maîtriser son personnel, ses processus et optimiser les coûts, délais et qualité.

Des normes du management de la qualité ont vu le jour. ISO 9001 : « Cette norme repose sur un certain nombre de principes de management de la qualité, notamment une forte orientation client, la motivation et l’engagement de la direction, l’approche processus et l’amélioration continue. »

Méthodologie

Comment modéliser le monde réel (existant et cible) ? Des méthodes et méthodologies sont apparues. Des formalismes graphiques ont permis de faciliter les modélisations. Parmi ces différents formalismes graphiques, en 1997 est apparue la norme internationale  UML 1.0.

IA

Les systèmes experts ont permis de décrire et d’automatiser une partie du savoir des experts métier. Ceux-ci ne savaient pas décrire leur savoir, fait de beaucoup « d’implicite ». Des bases de règles ont été créées et utilisées. Elles permettaient de faire des déductions à partir de faits.

La nouvelle IA (apprentissage machine) a permis aux systèmes d’apprendre de l’expérience passée. Une boucle de rétroaction donnait à l’humain la possibilité de corriger et de superviser les systèmes d’IA.

Les statistiques ont joué un rôle important. 90 % de l’IA moderne est fondée sur cette approche.

Conclusion

Voici quelques grandes lignes de ma petite histoire de l’informatique et du numérique.

Je remarque le parallèle avec l’histoire d’ADELI.

Relisez les écrits de La Lettre d’ADELI… sur https://espaces-numerique.org. De nombreux concepts sont explicités.

Print Friendly, PDF & Email
Partager cette page
Publié dans Usages numériques.

Présidente d'ADELI
Membre du comité
Responsable GT IA
Membre GT métiers