Nombreux sont ceux qui définissent l’avènement de l’informatique pour les masses, qui a débuté à différents stades dans les années 1970, comme la « troisième révolution industrielle ».
C’est indubitablement vrai : l’informatique a radicalement changé la société et a réussi, en très peu de temps, à construire un énorme secteur – à l’exclusion des activités induites – désormais si ramifié et omniprésent que même la division de base peut être subdivisée en de nombreux autres sous-secteurs, formant un océan presque illimité, capable de satisfaire presque tous les types de besoins d’information.
Mais l’informatique est une science qui ne pourrait exister seule, car elle doit nécessairement s’appuyer sur d’autres secteurs scientifiques, et notamment sur l’électrotechnique qui, au sens général, est la science qui étudie les phénomènes et les applications pratiques de l’électricité.
À son tour, l’électrotechnique se subdivise en diverses sous-sciences qui en découlent, et la science qui étudie la propagation des électrons dans la matière (et ses techniques d’application) est appelée électronique. C’est différent de l’électricité !

Dans l’état actuel des choses, il n’est pas possible de faire un calcul informatisé, et donc de l’informatique, sans l’aide des réalisations de l’électronique.
Une histoire définitivement fascinante, dans laquelle d’excellents esprits se sont mêlés à des théories, des essais pratiques (souvent dangereux), de grands échecs et des découvertes tout aussi grandes, qui ont permis au monde d’être beaucoup plus connecté que par le passé.
Bonne lecture !

Si l’industrie automobile s’était développée comme l’industrie informatique, nous aurions aujourd’hui des véhicules qui coûtent 25 dollars et font 500 km avec un litre.

L’atome et le monde subatomique

Comme nous nous en souvenons tous depuis nos cours à l’école, l’Univers est composé de matière, c’est-à-dire de tout ce qui a une masse et occupe de l’espace.
A la matière, au sens donné par la mécanique classique, on ajouterait l’énergie, c’est-à-dire la quantité qui exprime la quantité de travail possible.
En raison de la célèbre équation d’Albert Einstein, ce concept a toutefois été reformulé au début du siècle et, puisque la masse et l’énergie sont équivalentes – la masse, en termes très pauvres, est de l’énergie comprimée -, de nombreuses personnes ont tendance à unifier, sous le terme de « matière », la matière et l’énergie classiques.

En l’analysant selon la définition classique, la matière est composée de plusieurs éléments, découverts au fil des siècles par les premiers alchimistes puis par les physiciens et les chimistes, et regroupés pour la première fois à la fin des années 1800 par le grand scientifique russe Dmitri Ivanovič Mendeleev dans un tableau précis, appelé tableau périodique des éléments (ou tableau périodique de Mendeleev).
Mendeleïev a été le premier scientifique à répertorier avec précision non seulement tous les éléments connus de l’homme depuis des milliers d’années (tels que l’or, l’argent, le cuivre, le fer, etc.), mais il a également conçu son tableau « de manière scalaire », c’est-à-dire comme un système ouvert que les scientifiques après lui pourraient étendre en cas de découverte de nouveaux éléments.

Le kinétoscope
Albert Einstein a décrit mathématiquement l’équation qui permet d’assimiler la masse à l’énergie

La plus petite partie d’un élément, capable de conserver intactes toutes ses propriétés et caractéristiques intrinsèques, s’appelle un atome.
Contrairement à ce que beaucoup de gens pensent, il y a déjà des millénaires – dans la Grèce antique – les grands philosophes de l’époque avaient intuitionné empiriquement la nature atomique de la matière, mais pour la véritable démonstration du modèle atomique il faudra attendre de nombreux siècles, jusqu’à l’arrivée de la méthode scientifique, avec l’expérimentation et l’observation appropriées.

L’atome, bien qu’il vienne du grec ἄτομος – àtomos – qui signifie indivisible, n’est en réalité pas une structure monobloc, mais il est composé de plusieurs particules, très petites, appelées précisément particules subatomiques.
Les particules subatomiques, essentiellement, se divisent en deux grandes catégories : les bosons et les fermions.
Les bosons, appelés ainsi en l’honneur du grand physicien indien Satyendra Nath Bose, sont des particules extrêmement petites, généralement dotées de beaucoup d’énergie et qui, curieusement, peuvent occuper le même espace (énergétique) en même temps, s’accumulant en grande quantité.
Par exemple, les bosons sont des photons, c’est-à-dire des rayonnements électromagnétiques, également appelés improprement « lumière ».

Un prisme est capable de décomposer la lumière blanche du soleil en couleurs correspondant aux fréquences de l’iris.

Les fermions, en revanche – appelés ainsi en l’honneur du grand physicien italien Enrico Fermi – sont des particules qui ne peuvent pas occuper la même position quantique en même temps : en bref, ils tournent sur eux-mêmes (c’est ce qu’on appelle le moment de rotation) et l’orientation du moment angulaire est demi-entière, donc 1/2 ou -1/2.

Le physicien autrichien Wolfgang Ernst Pauli a découvert que de telles particules ne peuvent coexister sur le même plan énergétique avec un spin égal, et qu’elles doivent donc nécessairement « tourner » avec des moments angulaires différents : c’est la raison pour laquelle, par exemple, dans une structure atomique, il existe des orbitales.
Les fermions, qui composent en gros toute la matière existante, sont à leur tour divisés en deux catégories principales : les quarks et les leptons.

Enrico Fermi, l’un des plus grands scientifiques de 1900, et pionnier des études sur la radioactivité.

Ces catégories, du moins pour ce qui a été découvert à l’heure actuelle, ne sont pas davantage divisibles et sont, en fait, les plus petites particules existantes, non composées par d’autres particules.
Les quarks n’existent pas seuls, mais ils sont toujours couplés ensemble, formant d’autres particules plus grandes, comme les protons et les neutrons.
En revanche, les leptons ne se couplent pas entre eux, et restent toujours des entités isolées : l’exemple le plus courant de lepton est l’électron.

Les quarks et les leptons forment la structure atomique, et cette structure est maintenue par une série de forces principales, qui empêchent son effondrement.
Le noyau atomique est composé de protons et, dans certains cas, de neutrons, tandis que la structure externe est composée d’électrons.

Wolfgang Ernst Pauli, le physicien autrichien qui a formulé le principe d’incertitude qui porte son nom.

Certaines particules existantes ont la caractéristique d’avoir une charge électrique, c’est-à-dire qu’elles ont tendance à former un champ électromagnétique entre elles : ce champ fait que les particules s’attirent ou se repoussent, selon leur signe.
Certaines particules – comme les électrons – ont un signe négatif, tandis que d’autres – comme les protons – ont un signe positif. Selon la loi formulée par le Français Charles Augustin de Coulomb, les champs développés par les signes électriques peuvent être attractifs ou répulsifs, générant ainsi une attraction ou une répulsion entre les particules.
Les signes opposés s’attirent, tandis que les signes égaux se repoussent, et cette interaction – très puissante – est appelée force électromagnétique.

Le noyau atomique, composé de protons, est chargé positivement, tandis que les électrons présents dans la structure externe sont chargés négativement : ceci génère une très forte attraction des électrons vers le centre de l’atome, qui, pour ne pas s’effondrer, occupent des zones spatiales spécifiques où ils peuvent tourner librement autour du noyau, contrastant l’action électromagnétique avec la force centrifuge.
Les charges des électrons et des protons étant opposées mais égales, un atome est électriquement neutre, car les charges positives du noyau sont annulées par les charges négatives de ses orbitales.
Cependant, il est possible qu’un atome perde ou acquière des électrons d’autres atomes, et cette extrême facilité d’échange est à l’origine des réactions chimiques, ainsi que du phénomène de l’électricité.

La force électromotrice

Vers la fin du 18e siècle, le scientifique italien Alessandro Volta a réussi à construire le premier accumulateur électrique rudimentaire mais efficace, qu’il a appelé « batterie ».
Grâce à cette construction, il a pu démontrer non seulement l’existence d’un flux électronique (ce dont avaient déjà eu l’intuition des scientifiques du XVIIIe siècle comme Luigi Galvani), mais aussi qu’il était possible de l’utiliser pour effectuer un travail.
C’est alors que l’on commence à considérer la différence de potentiel, c’est-à-dire la tension électrique : les électrons présents dans les orbitales les plus externes des atomes ont tendance à s’en détacher très facilement, étant attirés par les zones proches où il y a une charge positive.
Cette caractéristique fait que les électrons se déplacent sur toute la surface d’un matériau conducteur générique, jusqu’à ce qu’ils atteignent la zone qui les attire, appelée gap : tout ceci a été découvert par le scientifique anglais Michael Faraday, et c’est la raison pour laquelle il est possible d’utiliser des fils métalliques pour réaliser le flux électronique.
Le kinétoscope
Michael Faraday, scientifique anglais célèbre pour ses études sur la conductivité électrique.

L’Américain Joseph Henry, plus ou moins en même temps que son collègue Faraday, a découvert qu’un conducteur – généralement un aimant – tournant perpendiculairement dans un champ magnétique, produisait à son tour un flux électronique sortant : c’était la découverte de la force électromotrice, et du courant électrique conséquent qu’elle génère.
Dans un tel courant, les électrons sont poussés par le générateur (une dynamo ou un alternateur) à travers un circuit, créant des différences de potentiel adaptées à la tension entre l’émetteur et le récepteur pour effectuer un travail.
En substance, la tension indique la « vitesse » à laquelle sont envoyés les électrons du courant, qui seront ensuite utilisés à de nombreuses fins.
La lumière artificielle et le moteur électrique
Le kinétoscope
Le moteur électrique a radicalement changé la production industrielle mondiale

Il n’a pas fallu longtemps à Henry pour comprendre que si la force électromotrice provenait de la rotation d’un conducteur dans un champ magnétique, alors un flux électrique pouvait à son tour faire tourner un conducteur dans un autre champ magnétique.
Il a donc construit le premier prototype de moteur électrique, qui est le dispositif inverse d’un générateur électrique : si dans le générateur l’entrée est mécanique et la sortie est électrique, dans le moteur l’entrée est électrique et la sortie est mécanique.
Cela a constitué une révolution dans l’histoire de l’humanité, car les moteurs électriques ont très vite pris la place des moteurs à vapeur.
Le kinétoscope
Thomas Alva Edison est l’un des inventeurs les plus brillants et les plus célèbres des années 1900.

En 1878, l’ingénieux inventeur américain Thomas Alva Edison a remarqué que dans certains métaux – le tungstène in primis – une certaine tension électrique produisait une telle excitation thermique qu’elle émettait spontanément des photons (donc de la lumière) : c’était la naissance de l’ampoule électrique, qui a bouleversé en très peu de temps les habitudes millénaires de l’homme et a lancé la vie nocturne telle que nous la connaissons aujourd’hui.
L’impulsion électrique et le télégraphe
Le kinétoscope
Le télégraphe est le premier appareil électromécanique utilisé par l’homme pour communiquer sur de grandes distances en un temps très court.

Immédiatement après les expériences de Volta et les découvertes de Faraday et Henry, il est apparu que l’on pouvait également utiliser un flux électrique en le « cassant » et en le faisant circuler dans un circuit de manière non continue, un peu comme un robinet d’eau, en régulant à la fois la tension et l’intensité.
Lorsqu’un flux électrique est modifié de telle sorte qu’il n’est plus délibérément cohérent dans le temps, on parle d’une impulsion électrique, et un certain nombre d’informations peuvent être associées à cette impulsion.
Cela a permis à l’inventeur américain Samuel Morse, en 1837, de concevoir le premier système de communication électromécanique fonctionnant sans problème et doté d’un code clair et sans ambiguïté pour transmettre et recevoir des informations : le télégraphe avec le code Morse était né.
Le kinétoscope
Samuel Morse, inventeur du télégraphe électrique et de son code de communication

Étant donné que les électrons se déplacent très rapidement à la surface d’un fil conducteur (cette vitesse est donnée par la tension, et peut atteindre presque la vitesse de la lumière), les informations transmises par un système télégraphique sont pratiquement instantanées : cela a permis, une fois que les structures adéquates pour les fils télégraphiques ont été construites, l’échange d’informations d’une manière rapide et facile, et beaucoup de gens font coïncider le début de l’ère électronique avec la naissance du télégraphe.
Guglielmo Marconi et la naissance de la radio
Le kinétoscope
Gugliemo Marconi, le père de la radiocommunication

Au début du vingtième siècle, un jeune inventeur italien du nom de Guglielmo Marconi, après quelques expériences amateurs, a découvert qu’il était possible de modifier le rayonnement des ondes électromagnétiques (lumière) plus ou moins comme un flux électronique, en changeant sa phase, sa fréquence et son amplitude à volonté, permettant ainsi de générer des impulsions dans la gamme des radiofréquences (une partie du spectre électromagnétique).

Pour générer les ondes convenablement modifiées, on pourrait utiliser des antennes dipôles, c’est-à-dire des dispositifs dans lesquels un flux électronique, en circulant, génère un champ électromagnétique qui peut ainsi être introduit dans l’éther.
Cette invention, réalisée par l’Allemand Heinrich Rudolf Hertz, a permis à Marconi d’inventer le système de communication radio, qui est encore couramment utilisé dans le monde entier.
À l’époque de Marconi, les avis sur la transmission des fréquences radio étaient contradictoires : certains prétendaient que, compte tenu de la courbure de la terre, il était impossible d’envoyer des ondes aux antipodes de la planète.
Marconi, en revanche, a démontré, par diverses expériences, que les ondes courtes pouvaient rebondir sur l’air ionisé, contournant ainsi la ligne d’horizon.
Avec la naissance des radiocommunications, l’histoire de l’humanité a changé du tout au tout, avec un crescendo très rapide d’améliorations et de perfectionnements dont nous voyons encore les fruits.
Induction électromagnétique et courant industriel
Le kinétoscope
Nikola Tesla, l’extravagant et brillant scientifique qui a étudié l’électromagnétisme.

Plus ou moins à la même époque où Gugliemo Marconi réalisait ses expériences, un autre grand scientifique serbe, naturalisé américain par la suite, Nikola Tesla, a mis au point le système qui est devenu par la suite la norme pour la distribution de l’électricité, en envoyant aux foyers et aux industries un flux généré par un alternateur à turbine à polarité alternative et à haute tension : cela permettra, à faible coût, de distribuer le courant de manière beaucoup plus efficace.
Tesla a également démontré qu’il était possible non seulement d’utiliser les ondes radio pour échanger des informations, mais aussi de transmettre de l’énergie, et donc d’alimenter un circuit : c’est l’induction électromagnétique, qui sera reprise industriellement un siècle seulement après sa découverte.
Alan Turing et les débuts de l’informatique électronique
Le kinétoscope
Alan Turing, le grand mathématicien anglais qui a inventé l’automate du même nom.

Entre les deux guerres, le brillant mathématicien anglais Alan Turing a idéalisé un automate pour le calcul numérique, schématisant la machine en deux unités distinctes : le processeur de calcul et la mémoire.
Ses contributions conduiront au développement de la première ébauche d’un ordinateur entièrement électronique de l’histoire, le célèbre ordinateur Atanasoff-Berry (également connu sous le nom d’ABC).

En utilisant le code binaire oublié conçu par Gottfreid Leibniz des siècles auparavant, il a été possible de réguler la tension du flux électronique en seulement deux valeurs (correspondant à 0 et 1), permettant ainsi d’effectuer tous les calculs possibles, et réalisant la version pratique de l’automate de Turing.
Bien d’autres ont suivi le premier ordinateur ABC (comment ne pas mentionner le célèbre Electronic Numerical Integrator and Computer, ou ENIAC), mais le principal problème était de construire des portes logiques stables et efficaces : les valves thermioniques utilisées pour construire les composants actifs étaient instables, encombrantes et grillaient souvent, et il a fallu attendre l’invention du premier transistor – également appelé triode à l’état solide – et des semi-conducteurs en silicium pour pouvoir construire des processeurs de calcul compacts et fiables.

L’un des microprocesseurs les plus vendus au monde, produit sans interruption depuis 1976, est le célèbre Z80 de Zilog, conçu par le père des CPU, l’Italien Federico Faggin.
Pendant plus de quarante ans, il a été vendu presque sans changement, et il est actuellement toujours inclus dans les systèmes intégrés d’un très grand nombre d’appareils électroniques : du grille-pain à l’ouvre-porte.
Entre les versions produites par Zilog et les copies réalisées par les fabricants japonais et soviétiques, on estime qu’au moins 2 milliards de pièces ont été vendues, mais le chiffre est difficile à évaluer.
L’Américain John von Neumann a conçu un schéma logique, appelé « schéma de von Neumann », pour la conception d’un ordinateur électronique ; dans ce schéma figuraient plus ou moins tous les composants encore utilisés dans les ordinateurs existants.
L’évolution de l’électronique devra cependant attendre une vingtaine d’années avant d’être économiquement mise en œuvre dans la production industrielle de masse, ou plutôt jusqu’à l’avènement de l’intégration à très grande échelle au début des années 70.
Microprocesseurs et production de masse
Le kinétoscope
Federico Faggin, le père du microprocesseur

En 1971, l’ingénieur italien Federico Faggin, alors employé par Intel, a imaginé un moyen de graver tous les composants logiques d’un processeur sur une seule puce de silicium, et a rebaptisé ce procédé « silicon gate ».
Grâce à la lithographie planaire, il a pu obtenir plus de 2000 transistors dans une très petite puce, intégrant ainsi tous les composants d’un CPU dans un seul circuit (« circuit intégré », en fait) : l’Intel 4004 était né, le premier microprocesseur de l’histoire.

Les travaux de Faggin sont à l’origine de la Very Large Scale Integration, c’est-à-dire la technologie de production, constamment améliorée au fil des ans, qui permet de construire des millions ou des milliards de transistors dans de très petites puces monoblocs.
La production industrielle de microprocesseurs a ouvert l’électronique au marché des consommateurs de masse, donnant le coup d’envoi de ce que l’on appelle la « troisième révolution industrielle », c’est-à-dire la technologie de l’information pour tous les types d’utilisateurs, tant domestiques qu’industriels.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

code