L’Institut de l’Iconomie réunit depuis 2010, sous l’impulsion initiale visionnaire de Michel Volle, un petit groupe d’économistes, d’universitaires, de statisticiens et d’informaticiens pour travailler ensemble sur la compréhension du nouveau système économique que la généralisation de l’utilisation de l’informatique installe dans le monde.
Depuis les années 1970 l’économie mondiale est entrée dans l’ère de la révolution industrielle informatique. C’est la troisième révolution industrielle de l’époque moderne, après celle de la fin du XVIIIe siècle (métallurgie, machine à vapeur) théorisée par Adam Smith et celle de la fin du XIXe siècle (électricité industrielle, moteur à combustion interne). La théorie des révolutions industrielles a été élaborée par Bertrand Gille et développée par Michel Volle.
Une révolution industrielle est déclenchée par un événement de rupture qui bouleverse non seulement les rapports de production, mais aussi le droit, la politique, le système éducatif, bref, les relations sociales dans leur ensemble.
L’événement à l’origine de la révolution informatique est l’invention en 1970 du microprocesseur par Federico Faggin et Ted Hoff d’Intel. À cette date les ordinateurs pesaient des tonnes et coûtaient des millions, seules les grandes entreprises et les laboratoires riches en possédaient : le microprocesseur (une unité centrale d’ordinateur sur une seule puce) va dès les années 1980 en diviser poids et coût par mille (dans un premier temps, beaucoup plus maintenant), ce qui va en permettre la dissémination dans les PME, chez les particuliers, partout. Désormais tous les ordinateurs (dont les smartphones) sont animés par des microprocesseurs.
Aujourd’hui l’industrie informatique-électronique est la première industrie mondiale, avec un chiffre d’affaires de l’ordre de 5500 milliards de dollars en 2023, à comparer aux 3500 milliards de l’industrie automobile. Mais surtout, chaque objet industriel, du pèse-personne au porte-avions, incorpore plus ou moins 50% de valeur informatique, sous forme de minuscules ordinateurs de contrôle de processus, de logiciel et de services à distance (GPS, aide à la maintenance, etc.). C’est ainsi que la consommation de carburant des moteurs à combustion interne a été divisée en gros par trois, grâce à certains des quelques 100 ordinateurs qui habitent votre voiture.
Le régime économique de la révolution industrielle informatique est la concurrence monopolistique : c’est-à-dire que les investissements initiaux, qui constituent le capital fixe de l’entreprise, avant d’avoir rien vendu, sont énormes, et qu’ensuite le coût marginal, c’est-à-dire le coût de production de chaque exemplaire supplémentaire vendu, est très faible, voire nul, par exemple dans le cas du logiciel. Il résulte de cette disproportion entre capital fixe et coût marginal que dès qu’une entreprise prend de l’avance sur ses concurrents, elle les élimine, parce que sa rentabilité est considérablement supérieure. Mais cette position de monopole est temporaire, parce qu’elle peut être abolie par une innovation de rupture créée par un concurrent : un exemple significatif est celui de Nokia, leader mondial de la téléphonie mobile en 2007, détrôné en quelques semaines par Apple au lancement de l’iPhone. Notons qu’en cette circonstance Google a pu tirer son épingle du jeu en lançant Android, sur un segment de marché différent avec des méthodes différentes.
Pour comprendre la concurrence monopolistique, nous allons décrire la filière informatique-électronique, c’est-à-dire la succession des acteurs industriels qui agissent pour fabriquer et faire marcher votre smartphone.
En 2025 le circuit (chip, puce, System on Chip, SoC) qui anime votre smartphone assemble sur une plaquette d’un centimètre carré 20 milliards de transistors, qui constituent une dizaine de microprocesseurs, des circuits graphiques, audio, vidéo, réseau, mémoire, éventuellement conçus par des entreprises différentes et assemblés sur cette surface minuscule, avec une finesse de gravure de l’ordre du nanomètre (un milliardième de mètre, un millionième de millimètre).
Un tel circuit et ses sous-ensembles sont conçus au moyen de logiciels de conception assistée de grande complexité (et prix !), il n’y a que trois entreprises qui en fournissent, complémentaires et toutes basées aux États-Unis : Synopsys, Cadence et Mentor Graphics.
Les sous-ensembles principaux du circuit sont les microprocesseurs, dont la conception et la propriété intellectuelle (IP) sont le monopole de l’entreprise britannique ARM. Les autres sous-ensembles peuvent être conçus, par exemple, par l’américain Qualcomm pour la téléphonie, par Broadcom pour le réseau, par NVIDIA pour le graphique et pour l’IA, par le franco-italien STMicroelectronics pour la visio, etc.
La conception de l’assemblage de ces sous-ensembles est effectuée par le maître d’ouvrage, selon les cas Apple, Google, Samsung, Amazon, etc.
Pour tous les composants du circuit énumérés jusqu’ici, aucune des entreprises citées n’a encore fabriqué le moindre objet matériel, mais des milliards ont été dépensés. Envisageons maintenant la fabrication.
À partir de la description numérique qui assemble tous les composants du circuit, sa fabrication sera effectuée par des machines dont le monopole est détenu par l’entreprise néerlandaise ASML. Chaque machine coûte de l’ordre de 250 millions d’euros, et pour fabriquer un circuit de trente couches (ordre de grandeur habituel) il faut trente machines. Ces matériels sont soumis à des restrictions d’exportation sévères, et notamment interdits à la Chine.
À ce jour seules deux entreprises peuvent soutenir les investissements colossaux engagés par la fabrication des circuits de pointe (géométrie 2nm) : le leader Taiwan Semiconductor Manufacturing Company (TSMC) et Samsung (qui peine à suivre). La construction d’une de leurs usines coûte de l’ordre de 20 milliards de dollars, en sus du travail de 1000 ou 2000 ingénieurs pendant quatre ou cinq ans : c’est le capital fixe, dépensé une fois, avant d’avoir vendu un seul exemplaire.
On remarque que les États-Unis sont absents de la production de circuits de pointe ; Intel est en pleine déconfiture, on parle de démantèlement.
À partir du moment où Apple, par exemple, commence à travailler avec TSMC pour lancer la fabrication du circuit central de son dernier modèle d’iPhone, la mise au point du procédé va demander des mois : le rendement initial (yield) de la fabrication est de quelques pour-cents, parce que le réglage des machines est très délicat. C’est pourquoi les circuits récents coûtent cher, et ceux dont la fabrication est stabilisée quelques euros.
Une fois le circuit fabriqué, les travaux de conditionnement (packaging) et d’assemblage avec des circuits et des matériels auxiliaires plus simples seront effectués en Chine, par exemple par l’entreprise taïwanaise Foxconn (1 300 000 salariés), mais aussi en Thaïlande, au Vietnam, aux Philippines. Ces activités annexes ont une valeur ajoutée beaucoup plus faible.
Voici un graphique (assez ancien mais il n’y a pas eu de travail comparable plus récent) qui illustre la répartition de la valeur et des coûts entre les parties prenantes de la conception et de la fabrication :

Répartition de la valeur pour l’iPhone 4 d’Apple en 2010, source : Who Captures Value in the Apple {iPad} and {iPhone}?, Kraemer, Kenneth L., Linden, Greg et Dedrick, Jason, 2011, Personal Computing Industry Center – UC Irvine et l’entreprise IHS-iSuppli.
On voit que la part du lion revient au maître d’ouvrage concepteur de l’ensemble, ce qui est caractéristique d’une activité dont l’essentiel de la valeur ajoutée est intellectuelle. À cette époque Apple faisait surtout fabriquer ses circuits par Samsung, maintenant c’est plus souvent TSMC.
Voici une autre figure, publiée très récemment par le Wall Street Journal, qui représente autrement la même réalité :

Pour que le smartphone issu de toutes ces opérations de conception, de fabrication et d’assemblage fonctionne, il lui faut en outre un système d’exploitation, qui est le logiciel interposé entre le matériel décrit ci-dessus, l’utilisateur et les applications. Un système d’exploitation est un objet technique extrêmement complexe, en gros 50 millions de lignes de programmes. Un chiffre généralement admis est qu’un développeur peut écrire 5000 lignes de programme par an, que nous élèverons à 20 000 lignes pour tenir compte des possibilités de réutilisation de code existant et de synergie entre sous-systèmes. Le résultat de la division est : 2500 années de développement, soit des centaines d’ingénieurs pendant des années. Le marché des systèmes d’exploitation est lui aussi monopolistique : pour les smartphones Android et iOS, pour les ordinateurs Windows et macOS, sans oublier les logiciels libres Linux et la famille BSD. Android est basé sur un noyau Linux, macOS et iOS sur un noyau BSD. Les logiciels libres prospèrent parce qu’ils reposent sur un modèle économique complètement différent, et que des industriels avisés contribuent activement à leur développement, surtout Google, Amazon et même Microsoft.
Nous voyons que l’industrie mondiale dépend d’une dizaine d’entreprises, chacune en position de monopole (ARM, ASML, TSMC), ou de monopole sur son segment de marché (Apple, Google, Microsoft, Qualcomm). L’architecture de microprocesseur ARM est la plus répandue dans le monde, Android le système d’exploitation le plus répandu.
Pour produire votre smartphone ces entreprises doivent impérativement collaborer entre elles, ce qui fait par exemple que si la Chine envahissait Taïwan ce n’est pas pour cela qu’elle pourrait s’approprier le marché de TSMC : il lui faudrait aussi conquérir la Grande-Bretagne pour ARM, les Pays-Bas pour ASML, les États-Unis pour Cadence, Synopsys, Apple, Google, Qualcomm…
Ce tour d’horizon révèle une catastrophe : l’absence de l’Europe. On entend dire que ce n’est pas grave parce que nous maîtriserions les usages, comme l’intelligence artificielle, qui n’est qu’une application parmi d’autres de l’informatique, et qui bouleverse le monde comme d’autres applications l’ont déjà bouleversé. Cette idée que la maîtrise (supposée) des usages permettrait d’être au niveau de la révolution industrielle informatique est bien sûr totalement inepte : ce serait comme prétendre être une grande puissance maritime sans chantiers navals. L’idée qu’il suffirait d’utiliser une technologie sans savoir la produire et donc sans vraiment la comprendre est la définition même du sous-développement, qui nous guette, comme il a abattu au cours du XIXe siècle la Chine et l’Inde, qui produisaient au XVIIIe siècle la moitié de la richesse mondiale.
Que faire ? Une innovation de rupture, par définition, ne se déclenche pas sur commande. Pour les matériels d’infrastructure réseau, Huawei a dépassé Cisco : cela lui a pris trente ans. Une seule chose est certaine : si disposer d’une population formée à la science informatique et aux technologies qui en dérivent ne garantit pas le succès, disposer d’une population non formée garantit l’échec.
Cet impératif éducatif est d’autant plus urgent que la révolution industrielle que nous vivons depuis un demi-siècle permet l’automatisation de tous les processus répétitifs, et que les gains de temps, de finances et d’énergie que l’automatisation permet sont tels que tout ce qui est automatisable le sera, sans retour en arrière. À la main d’œuvre se substitue le cerveau d’œuvre, synergie de l’être humain et de ses auxiliaires informatiques, extraordinairement mis en lumière par les succès récents de l’intelligence artificielle. Les emplois de demain sont ceux qui ne peuvent se passer de l’intervention humaine, parce qu’ils font appel à l’intellection, ou à l’affectivité, ou à l’intuition, ou à une combinaison de ces trois aptitudes auxquelles ne peuvent suppléer ni les algorithmes ni même l’intelligence artificielle.
Il y a donc au moins une urgence en France : introduire sérieusement l’enseignement de l’informatique dans notre système éducatif. Et nous sommes particulièrement en retard sur ce sujet, avec des simulacres effectués en traînant les pieds par nos élites politiques et intellectuelles.
Relever ces défis, voilà le programme de l’Institut de l’Iconomie !
Laurent Bloch
Après des études de statistiques et d'informatique (ENSAE), Laurent Bloch a travaillé à l'Insee, à l'Ined, au Cnam. Il a été chef du Service d'Informatique scientifique de l'Institut Pasteur, Responsable de la sécurité des systèmes d'information de l'Inserm, puis DSI de l'université Paris-Dauphine, spécialiste de la sécurité des systèmes d'information. Parallèlement à ces différents emplois Laurent Bloch a constament enseigné l'informatique dans diverses institutions, il a été rapporteur à la Commission de développement de l'informatique des Ministères de l'Économie et du Budget et rapporteur à la Commission centrale des Marchés de l'État.