L’inflation et la politique monétaire sont depuis longtemps des thèmes dominants sur les marchés financiers. Entre-temps, les craintes des investisseurs concernant les annonces des banquiers centraux se sont apaisées. Cela s’explique également par le fait que les banquiers centraux eux-mêmes ne savent pas dans quelle direction l’inflation va évoluer et qu’ils préfèrent donc, tout comme les investisseurs, fonder leur politique sur des données connues. Pour les investisseurs à long terme, il importe peu que les données mensuelles sur l’inflation soient supérieures ou inférieures d’un dixième de point de pourcentage.

Le rôle de l’IA sur l’inflation et la productivité

Il reste à voir dans quelle mesure l’inflation sera affectée par les forces innovantes et perturbatrices de l’IA. À long terme, la productivité devrait augmenter, ce qui pourrait non seulement accroître la croissance économique, mais aussi réduire l’inflation. Toutefois, à court et moyen terme, les investissements considérables dans les infrastructures d’intelligence artificielle et la consommation élevée d’électricité pourraient avoir un effet inflationniste.

L’essor de l’IA a des implications considérables. À l’instar d’internet, qui a bouleversé de nombreuses entreprises traditionnelles et en a créé de nouvelles en pénétrant presque tous les aspects de la société, l’intelligence artificielle changera également le monde à long terme. Qu’il s’agisse de recherche et de développement, de production, de consommation, de communication, d’enseignement, de sécurité interne ou externe, tous les secteurs ont déjà été pénétrés et modifiés par l’apprentissage automatique ou les logiciels formés.

Évolution des modèles d’intelligence artificielle

Lorsque nous parlons d’intelligence artificielle aujourd’hui, nous nous référons principalement aux modèles de langage largement utilisés tels que ChatGpt, connus sous le nom d’IA générative. Les modèles traditionnels, tels que l’apprentissage automatique, existent quant à eux depuis bien plus longtemps. L’IA générative crée de nouvelles choses, tandis que l’IA non générative classifie des choses existantes et en déduit des prédictions.

Les modèles traditionnels d’intelligence artificielle destinés à des applications spécifiques existent depuis longtemps. Pour le grand public, ils ont surtout été élaborés en secret. La victoire de l’ordinateur IBM Deep Blue contre le champion du monde d’échecs Garry Kasparov en 1997 a été remarquée avec stupéfaction comme un exemple de la puissance d’innovation de la technologie informatique. Lorsque le modèle d’IA AlphaGo (Google DeepMind) a battu le champion du monde coréen de go Lee Sedol en mars 2016, la surprise a été bien plus grande.

Le jeu de plateau d’Asie orientale avec une grille de 19 x 19 compte encore deux quadrillions (2×1015) de combinaisons possibles après trois coups, soit 16,5 millions de fois plus que trois coups d’échecs. Alors que Deep Blue d’IBM tentait encore d’utiliser un algorithme pour anticiper systématiquement le plus grand nombre possible de coups d’échecs, AlphaGo a évalué 150 000 parties humaines, puis a fait jouer plusieurs copies du logiciel les unes contre les autres pour simuler des millions de nouvelles parties « artificielles ». Cette méthodologie était révolutionnaire et considérée par les experts comme le début d’une nouvelle ère de l’IA.

Défis et risques de l’IA générative

Huit années se sont écoulées depuis lors. La puissance de calcul des ordinateurs s’est considérablement améliorée. À l’automne 2022, avec ChatGpt 3.5, OpenAI a rendu un modèle d’IA générative accessible au grand public pour la première fois. Un an plus tard, ChatGpt 4.0 est sorti et a atteint des performances étonnantes. Les performances des modèles d’IA générative comportent toutefois des risques. Tout utilisateur peut faire créer des images, des vidéos ou des textes susceptibles de priver des personnalités publiques de leur légitimité, de manipuler l’opinion publique et d’influencer ainsi les campagnes électorales.

Les directives de contenu de ChatGpt interdisent la création de telles images, mais d’autres modèles d’IA les autorisent, bien que les représentations soient encore souvent peu réalistes. Les hallucinations qui sont encore produites sont également critiques, car elles présentent de manière convaincante des faits complètement faux dans un langage raffiné. Les logiciels peuvent créer de nouveaux emplois et de nouveaux actifs économiques, mais aussi détruire des sources de richesse existantes. Ils pourraient également être utiles dans la lutte contre des maladies jusqu’ici incurables et les dommages collatéraux, ou les épidémies de virus incontrôlés qui peuvent être cultivés économiquement dans des laboratoires incontrôlés grâce à l’IA.

Il faut attendre de voir si les risques décrits se concrétiseront et quelle sera la réaction du monde. Au début de l’ère de l’internet, on craignait déjà les cyberattaques, le vol de données et les abus. Ces avertissements étaient justifiés, mais le monde s’est adapté et a développé des mécanismes de défense. Une chose est sûre : avec les progrès de l’IA, les incertitudes augmenteront également. Il y aura des gagnants et des perdants, et toutes les entreprises qui profitent du boom aujourd’hui ne pourront pas en faire autant demain.

Les grandes entreprises technologiques ont un avantage considérable sur leurs concurrents plus petits grâce à leur expertise et à leurs énormes réserves financières. L’IA est une révolution technologique qui, d’une part, peut rendre les grands acteurs encore plus puissants et, d’autre part, créer une asymétrie qui permet aux Davids de battre les Goliaths.