Croissance : au plus bas depuis 2008, selon la Banque mondiale
« le monde en développement devient une zone sans développement », a déclaré Indermit Gill, économiste en chef BM
Selon le dernier rapport de la Banque mondiale sur les perspectives économiques mondiales, l’intensification des tensions commerciales et l’incertitude politique devraient faire baisser la croissance mondiale cette année à son rythme le plus lent depuis 2008.
Les turbulences ont entraîné une réduction des prévisions de croissance dans près de 70 % de toutes les économies, dans toutes les régions et tous les groupes de revenus.
La croissance mondiale devrait ralentir à 2,3 pour cent en 2025, soit près d’un demi-point de pourcentage de moins que le taux prévu au début de l’année. On ne s’attend pas à une récession mondiale. Néanmoins, si les prévisions pour les deux prochaines années se concrétisent, la croissance mondiale moyenne au cours des sept premières années de la décennie 2020 sera la plus lente depuis les années 1960.
« En dehors de l’Asie, le monde en développement devient une zone sans développement. a déclaré Indermit Gill, économiste en chef et vice-président principal de la Banque mondiale pour l’économie du développement. « Il fait de la publicité pour lui-même depuis plus d’une décennie. La croissance des économies en développement a diminué pendant trois décennies, passant de 6 % par an dans les années 2000 à 5 % dans les années 2010, pour atteindre moins de 4 % dans les années 2020. Cela suit la trajectoire de la croissance du commerce mondial, qui est passée d’une moyenne de 5 % dans les années 2000 à environ 4,5 % dans les années 2010 — à moins de 3 % dans les années 2020. La croissance de l’investissement a également ralenti, mais la dette a atteint des niveaux record. »
La croissance devrait ralentir cette année dans près de 60 % des économies en développement, pour s’établir à 3,8 % en moyenne en 2025, avant d’atteindre une moyenne de 3,9 % en 2026 et 2027. C’est plus d’un point de pourcentage en dessous de la moyenne des années 2010. Les pays à faible revenu devraient connaître une croissance de 5,3 % cette année, soit 0,4 point de pourcentage de moins que ce qui était prévu au début de 2025. Les hausses tarifaires et la tension des marchés du travail exercent également une pression à la hausse sur l’inflation mondiale, qui, avec une moyenne projetée de 2,9 % en 2025
-///—
On ne comprend toujours pas comment fonctionne l’IA-Intelligence artificielle — et il est grand temps d’y remédier
Par Antoine Gautherie le 25 avril 2025
S’y retrouver dans le dédale conceptuel des modèles IA modernes est un exercice bien trop complexe pour le cerveau humain…
Le PDG d’Anthropic, l’entreprise derrière le LLM Claude, Dario Amodei s’est attardé sur le fameux problème de la “boîte noire” dans un long essai où il insiste sur l’importance de ce champ de recherche.
Chaque jour, de nouveaux outils basés sur le machine learning font leur apparition, et de plus en plus de personnes se mettent à les utiliser. Ces modèles IA occupent désormais une place importante dans notre écosystème technologique, pour le meilleur et pour le pire… et pourtant, nous avons encore toutes les peines du monde à comprendre comment ils fonctionnent en coulisses. Le PDG d’Anthropic, l’entreprise derrière le LLM Claude, se donne deux ans pour résoudre ce problème générationnel.
Dans un essai publié sur son blog, intitulé “L’urgence de l’interprétabilité”, Dario Amodei commence par rappeler que les modèles IA occupent désormais une place importante à plusieurs niveaux de notre société, pour le meilleur et pour le pire. Cette technologie progresse aujourd’hui à une vitesse remarquable, et les modèles d’aujourd’hui sont capables de réaliser des prouesses qui relevaient encore de la science-fiction il y a tout juste dix ans.
La boîte noire de l’IA
Mais cette montée en puissance spectaculaire a tendance à occulter un facteur qui passe souvent sous les radars du grand public : le problème de l’interprétabilité, communément appelé “boîte noire de l’IA”.
En effet, les réseaux de neurones artificiels sur lesquels reposent ces outils sont des entités formidablement abstraites. On sait qu’on peut fournir des données à un modèle pour l’entraîner, obtenir un résultat à la sortie grâce au processus d’inférence… mais ce qui se déroule entre les deux a tendance à être beaucoup trop labyrinthique et nébuleux pour être compréhensible en l’état par les humains.
Certes, les spécialistes comprennent évidemment la mécanique, la dynamique interne du fonctionnement des modèles. Ils savent parfaitement en analyser des portions précises pour essayer de diagnostiquer le processus. Mais la vraie difficulté de l’interprétation est ailleurs. L’enjeu, c’est de pouvoir traduire le processus d’inférence dans un format intuitivement compréhensible pour les humains – et c’est là que tout se complique.
La complexité des modèles, comme les LLM modernes qui comptent parfois des centaines de milliards de paramètres et des milliers de couches d’opérations, peut vite devenir telle qu’il devient impossible de compresser l’ensemble dans un format intuitif pour les humains. Les relations causales qui occupent une place si importante dans le raisonnement humain sont extrêmement nébuleuses au sein de ces réseaux de neurones virtuels. Le plus souvent, il est impossible d’isoler un paramètre unique qui représente un concept ou une définition précise. A la place, l’information est distribuée en de nombreux points du modèle qui, individuellement, n’ont qu’une influence limitée, et interagissent de façon parfois très contre-intuitive. Par conséquent, retracer l’ensemble du processus d’inférence et en comprendre toutes les nuances est pratiquement impossible avec les modèles complexes : le nombre de couches d’abstraction nécessaires est tout simplement hors de portée du cerveau humain.
S’y retrouver dans le dédale conceptuel des modèles IA modernes est un exercice bien trop complexe pour le cerveau humain… et c’est un problème. © Journal du Geek – MidjourneyAI
« Lorsqu’un système d’IA générative fait quelque chose, comme résumer un document financier, nous n’avons aucune idée, à un niveau spécifique ou précis, des raisons pour lesquelles il fait les choix qu’il fait – pourquoi il choisit certains mots plutôt que d’autres, ou pourquoi il fait parfois une erreur alors qu’il est généralement précis », résume Amodei.
« Les personnes extérieures au domaine sont souvent surprises et alarmées d’apprendre que nous ne comprenons pas le fonctionnement de nos propres créations », ajoute-t-il. Cet étonnement est parfaitement compréhensible : après tout, c’est la première fois dans l’histoire de notre civilisation qu’une technologie aussi mal comprise occupe une place si importante dans la société.
Des enjeux sociaux, technologiques et commerciaux
Cette situation pose un tas de questions assez inconfortables, notamment sur le thème de la sécurité. C’est particulièrement vrai dans le contexte actuel, où plusieurs acteurs majeurs de l’industrie sont désormais focalisés sur la création d’une intelligence artificielle généraledotée de connaissances et de capacités de raisonnement largement supérieures à celles de n’importe quelle personne en chair et en os.
De nombreux spécialistes, dont Amodei, estiment qu’il serait très imprudent de déployer de tels systèmes avant d’avoir trouvé un moyen de comprendre réellement comment ils fonctionnent. « Nous pourrions avoir des systèmes d’IA équivalents à un pays entier de génies rassemblés dans un data center dès 2026 ou 2027. Je suis très préoccupé par l’idée de déployer de tels systèmes sans une meilleure maîtrise de l’interprétabilité », explique-t-il dans son essai.
Il ajoute aussi que cette dimension sécuritaire n’est pas le seul argument qui devrait pousser les acteurs de l’IA à s’attaquer au problème de la boîte noire. Pour lui, il ne s’agit pas seulement d’une question de sécurité : cette démarche pourrait aussi déboucher sur des avantages commerciaux significatifs. En substance, les premières entités qui parviendront à déchiffrer le fonctionnement de leurs créations seront aussi les mieux placées pour repousser les limites de la technologie — par exemple en supprimant complètement les hallucinations, ces cas où les LLM perdent complètement les pédales et se mettent à débiter des réponses aberrantes ou factuellement erronées.
L’industrie se met au diapason
Pour toutes ces raisons, Amodei explique que la quête de l’interprétabilité devrait désormais être érigée en priorité absolue pour toute l’industrie, et même la communauté scientifique en général. « L’interprétabilité suscite moins d’attention que le déluge constant de publications de modèles, mais elle est sans doute plus importante », estime-t-il. «Les chercheurs en IA des entreprises, des universités ou des organisations à but non lucratif peuvent accélérer l’interprétabilité en travaillant directement sur celle-ci. »
La bonne nouvelle, c’est que certaines entités mènent déjà des travaux très sérieux sur la question. Une part significative des recherches actuelles dans ce domaine a déjà pour objectif de créer ce qu’Amodei décrit comme une “IRM extrêmement précise et exacte, qui révélerait pleinement le fonctionnement interne d’un modèle d’IA”. Quelques progrès très prometteurs ont déjà commencé à émerger, par exemple du côté de DeepMind. Fin 2023, l’entreprise nobélisée pour ses travaux sur la structure des protéines a présenté FunSearch, un modèle basé sur une architecture évolutive qui lui permet de décrire comment il est parvenu à telle ou telle solution.
Anthropic, de son côté, est aussi en train d’investir dans ce processus. En mars dernier, la firme a par exemple publié un corpus de recherche très intéressant sur la “biologie des grands modèles de langage”. Ces travaux ont mis en évidence l’existence d’une poignée de “circuits” qui pourraient permettre de suivre le fil du raisonnement des LLM. En parallèle, elle a aussi investi dans une startup qui travaille spécifiquement sur l’interprétabilité des modèles.
Amodei espère que cette démarche permettra de “détecter de manière fiable la plupart des problèmes de modèle” d’ici 2027, date à laquelle des entreprises comme OpenAI espèrent atteindre le stade de l’intelligence artificielle générale. Il sera donc très intéressant de suivre tous ces travaux sur l’interprétabilité, car il s’agit sans conteste d’un point de friction majeur qui va largement conditionner la trajectoire de cette technologie transformatrice dans les prochaines années. Rendez-vous dans deux ans pour un nouvel état des lieux.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.
Dario Amodei, PDG d'Anthropic, espère que le problème de l'interprétabilité de l'IA sera résolu d'ici 2027. © TechCrunch via Wikimedia Commons - CC BY 2.0
—-////—//
La Chine lance le premier réseau haut débit 10G au monde… dans une ville « fantôme »
par Brice Louvet
22 avril 2025, 18 h 37 min
Alors que de nombreux pays
peaufinent encore leurs
déploiements de la 5G, la Chine
prend une longueur d’avance. À
Xiong’an, une ville nouvelle à
110 kilomètres de Pékin, le
premier réseau haut débit 10G
au monde vient d’être lancé.
Ce jalon technologique a été rendu
possible grâce à une
collaboration entre Huawei et
l’opérateur China Unicom,
utilisant une technologie de
pointe : la 50G-PON (Passive
Optical Network), soit l’une des
infrastructures internet les plus
rapides jamais mises en service.
Ce réseau offre des vitesses de
téléchargement de 10 gigabits
par seconde — ce qui
permettrait, en théorie, de
télécharger un film en qualité 8K
en quelques secondes. Une telle
capacité ouvre la voie à des
usages futuristes : streaming
ultra haute définition, cloud
gaming sans latence,
environnements de réalité
virtuelle (VR) ou augmentée
(AR), réseaux de voitures
autonomes, systèmes urbains
intelligents, et même
entraînement accéléré de
modèles d’intelligence
artificielle très complexes.
Une ville futuriste… sans habitants
Mais ce lancement
technologique spectaculaire a
un goût étrange : la ville de
Xiong’an est presque vide.
Imaginée en 2017 sous
l’impulsion du président chinois
Xi Jinping, Xiong’an devait
devenir le nouveau hub
technologique et écologique du
pays. Conçue selon le principe
du « quart d’heure urbain » —
où tout est accessible en moins
de 15 minutes à pied — la ville a
été pensée comme un modèle
d’urbanisme vert, connecté et
Construit résilient.
Malgré plus de 100 milliards de
dollars investis, la ville peine à
attirer habitants et entreprises.
Certains médias, comme
Bloomberg, n’hésitent pas à la
qualifier de ville fantôme, avec
ses gratte-ciels neufs mais
vides, ses rues désertes et son
économie encore embryonnaire.
Le contraste entre la
technologie de pointe du réseau
10G et le manque flagrant de vie
urbaine ne passe pas inaperçu.
Un pari sur l’avenir
Pour les autorités chinoises,
Xiong’an reste une vitrine. Un
terrain d’expérimentation
grandeur nature où l’on peut
tester sans contrainte les
technologies urbaines de
demain. La mise en place du 10G
s’inscrit dans cette logique :
démontrer que la Chine n’est
pas simplement suiveuse, mais
bien pionnière dans l’innovation
numérique.
L’idée semble être de préparer
dès maintenant l’infrastructure
d’un monde connecté, où
chaque véhicule, bâtiment,
service public ou appareil
personnel est intégré dans une
toile numérique à très haut
débit.
Reste à savoir si les citoyens
suivront. Car un réseau ultra-
rapide ne suffit pas à faire une
ville vivante. Et si Xiong’an reste
vide, elle pourrait bien devenir le
symbole d’un futur trop en
avance sur son époque, ou d’un
pari urbain qui aura oublié
l’essentiel : les humains.