LabelsAfrik 

Menu

Croissance : au plus bas depuis 2008, selon la Banque mondiale 

« le monde en développement devient une zone sans développement », a déclaré Indermit Gill, économiste en chef BM

Des inquiétudes pour le sort des moins nantis

Des inquiétudes pour le sort des moins nantis





Selon le dernier rapport de la Banque mondiale sur les perspectives économiques mondiales, l’intensification des tensions commerciales et l’incertitude politique devraient faire baisser la croissance mondiale cette année à son rythme le plus lent depuis 2008.


Les turbulences ont entraîné une réduction des prévisions de croissance dans près de 70 % de toutes les économies, dans toutes les régions et tous les groupes de revenus. 

La croissance mondiale devrait ralentir à 2,3 pour cent en 2025, soit près d’un demi-point de pourcentage de moins que le taux prévu au début de l’année. On ne s’attend pas à une récession mondiale. Néanmoins, si les prévisions pour les deux prochaines années se concrétisent, la croissance mondiale moyenne au cours des sept premières années de la décennie 2020 sera la plus lente depuis les années 1960. 



« En dehors de l’Asie, le monde en développement devient une zone sans développement. a déclaré Indermit Gill, économiste en chef et vice-président principal de la Banque mondiale pour l’économie du développement. « Il fait de la publicité pour lui-même depuis plus d’une décennie. La croissance des économies en développement a diminué pendant trois décennies, passant de 6 % par an dans les années 2000 à 5 % dans les années 2010, pour atteindre moins de 4 % dans les années 2020. Cela suit la trajectoire de la croissance du commerce mondial, qui est passée d’une moyenne de 5 % dans les années 2000 à environ 4,5 % dans les années 2010 — à moins de 3 % dans les années 2020. La croissance de l’investissement a également ralenti, mais la dette a atteint des niveaux record. » 



La croissance devrait ralentir cette année dans près de 60 % des économies en développement, pour s’établir à 3,8 % en moyenne en 2025, avant d’atteindre une moyenne de 3,9 % en 2026 et 2027. C’est plus d’un point de pourcentage en dessous de la moyenne des années 2010. Les pays à faible revenu devraient connaître une croissance de 5,3 % cette année, soit 0,4 point de pourcentage de moins que ce qui était prévu au début de 2025. Les hausses tarifaires et la tension des marchés du travail exercent également une pression à la hausse sur l’inflation mondiale, qui, avec une moyenne projetée de 2,9 % en 2025



-///—

On ne comprend toujours pas comment fonctionne l’IA-Intelligence artificielle  — et il est grand temps d’y remédier

Par Antoine Gautherie  le 25 avril 2025 

S’y retrouver dans le dédale conceptuel des modèles IA modernes est un exercice bien trop complexe pour le cerveau humain…

Le PDG d’Anthropic, l’entreprise derrière le LLM Claude, Dario Amodei s’est attardé sur le fameux problème de la “boîte noire” dans un long essai où il insiste sur l’importance de ce champ de recherche.


Chaque jour, de nouveaux outils basés sur le machine learning font leur apparition, et de plus en plus de personnes se mettent à les utiliser. Ces modèles IA occupent désormais une place importante dans notre écosystème technologique, pour le meilleur et pour le pire… et pourtant, nous avons encore toutes les peines du monde à comprendre comment ils fonctionnent en coulisses. Le PDG d’Anthropic, l’entreprise derrière le LLM Claude, se donne deux ans pour résoudre ce problème générationnel.


Dans un essai publié sur son blog, intitulé “L’urgence de l’interprétabilité”, Dario Amodei commence par rappeler que les modèles IA occupent désormais une place importante à plusieurs niveaux de notre société, pour le meilleur et pour le pire. Cette technologie progresse aujourd’hui à une vitesse remarquable, et les modèles d’aujourd’hui sont capables de réaliser des prouesses qui relevaient encore de la science-fiction il y a tout juste dix ans.

La boîte noire de l’IA

Mais cette montée en puissance spectaculaire a tendance à occulter un facteur qui passe souvent sous les radars du grand public : le problème de l’interprétabilité, communément appelé “boîte noire de l’IA”.


En effet, les réseaux de neurones artificiels sur lesquels reposent ces outils sont des entités formidablement abstraites. On sait qu’on peut fournir des données à un modèle pour l’entraîner, obtenir un résultat à la sortie grâce au processus d’inférence… mais ce qui se déroule entre les deux a tendance à être beaucoup trop labyrinthique et nébuleux pour être compréhensible en l’état par les humains. 

Certes, les spécialistes comprennent évidemment la mécanique, la dynamique interne du fonctionnement des modèles. Ils savent parfaitement en analyser des portions précises pour essayer de diagnostiquer le processus. Mais la vraie difficulté de l’interprétation est ailleurs. L’enjeu, c’est de pouvoir traduire le processus d’inférence dans un format intuitivement compréhensible pour les humains – et c’est là que tout se complique.


La complexité des modèles, comme les LLM modernes qui comptent parfois des centaines de milliards de paramètres et des milliers de couches d’opérations, peut vite devenir telle qu’il devient impossible de compresser l’ensemble dans un format intuitif pour les humains. Les relations causales qui occupent une place si importante dans le raisonnement humain sont extrêmement nébuleuses au sein de ces réseaux de neurones virtuels. Le plus souvent, il est impossible d’isoler un paramètre unique qui représente un concept ou une définition précise. A la place, l’information est distribuée en de nombreux points du modèle qui, individuellement, n’ont qu’une influence limitée, et interagissent de façon parfois très contre-intuitive. Par conséquent, retracer l’ensemble du processus d’inférence et en comprendre toutes les nuances est pratiquement impossible avec les modèles complexes : le nombre de couches d’abstraction nécessaires est tout simplement hors de portée du cerveau humain.


S’y retrouver dans le dédale conceptuel des modèles IA modernes est un exercice bien trop complexe pour le cerveau humain… et c’est un problème. © Journal du Geek – MidjourneyAI

« Lorsqu’un système d’IA générative fait quelque chose, comme résumer un document financier, nous n’avons aucune idée, à un niveau spécifique ou précis, des raisons pour lesquelles il fait les choix qu’il fait – pourquoi il choisit certains mots plutôt que d’autres, ou pourquoi il fait parfois une erreur alors qu’il est généralement précis », résume Amodei.

« Les personnes extérieures au domaine sont souvent surprises et alarmées d’apprendre que nous ne comprenons pas le fonctionnement de nos propres créations », ajoute-t-il. Cet étonnement est parfaitement compréhensible : après tout, c’est la première fois dans l’histoire de notre civilisation qu’une technologie aussi mal comprise occupe une place si importante dans la société.


Des enjeux sociaux, technologiques et commerciaux

Cette situation pose un tas de questions assez inconfortables, notamment sur le thème de la sécurité. C’est particulièrement vrai dans le contexte actuel, où plusieurs acteurs majeurs de l’industrie sont désormais focalisés sur la création d’une intelligence artificielle généraledotée de connaissances et de capacités de raisonnement largement supérieures à celles de n’importe quelle personne en chair et en os.

De nombreux spécialistes, dont Amodei, estiment qu’il serait très imprudent de déployer de tels systèmes avant d’avoir trouvé un moyen de comprendre réellement comment ils fonctionnent. « Nous pourrions avoir des systèmes d’IA équivalents à un pays entier de génies rassemblés dans un data center dès 2026 ou 2027. Je suis très préoccupé par l’idée de déployer de tels systèmes sans une meilleure maîtrise de l’interprétabilité », explique-t-il dans son essai.


Il ajoute aussi que cette dimension sécuritaire n’est pas le seul argument qui devrait pousser les acteurs de l’IA à s’attaquer au problème de la boîte noire. Pour lui, il ne s’agit pas seulement d’une question de sécurité : cette démarche pourrait aussi déboucher sur des avantages commerciaux significatifs. En substance, les premières entités qui parviendront à déchiffrer le fonctionnement de leurs créations seront aussi les mieux placées pour repousser les limites de la technologie — par exemple en supprimant complètement les hallucinations, ces cas où les LLM perdent complètement les pédales et se mettent à débiter des réponses aberrantes ou factuellement erronées.

L’industrie se met au diapason

Pour toutes ces raisons, Amodei explique que la quête de l’interprétabilité devrait désormais être érigée en priorité absolue pour toute l’industrie, et même la communauté scientifique en général. « L’interprétabilité suscite moins d’attention que le déluge constant de publications de modèles, mais elle est sans doute plus importante », estime-t-il. «Les chercheurs en IA des entreprises, des universités ou des organisations à but non lucratif peuvent accélérer l’interprétabilité en travaillant directement sur celle-ci. »

La bonne nouvelle, c’est que certaines entités mènent déjà des travaux très sérieux sur la question. Une part significative des recherches actuelles dans ce domaine a déjà pour objectif de créer ce qu’Amodei décrit comme une “IRM extrêmement précise et exacte, qui révélerait pleinement le fonctionnement interne d’un modèle d’IA”. Quelques progrès très prometteurs ont déjà commencé à émerger, par exemple du côté de DeepMind. Fin 2023, l’entreprise nobélisée pour ses travaux sur la structure des protéines a présenté FunSearch, un modèle basé sur une architecture évolutive qui lui permet de décrire comment il est parvenu à telle ou telle solution.


Anthropic, de son côté, est aussi en train d’investir dans ce processus. En mars dernier, la firme a par exemple publié un corpus de recherche très intéressant sur la “biologie des grands modèles de langage”. Ces travaux ont mis en évidence l’existence d’une poignée de “circuits” qui pourraient permettre de suivre le fil du raisonnement des LLM. En parallèle, elle a aussi investi dans une startup qui travaille spécifiquement sur l’interprétabilité des modèles.


Amodei espère que cette démarche permettra de “détecter de manière fiable la plupart des problèmes de modèle” d’ici 2027, date à laquelle des entreprises comme OpenAI espèrent atteindre le stade de l’intelligence artificielle générale. Il sera donc très intéressant de suivre tous ces travaux sur l’interprétabilité, car il s’agit sans conteste d’un point de friction majeur qui va largement conditionner la trajectoire de cette technologie transformatrice dans les prochaines années. Rendez-vous dans deux ans pour un nouvel état des lieux.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.


Dario Amodei, PDG d'Anthropic, espère que le problème de l'interprétabilité de l'IA sera résolu d'ici 2027. © TechCrunch via Wikimedia Commons - CC BY 2.0


—-////—//


La Chine lance le premier réseau haut débit 10G au monde… dans une ville « fantôme »

par Brice Louvet

22 avril 2025, 18 h 37 min


Alors que de nombreux pays

peaufinent encore leurs 

déploiements de la 5G, la Chine 

prend une longueur d’avance. À 

Xiong’an, une ville nouvelle à 

110 kilomètres de Pékin, le 

premier réseau haut débit 10G 

au monde vient d’être lancé. 


Ce  jalon technologique a été rendu 

possible grâce à une 

collaboration entre Huawei et 

l’opérateur China Unicom,

utilisant une technologie de 

pointe : la 50G-PON (Passive 

Optical Network), soit l’une des 

infrastructures internet les plus 

rapides jamais mises en service.


Ce réseau offre des vitesses de 

téléchargement de 10 gigabits 

par seconde — ce qui 

permettrait, en théorie, de 

télécharger un film en qualité 8K 

en quelques secondes. Une telle 

capacité ouvre la voie à des 

usages futuristes : streaming 

ultra haute définition, cloud 

gaming sans latence, 

environnements de réalité 

virtuelle (VR) ou augmentée 

(AR), réseaux de voitures 

autonomes, systèmes urbains 

intelligents, et même 

entraînement accéléré de 

modèles d’intelligence 

artificielle très complexes.

Une ville futuriste… sans habitants

Mais ce lancement

technologique spectaculaire a 

un goût étrange : la ville de 

Xiong’an est presque vide. 

Imaginée en 2017 sous 

l’impulsion du président chinois 

Xi Jinping, Xiong’an devait 

devenir le nouveau hub 

technologique et écologique du 

pays. Conçue selon le principe

du « quart d’heure urbain » — 

où tout est accessible en moins 

de 15 minutes à pied — la ville a 

été pensée comme un modèle 

d’urbanisme vert, connecté et 

Construit résilient.

Malgré plus de 100 milliards de 

dollars investis, la ville peine à 

attirer habitants et entreprises. 

Certains médias, comme 

Bloomberg, n’hésitent pas à la 

qualifier de ville fantôme, avec 

ses gratte-ciels neufs mais 

vides, ses rues désertes et son 

économie encore embryonnaire. 

Le contraste entre la 

technologie de pointe du réseau 

10G et le manque flagrant de vie 

urbaine ne passe pas inaperçu.

Un pari sur l’avenir

Pour les autorités chinoises, 

Xiong’an reste une vitrine. Un 

terrain d’expérimentation 

grandeur nature où l’on peut 

tester sans contrainte les 

technologies urbaines de 

demain. La mise en place du 10G 

s’inscrit dans cette logique : 

démontrer que la Chine n’est 

pas simplement suiveuse, mais 

bien pionnière dans l’innovation 

numérique.

L’idée semble être de préparer 

dès maintenant l’infrastructure 

d’un monde connecté, où 

chaque véhicule, bâtiment, 

service public ou appareil 

personnel est intégré dans une 

toile numérique à très haut 

débit.

Reste à savoir si les citoyens 

suivront. Car un réseau ultra-

rapide ne suffit pas à faire une 

ville vivante. Et si Xiong’an reste 

vide, elle pourrait bien devenir le 

symbole d’un futur trop en 

avance sur son époque, ou d’un 

pari urbain qui aura oublié 

l’essentiel : les humains.

X