·S6 E379
🎤 Ultra-intelligence : la vague qui va tout bousculer (Aymeric Roucher, auteur et ingénieur IA)
Episode Description
Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.
Interview : Aymeric Roucher, ingénieur et auteur du livre "Ultra-intelligence – Jusqu'où iront les IA ?"Punchlines
- L’AGI est un concept flou et peu utile.
- L’impact réel des IA est la vraie métrique.
- L’horizon d’autonomie double tous les sept mois.
- La puissance de calcul décide des gagnants.
- L’eau monte partout pour les métiers.
Pourquoi considérez-vous que le concept d’AGI est dépassé ?
Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).
Vous proposez l’“horizon d’autonomie” comme nouvelle métrique. Pourquoi est-ce plus pertinent ?
Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.
La puissance de calcul est-elle vraiment le facteur décisif dans cette course ?
Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.
Faut-il craindre une IA qui se rebelle… ou plutôt les humains qui la contrôlent ?
Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.
Allons-nous vers un choc massif sur l’emploi ?
À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.