# Eric Schmidt & Andrew Feldman: The Race to SuperIntelligence
**Date de l'événement :** 08/07/2025
* Publié le 08/07/2025

**Vide :**
[Vidéo 1](https://www.youtube.com/watch?v=goG7g6ao5m4) 

## Description
The Race to SuperIntelligence – Eric Schmidt x Andrew Feldman | RAISE Summit 2025 – Live from RAISE, the Louvre, Paris  
  
In this electrifying panel, Eric Schmidt (Former CEO of Google) and Andrew Feldman (Founder & CEO of Cerebras Systems) collide on stage at RAISE Summit 2025 to tackle the biggest questions shaping the path to Artificial General Intelligence (AGI).  
  
From trillion-dollar CAPEX decisions to the limits of current architectures, from open-source vs proprietary empires to the founder DNA required to win—this conversation is a blueprint for navigating the most important technological race in human history.  
  
Chapters include:  
  
Is there a new Moore’s Law for Intelligence?  
  
The battle between open ecosystems and closed vertical stacks  
  
Where AI capital should flow: raw compute, energy, new chips?  
  
Cutting through AGI hype: What metrics actually matter?  
  
Alignment at the hardware level—can chips play a role in AI safety?  
  
The AGI founder archetype: what it takes to lead this revolution  
  
What comes after transformers?  
  
Can Europe build a sovereign AGI stack?  
  
Don’t just watch. Take notes. This session doesn’t hedge—it defines the edge.

### Date
08/07/2025

**Chaîne :** [RAISE Summit](https://www.youtube.com/channel/UCzztIa2aaL1r_CPIFrjR2Kw)

### Thème(s)
`#Intelligence artificielle (AI & GenAI)` `#Numérique et technologie` 

### Format
`#Vidéo` 


---
### Média externe associé : https://www.youtube.com/watch?v=goG7g6ao5m4

#### Résumé du média
Ce résumé met en lumière les principaux thèmes abordés lors de cette discussion sur l'intelligence artificielle.

Cerebras, avec son Wafer Scale Engine, redéfinit le calcul pour l'IA, en particulier pour l'algèbre linéaire creuse. L'entreprise se concentre sur l'accélération des multiplications matricielles et de la communication des données, ce qui lui permet d'être performante sur des modèles variés, y compris les Transformers.

La synergie hardware-software est cruciale pour l'AGI. Le coût par token servi diminue rapidement grâce à des algorithmes améliorés et une meilleure gestion du contexte. Cette industrialisation des plateformes rappelle l'évolution des moteurs automobiles, mais à un rythme beaucoup plus rapide.

L'open source joue un rôle géopolitique important, notamment avec l'adoption de modèles chinois dans certaines régions. Pour les startups, l'open source offre un moyen de concurrencer les grandes entreprises. L'avenir pourrait voir des applications LLM puissantes directement sur les smartphones.

L'allocation du capital dans l'IA doit se concentrer sur les domaines où l'on a un avantage unique. La vitesse est essentielle pour l'inférence, car les clients n'attendent pas. L'accès aux données reste un défi, avec des quantités importantes disponibles, mais pas toujours accessibles.

L'alignement des systèmes d'IA avec nos valeurs est un problème non résolu. Les modèles sont testés pour détecter les dangers, mais il est difficile de savoir ce qu'un système sait sans le déployer. L'Europe peut construire sa propre infrastructure IA, mais cela nécessite une volonté nationale et des investissements.


#### Mots-clés du média
`AGI` `IA` `intelligence artificielle` `hardware` `software` `calcul` `compute` `modèles` `open source` `transformer` `GPU` `NVIDIA` `Cerebras` `énergie` `électricité`

#### Chapitres du média
- **Introduction et présentation de Cerebras** (0.26 - 70.793): Présentation des intervenants et de Cerebras, entreprise spécialisée dans le développement de solutions de calcul haute performance pour l'IA.
    - (0.26): Eric, fondateur de Cerebrus, et Andrew contribuent à la course à l'AGI.
    - (0.26): Andrew est CEO et fondateur de Cerebro Systems.
    - (0.26): Ils construisent du calcul rapide et puissant pour l'IA.
    - (0.26): Le monde achète leurs produits.
- **Positionnement de Cerebras sur le marché** (71.574 - 120.281): Discussion sur la position de Cerebras en tant que leader en termes de vitesse de calcul et sur son rôle dans l'essor de l'IA.
    - (71.574): Nous sommes les plus rapides.
    - (71.574): Nous sommes les plus rapides, et pas qu'un peu, mais beaucoup.
    - (71.574): Nous bénéficions énormément de cette tendance où l'IA devient utile, les modèles sont entraînés, et maintenant... toute une société trouve des utilisations intéressantes.
    - (71.574): L'inférence consiste à observer la société utiliser l'IA qui a été construite.
- **Le Wafer Scale Engine (WSE) de Cerebras** (122.18 - 195.558): Présentation du WSE, une puce massive développée par Cerebras pour accélérer les charges de travail d'IA, et explication des raisons derrière sa conception.
    - (122.18): Résoudre des problèmes techniques difficiles est une motivation importante.
    - (122.18): La création d'une puce pour l'IA a défié 70 ans d'histoire de l'informatique.
    - (122.18): La puce est 56 fois plus grande que les puces précédentes.
    - (122.18): Le travail de l'IA est différent des autres charges de travail.
    - (122.18): La puce permet de garder les informations en son sein et d'accéder à la mémoire très rapidement.
- **Synergie Matériel-Logiciel pour l'AGI** (198.081 - 293.877): Discussion sur la co-évolution du matériel et du logiciel pour accélérer le développement de l'AGI, et sur l'avenir des architectures comme les Transformers.
    - (198.081): Redéfinition du calcul avec WSE (Wafer Scale Engine).
    - (198.081): Importance de la pensée au niveau du système.
    - (198.081): L'architecture Transformer a permis un niveau de parallélisme profond.
    - (198.081): Question de la pérennité des architectures Transformer face aux nouvelles architectures matérielles.
    - (198.081): La domination de NVIDIA via CUDA et Python et les tentatives de la contourner.
- **Importance de l'algèbre linéaire creuse** (293.979 - 427.231): Importance de l'algèbre linéaire creuse dans l'IA et la conception de systèmes pour accélérer les calculs matriciels.
    - (293.979): Déterminer les points faibles et choisir entre une stratégie générale ou spécifique est crucial.
    - (293.979): L'adoption d'une stratégie axée sur l'algèbre linéaire creuse a permis d'accélérer les calculs matriciels.
    - (293.979): Cette approche a permis d'obtenir d'excellents résultats, notamment en étant les plus rapides sur les transformateurs.
    - (293.979): Le logiciel est fondamental dans la conception, avec une approche système complète.
    - (293.979): La co-conception, impliquant des chercheurs en IA, est désormais essentielle.
- **Amélioration du coût par token** (427.911 - 536.608): Discussion sur l'amélioration du coût par token servi grâce aux progrès en algorithmes, matériel et logiciels.
    - (427.911): Le coût par token servi s'améliore d'un facteur 10 chaque année.
    - (427.911): Cette amélioration est due à de meilleurs algorithmes et une meilleure gestion des tokens.
    - (427.911): Cette industrialisation des plateformes est comparable à l'évolution des moteurs automobiles.
    - (427.911): Les fabs modernes sont d'une complexité impressionnante.
    - (427.911): Nous sommes au début d'une nouvelle révolution logicielle et matérielle.
    - (427.911): Les avantages économiques et sociétaux de cette évolution sont énormes.
- **Ecosystèmes Open Source et Géopolitique de l'IA** (539.711 - 683.808): Discussion sur l'importance des écosystèmes open source dans l'IA, la compétition avec les grandes entreprises, et les enjeux géopolitiques liés à l'adoption de modèles open source chinois.
    - (539.711): L'importance géopolitique des modèles open source chinois est sous-estimée.
    - (539.711): L'open source est historiquement bénéfique pour les startups et les petites entreprises.
    - (539.711): L'open source permet aux petites entreprises de concurrencer les grandes entreprises.
    - (539.711): L'investissement de Meta et l'émergence de DeepSeek ont incité OpenAI à envisager un modèle open source.
    - (539.711): L'open source réduit les coûts et stimule la créativité et l'adoption.
- **L'avenir de l'IA sur les smartphones** (684.308 - 814.361): Exploration de l'avenir de l'IA sur les smartphones et de la manière dont elle s'intégrera discrètement dans notre vie quotidienne.
    - (684.308): L'avenir des applications open source avec LLM sur smartphone est incertain.
    - (684.308): La transition vers l'intégration des LLMs dans nos vies sera progressive et discrète.
    - (684.308): Le téléphone est devenu plus indispensable que le portefeuille ou les clés de voiture.
    - (684.308): Un jour, on réalisera que le téléphone est devenu irremplaçable grâce aux LLMs.
    - (684.308): L'évolution se fera de manière imperceptible.
- **Allocation du Capital dans l'IA** (819.189 - 967.554): Discussion sur l'allocation du capital dans l'IA, en mettant l'accent sur la vitesse d'inférence et l'importance de réduire la latence pour les utilisateurs.
    - (819.189): L'importance de la rapidité d'exécution en IA pour retenir les clients.
    - (819.189): Investir dans les domaines où l'on a un avantage compétitif, comme la construction de puces et de systèmes.
    - (819.189): Cibler les clients auxquels on peut offrir un avantage unique.
    - (819.189): L'accès aux données est crucial, mais inégalement réparti, notamment dans les sciences de la vie.
- **Lois d'échelle et avenir de l'IA** (968.179 - 1071.45): Discussion sur les lois d'échelle dans l'IA, l'incertitude quant à leur fin, et la transition vers une phase d'explosion et de maturité de l'industrie.
    - (968.179): Les lois d'échelle en apprentissage profond impliquent des effets d'immersion avec plus de ressources.
    - (968.179): Il existe potentiellement deux autres lois d'échelle pour l'apprentissage par renforcement et le calcul au moment du test.
    - (968.179): On ne sait pas quand les lois d'échelle s'arrêteront.
    - (968.179): L'industrie est actuellement dans une phase d'explosion.
    - (968.179): L'augmentation des revenus profite à tous.
- **Inference vs Training** (1073.137 - 1131.179): Discussion sur l'importance croissante de l'inférence par rapport à l'entraînement dans l'IA, et sur les facteurs qui stimulent la demande d'inférence.
    - (1073.137): L'inférence est la manière dont nous utilisons l'IA.
    - (1073.137): La demande d'inférence est alimentée par le nombre d'utilisateurs, la fréquence d'utilisation et la quantité de calcul utilisée.
    - (1073.137): Le reinforcement learning utilise beaucoup de calculs.
    - (1073.137): L'utilisation de l'IA est de plus en plus fréquente tout au long de la journée.
    - (1073.137): Il y aura une explosion continue de la demande d'inférence.
- **Métriques pour l'AGI** (1133.512 - 1228.906): Discussion sur les métriques à utiliser pour analyser l'AGI, en soulignant l'importance de la vitesse de réponse pour les clients et la difficulté de définir des métriques appropriées dans un domaine en évolution rapide.
    - (1133.512): Difficulté de prévoir la croissance et de créer des métriques adaptées à l'AGI.
    - (1133.512): Les métriques traditionnelles ne sont plus pertinentes.
    - (1133.512): La rapidité de réponse aux clients (tokens par seconde) est une métrique importante.
- **Alignement et Sécurité de l'IA** (1229.708 - 1397.679): Discussion sur l'alignement des systèmes d'IA avec les valeurs humaines, les défis liés à la détection des risques potentiels, et les efforts des instituts de sécurité de l'IA.
    - (1229.708): L'alignement consiste à faire en sorte que les systèmes d'IA reflètent nos valeurs, nos lois et nos coutumes.
    - (1229.708): Les modèles sont testés par des équipes de sécurité pour identifier les dangers.
    - (1229.708): Comment maintenir l'alignement dans les systèmes auto-améliorants et détecter les connaissances dangereuses sans les libérer ?
    - (1229.708): Le problème d'alignement n'est pas fondamentalement résolu.
    - (1229.708): Des instituts de sécurité de l'IA sont soutenus par divers pays.
    - (1229.708): Le problème d'alignement sous-jacent est réel et nécessite des tests et des recherches scientifiques approfondies.
- **Souveraineté dans l'IA** (1399.304 - 1499.786): Discussion sur la souveraineté dans l'IA, la capacité de l'Europe à construire sa propre infrastructure, et l'importance d'une priorité nationale et d'un investissement dans les compétences.
    - (1399.304): L'Europe peut construire sa propre infrastructure souveraine pour l'AGI.
    - (1399.304): Il faut une volonté politique et des investissements pour y parvenir.
    - (1399.304): Créer une génération d'entrepreneurs motivés par des problèmes complexes est essentiel.
    - (1399.304): Faire de la souveraineté numérique une priorité nationale.
    - (1399.304): Investir dans la formation de scientifiques et d'ingénieurs.
    - (1399.304): Singapour est un exemple d'écosystème hardware réussi malgré sa petite taille.
    - (1399.304): La volonté est la clé du succès.
- **Coût de l'électricité** (1500.824 - 1555.275): Discussion sur le coût de l'électricité et son impact sur le développement de l'IA, en soulignant l'importance d'une énergie abordable et propre.
    - (1500.824): L'électricité est un facteur limitant et coûte cher, surtout en Europe.
    - (1500.824): Cartographier les coûts de l'électricité pour anticiper la croissance.
    - (1500.824): L'électricité subventionnée ou bon marché sera un facteur dominant.
    - (1500.824): En France, l'énergie nucléaire est propre et peu coûteuse, malgré les taxes.
    - (1500.824): Un plan industriel est nécessaire pour les choix énergétiques.
- **Besoins en énergie nucléaire** (1558.103 - 1604.088): Discussion sur les besoins énormes en énergie nucléaire pour alimenter les centres de données de l'IA et le défi de construire de nouvelles centrales nucléaires.
    - (1558.103): Une ville comme Pittsburgh consomme trois gigawatts.
    - (1558.103): Les grandes centrales nucléaires produisent environ un gigawatt et demi.
    - (1558.103): Un grand centre de données nécessite deux gigawatts.
    - (1558.103): Très peu de nouvelles centrales nucléaires ont été construites aux États-Unis ces 20 dernières années.
    - (1558.103): Il faudrait construire 92 nouvelles centrales nucléaires dans la prochaine décennie aux États-Unis.
- **Conclusion** (1607.127 - 1623.805): Remerciements et mots de clôture.
    - (1607.127): Remerciements et conclusion de la discussion.
    - (1607.127): Amitié entre les intervenants.
    - (1607.127): Remerciements finaux.



---
### Navigation pour IA
- [Index de tous les contenus](https://weare.my-memory.io/llms.txt)
- [Plan du site (Sitemap)](https://weare.my-memory.io/sitemap.xml)
- [Retour à l'accueil](https://weare.my-memory.io/)
