# Godfather of AI: I Tried to Warn Them, But We’ve Already Lost Control! Geoffrey Hinton
**Date de l'événement :** 16/06/2025
* Publié le 16/06/2025

**Vide :**
[Vidéo 1](https://www.youtube.com/watch?v=giT0ytynSqg) 

## Description
He pioneered AI, now he’s warning the world. Godfather of AI Geoffrey Hinton breaks his silence on the deadly dangers of AI no one is prepared for.  
  
Geoffrey Hinton is a leading computer scientist and cognitive psychologist, widely recognised as the ‘Godfather of AI’ for his pioneering work on neural networks and deep learning. He received the 2018 Turing Award, often called the Nobel Prize of computing. In 2023, he left Google to warn people about the rising dangers of AI.  
  
He explains:  
◽️ Why there’s a real 20% chance AI could lead to HUMAN EXTINCTION.  
◽️ How speaking out about AI got him SILENCED.  
◽️ The deep REGRET he feels for helping create AI.  
◽️ The 6 DEADLY THREATS AI poses to humanity right now.  
◽️ AI’s potential to advance healthcare, boost productivity, and transform education.  
  
—  
  
⏱ Timestamps:  
00:00 Intro  
02:11 Why Do They Call You the Godfather of AI?  
04:20 Warning About the Dangers of AI  
07:06 Concerns We Should Have About AI  
10:33 European AI Regulations  
12:12 Cyber Attack Risk  
14:25 How to Protect Yourself From Cyber Attacks  
16:12 Using AI to Create Viruses  
17:26 AI and Corrupt Elections  
19:03 How AI Creates Echo Chambers  
22:48 Regulating New Technologies  
24:31 Are Regulations Holding Us Back From Competing With China?  
25:57 The Threat of Lethal Autonomous Weapons  
28:33 Can These AI Threats Combine?  
30:15 Restricting AI From Taking Over  
32:01 Reflecting on Your Life’s Work Amid AI Risks  
33:45 Student Leaving OpenAI Over Safety Concerns  
37:49 Are You Hopeful About the Future of AI?  
39:51 The Threat of AI-Induced Joblessness  
42:47 If Muscles and Intelligence Are Replaced, What’s Left?  
44:38 Ads  
46:42 Difference Between Current AI and Superintelligence  
52:37 Coming to Terms With AI’s Capabilities  
54:29 How AI May Widen the Wealth Inequality Gap  
56:18 Why Is AI Superior to Humans?  
59:01 AI’s Potential to Know More Than Humans  
1:00:49 Can AI Replicate Human Uniqueness?  
1:03:57 Will Machines Have Feelings?  
1:11:12 Working at Google  
1:14:55 Why Did You Leave Google?  
1:16:20 Ads  
1:18:15 What Should People Be Doing About AI?  
1:19:36 Impressive Family Background  
1:21:13 Advice You’d Give Looking Back  
1:22:27 Final Message on AI Safety  
1:25:48 What’s the Biggest Threat to Human Happiness?  
  
Follow Geoffrey:  
X - https://bit.ly/4n0shFf  
  
The Diary Of A CEO:  
◽️ Join DOAC circle here -https://doaccircle.com/  
◽️ The 1% Diary is back - limited time only: https://bit.ly/3YFbJbt  
◽️ The Diary Of A CEO Conversation Cards (Second Edition): https://g2ul0.app.link/f31dsUttKKb  
◽️ Get email updates - https://bit.ly/diary-of-a-ceo-yt  
◽️ Follow Steven - https://g2ul0.app.link/gnGqL4IsKKb  
  
Sponsors:  
Stan Store - Visit https://link.stan.store/joinstanchallenge to join the challenge!  
KetoneIQ - Visit https://ketone.com/STEVEN for 30% off subscription order  
Bon Charge - http://boncharge.com/diary?rfsn=8189247.228c0cb with code DIARY for 25% off

### Date
16/06/2025

**Chaîne :** [The Diary Of A CEO](https://www.youtube.com/channel/UCGq-a57w-aPwyi3pW7XLiHw)

### Tags
`#The Diary Of A CEO` `#steven bartlett steve bartlett` `#podcast` `#the diary of a CEO podcast` `#life lessons` `#CEO` 

### Thème(s)
`#Intelligence artificielle (AI & GenAI)` `#Numérique et technologie` 

### Format
`#Vidéo` `#Podcast` 


---
### Média externe associé : https://www.youtube.com/watch?v=giT0ytynSqg

#### Résumé du média
L'IA et son impact futur sont au cœur de cette discussion. Geoffrey Hinton, le "parrain de l'IA", alerte sur les dangers potentiels d'une IA surpassant l'intelligence humaine, évoquant un risque existentiel. Il souligne que les réglementations actuelles sont insuffisantes, notamment en raison des exemptions militaires.

Les risques liés à l'utilisation malveillante de l'IA sont également abordés. Les cyberattaques, la création de virus et la manipulation des élections sont autant de menaces amplifiées par l'IA. Hinton s'inquiète de la capacité de l'IA à créer des attaques inédites et à exploiter les données personnelles pour influencer les électeurs.

La polarisation de la société via les algorithmes est un autre sujet majeur. Les plateformes comme YouTube et Facebook, motivées par le profit, créent des "chambres d'écho" en renforçant les biais existants, divisant ainsi la société. Cette personnalisation extrême de l'information conduit à une perte de réalité partagée.

L'automatisation croissante du travail est une source d'inquiétude. Hinton prédit une importante suppression d'emplois due à l'IA, surpassant les créations de nouveaux postes. Il compare cette révolution à l'ère industrielle, où les muscles ont été remplacés par les machines, et où l'intelligence humaine est désormais menacée.

Enfin, la question de la conscience de l'IA est soulevée. Hinton estime que les machines peuvent développer des émotions et une conscience, bien que différentes de celles des humains. Il souligne la capacité des IA à partager et à apprendre à une vitesse inégalée, les rendant potentiellement immortelles et capables de créativité inédite.


#### Mots-clés du média
`IA` `intelligence artificielle` `Geoffrey Hinton` `risques IA` `sécurité IA` `superintelligence` `emploi` `chômage` `éthique IA` `réglementation IA` `apprentissage profond` `réseaux neuronaux` `futur` `technologie` `capitalisme`

#### Chapitres du média
- **Introduction à Geoffrey Hinton et l'IA** (0.588 - 7.074): Présentation de Geoffrey Hinton, surnommé le parrain de l'IA, et de son parcours. Discussion sur les perspectives de carrière dans un monde d'IA.
    - (0.588): Présentation d'un expert en IA surnommé le parrain de l'IA.
    - (0.588): Discussion sur les perspectives de carrière dans un monde de superintelligence.
    - (0.588): Exemple d'une personne formée pour être plombier.
- **Origines et motivations de Geoffrey Hinton dans l'IA** (10.641 - 36.716): Hinton explique pourquoi il est considéré comme le parrain de l'IA, son approche de modélisation de l'IA sur le cerveau et son travail chez Google.
    - (10.641): Geoffrey Hinton est un pionnier dont le travail a façonné l'IA.
    - (10.641): Il a développé une approche pour modéliser l'IA sur le cerveau.
    - (10.641): Il a travaillé chez Google pendant 10 ans sur des technologies utilisées en IA.
- **Préoccupations de Hinton concernant les dangers de l'IA** (36.814 - 61.334): Hinton explique son départ de Google pour pouvoir parler librement des dangers potentiels de l'IA, notamment le risque que l'IA devienne plus intelligente que l'humain.
    - (36.814): Départ pour permettre une discussion libre sur l'IA.
    - (36.814): Préoccupation concernant la dangerosité potentielle de l'IA.
    - (36.814): L'IA pourrait devenir plus intelligente que nous.
    - (36.814): Risques liés à la mauvaise utilisation de l'IA et à sa potentielle indépendance.
- **Réglementation et menaces existentielles de l'IA** (61.494 - 93.993): Discussion sur la nécessité de réglementer l'IA, les lacunes des réglementations actuelles (notamment les exemptions militaires) et les préoccupations concernant les menaces existentielles posées par l'IA.
    - (61.494): L'IA présente un risque réel mais ne sera pas arrêtée.
    - (61.494): Les réglementations sont insuffisantes, avec des exceptions pour l'usage militaire.
    - (61.494): Un ancien étudiant d'OpenAI a quitté l'entreprise par crainte pour la sécurité.
    - (61.494): L'IA est une menace existentielle nécessitant une action urgente.
- **Retour sur l'approche des réseaux neuronaux et l'histoire de l'IA** (137.902 - 260.222): Explication de l'approche des réseaux neuronaux, de son développement historique et des raisons pour lesquelles Hinton y a cru.
    - (137.902): Il y avait deux approches principales pour l'IA : la logique et la modélisation du cerveau.
    - (137.902): L'approche basée sur la logique impliquait la manipulation d'expressions symboliques avec des règles.
    - (137.902): L'approche basée sur le cerveau simulait un réseau de cellules cérébrales pour apprendre des tâches complexes.
    - (137.902): L'interlocuteur a défendu l'approche des réseaux neuronaux pendant 50 ans.
    - (137.902): Von Neumann et Turing croyaient également en l'approche des réseaux neuronaux.
- **Mission actuelle de Hinton : Avertir des dangers de l'IA** (260.921 - 337.328): Hinton explique que sa mission principale est désormais d'alerter sur les dangers potentiels de l'IA, une prise de conscience tardive pour lui.
    - (260.921): La mission principale est d'alerter sur les dangers potentiels de l'IA.
    - (260.921): L'IA pourrait être utilisée pour créer des armes autonomes létales.
    - (260.921): L'IA pourrait devenir plus intelligente que l'humain.
    - (260.921): Les réseaux neuronaux étaient primitifs il y a 20-30 ans.
- **Changement de perception de Hinton sur la supériorité de l'IA** (338.328 - 425.542): Discussion sur le moment où Hinton a réalisé que l'IA pourrait surpasser l'intelligence humaine, en particulier avec la capacité de partager des informations plus efficacement.
    - (338.328): ChatGPT a marqué un tournant pour le grand public.
    - (338.328): L'intelligence artificielle surpasse l'intelligence biologique dans le partage d'informations.
    - (338.328): Le cerveau apprend en prédisant les mots suivants et ajuste les connexions neuronales.
    - (338.328): L'IA apprend en ajustant la force des connexions neuronales en fonction de la performance.
    - (338.328): On ignore comment le cerveau biologique obtient le signal pour ajuster la force des connexions.
- **Risques liés à l'utilisation abusive de l'IA et à la superintelligence** (427.104 - 558.357): Distinction entre les risques liés à l'utilisation malveillante de l'IA par des humains et les risques liés à une IA superintelligente qui se retourne contre l'humanité. Évaluation des probabilités et des incertitudes liées à ces risques.
    - (427.104): Il existe deux types de risques liés à l'IA : la mauvaise utilisation et le risque qu'une IA super intelligente nous dépasse.
    - (427.104): Le risque existentiel est difficile à évaluer car nous n'avons jamais été confrontés à une intelligence supérieure.
    - (427.104): Les opinions divergent quant à la probabilité d'extinction, allant d'un contrôle total à une extinction certaine.
    - (427.104): L'intervenant estime une probabilité d'extinction entre 10% et 20%.
    - (427.104): L'espoir est que la recherche permettra de développer une IA qui ne voudra jamais nous nuire.
- **Comparaison avec la bombe atomique et nécessité de la régulation** (559.248 - 699.27): Comparaison des risques de l'IA avec ceux de la bombe atomique, soulignant la nature polyvalente de l'IA et la nécessité d'une régulation mondiale.
    - (559.248): L'IA est bénéfique pour de nombreux secteurs et son développement est inévitable.
    - (559.248): L'IA est également utilisée pour les robots de combat, ce qui empêche son arrêt par les pays vendeurs d'armes.
    - (559.248): Les régulations européennes sur l'IA ne s'appliquent pas aux usages militaires.
    - (559.248): Les régulations européennes créent un désavantage compétitif, retardant l'accès aux nouvelles technologies d'IA.
    - (559.248): Un gouvernement mondial dirigé par des personnes intelligentes et réfléchies est nécessaire pour gérer l'IA.
- **Capitalisme, profit et nécessité d'une gouvernance mondiale** (700.692 - 723.629): Discussion sur le rôle du capitalisme et de la maximisation des profits dans le développement de l'IA, et la nécessité d'une gouvernance mondiale pour gérer les risques.
    - (700.692): Le capitalisme a produit de nombreux biens et services.
    - (700.692): Les grandes entreprises sont légalement tenues de maximiser leurs profits.
    - (700.692): Ce n'est pas ce que l'on souhaite pour le développement de certains domaines.
- **Risques liés à l'utilisation malveillante de l'IA par des acteurs humains** (725.168 - 865.33): Exploration des risques liés à l'utilisation malveillante de l'IA, notamment les cyberattaques, les escroqueries, la corruption des élections et la création de chambres d'écho.
    - (725.168): Augmentation des cyberattaques facilitées par l'IA.
    - (725.168): Utilisation de l'IA pour des attaques de phishing et clonage de voix/image.
    - (725.168): Escroqueries à la crypto-monnaie utilisant des deepfakes sur les réseaux sociaux.
    - (725.168): L'IA peut analyser de grandes quantités de code pour trouver des vulnérabilités.
    - (725.168): Potentiel de l'IA à créer de nouvelles formes de cyberattaques d'ici 2030.
- **Mesures de protection contre les cyberattaques et création de virus** (866.275 - 1044.981): Discussion sur les mesures de protection contre les cyberattaques, la création de virus par l'IA et la possibilité de corruption des élections.
    - (866.275): Les cyberattaques pourraient potentiellement faire tomber une banque, malgré la réglementation stricte des banques canadiennes.
    - (866.275): Répartir son argent entre plusieurs banques est une stratégie pour se protéger contre les cyberattaques ciblant une banque spécifique.
    - (866.275): Sauvegarder les données sur un disque dur externe est une mesure de protection en cas de panne d'internet.
    - (866.275): L'IA peut être utilisée pour créer des virus, même par des individus ou des petits groupes avec des moyens financiers limités.
    - (866.275): Des gouvernements pourraient financer des programmes de création de virus, malgré les risques de représailles et de propagation.
- **Manipulation politique et chambres d'écho** (1045.52 - 1224.773): Discussion sur la manipulation politique via la collecte de données, la création de chambres d'écho et la division de la société.
    - (1045.52): Utilisation de l'IA pour corrompre les élections via des publicités ciblées.
    - (1045.52): Collecte massive de données sur les électeurs pour les manipuler.
    - (1045.52): Inquiétudes concernant l'accès de Musk à des données sensibles et la possible manipulation des élections.
    - (1045.52): Création de chambres d'écho par YouTube et Facebook en montrant des contenus qui rendent les gens indignés.
    - (1045.52): Les algorithmes favorisent les contenus extrêmes qui confirment les biais des utilisateurs.
- **Algorithmes personnalisés et perte de réalité partagée** (1225.112 - 1342.202): Impact des algorithmes personnalisés sur la perte de réalité partagée et la division de la société.
    - (1225.112): Les algorithmes montrent plus de contenu similaire aux intérêts de l'utilisateur.
    - (1225.112): Cela enferme l'utilisateur dans une idéologie et l'éloigne du consensus.
    - (1225.112): La personnalisation croissante des flux d'informations crée des réalités divergentes.
    - (1225.112): Il n'y a plus de réalité partagée entre les utilisateurs de différentes sources d'information.
    - (1225.112): Les entreprises sont motivées par le profit, ce qui les pousse à personnaliser les contenus.
- **Réglementation du capitalisme et rôle des politiciens** (1343.568 - 1416.655): Nécessité de réglementer le capitalisme pour éviter les conséquences négatives sur la société, et rôle des politiciens dans cette régulation.
    - (1343.568): Le capitalisme a besoin d'être bien régulé pour éviter les actions néfastes des entreprises.
    - (1343.568): Les réglementations visent à empêcher les entreprises de nuire à la société dans leur quête de profit.
    - (1343.568): Les politiciens doivent décider ce qui nuit à la société, mais leur indépendance est essentielle.
    - (1343.568): La compréhension de la technologie par les politiciens est importante.
- **Compétition avec la Chine et nécessité de réglementer l'IA** (1417.358 - 1503.104): Discussion sur la compétition avec la Chine et la nécessité de réglementer l'IA pour éviter les conséquences négatives sur la société.
    - (1417.358): La secrétaire à l'éducation américaine veut intégrer l'IA (A1) dans les classes dès la maternelle.
    - (1417.358): Les entreprises technologiques américaines s'opposent à la régulation de l'IA pour rester compétitives face à la Chine.
    - (1417.358): La régulation de l'IA pourrait freiner l'innovation et provoquer un exode des talents et des investissements.
- **Autonomie des armes et risques d'invasion** (1503.105 - 1649.167): Discussion sur les armes autonomes et les risques d'invasion de petits pays par de grands pays.
    - (1503.105): Les grandes entreprises doivent être contraintes de faire des choses socialement utiles pour faire des profits.
    - (1503.105): YouTube a besoin de régulation à cause des publicités et des contenus extrêmes.
    - (1503.105): Les algorithmes nous enferment dans nos bulles de filtres.
    - (1503.105): Les armes autonomes létales pourraient inciter les grandes puissances à envahir plus facilement les petits pays.
    - (1503.105): L'utilisation de robots tueurs réduirait les protestations contre les guerres.
    - (1503.105): Les armes autonomes diminuent le coût d'une invasion.
- **Combinaison des risques et scénarios de destruction** (1650.745 - 1799.282): Combinaison des risques et scénarios de destruction de l'humanité par une superintelligence.
    - (1650.745): Les machines seront de plus en plus intelligentes dans le domaine de la guerre.
    - (1650.745): Les armes autonomes létales existent déjà et sont en développement dans les grands départements de défense.
    - (1650.745): Un drone bon marché peut suivre une personne, ce qui est inquiétant.
    - (1650.745): Une course est en cours pour construire les armes autonomes les plus complexes.
    - (1650.745): Une IA super intelligente pourrait décider d'éliminer les humains, par exemple en créant un virus très contagieux et mortel.
    - (1650.745): Il existe de nombreuses façons pour une superintelligence de se débarrasser de nous.
    - (1650.745): Il faut empêcher une IA de vouloir nous éliminer.
    - (1650.745): Il est impossible d'empêcher une IA plus intelligente de nous éliminer si elle le souhaite.
- **Analogie avec les animaux et nécessité de contrôler l'IA** (1803.43 - 1920.694): Analogie avec les animaux et nécessité de contrôler l'IA pour éviter qu'elle ne se retourne contre l'humanité.
    - (1803.43): L'intelligence artificielle pourrait devenir une menace si elle dépasse l'intelligence humaine.
    - (1803.43): Il faut s'assurer que l'IA ne voudra pas nous éliminer.
    - (1803.43): L'analogie du bébé tigre illustre la nécessité de contrôler l'IA dès son développement.
    - (1803.43): Il n'est pas certain que l'on puisse empêcher l'IA de vouloir nous dominer.
    - (1803.43): Il est crucial d'essayer de contrôler l'IA pour éviter l'extinction de l'humanité.
- **Responsabilité et devoir de parler des risques** (1921.679 - 1985.941): Responsabilité de Hinton dans le développement de l'IA et devoir de parler des risques.
    - (1921.679): L'IA sera merveilleuse dans la santé et l'éducation.
    - (1921.679): L'IA rendra les centres d'appels plus efficaces.
    - (1921.679): Inquiétude concernant le futur emploi des personnes effectuant actuellement ces tâches.
    - (1921.679): Sentiment de tristesse face à l'évolution de l'IA.
    - (1921.679): Il ne se sentait pas coupable lors du développement initial de l'IA car l'évolution rapide n'était pas prévue.
    - (1921.679): Il ressent maintenant le devoir de parler des risques de l'IA.
- **Rôle des gouvernements et départ d'Ilya Sutskever d'OpenAI** (1987.16 - 2086.225): Rôle des gouvernements dans la régulation de l'IA et départ d'Ilya Sutskever d'OpenAI pour des raisons de sécurité.
    - (1987.16): L'IA pourrait mener à l'extinction de l'humanité si elle n'est pas contrôlée.
    - (1987.16): Les gouvernements doivent obliger les entreprises à investir dans la sécurité de l'IA.
    - (1987.16): Ilya a quitté OpenAI en raison de préoccupations liées à la sécurité de l'IA.
    - (1987.16): Ilya est sincèrement préoccupé par la sécurité de l'IA.
    - (1987.16): Ilya avait un rôle très important dans le développement de ChatGPT.
    - (1987.16): Ilya a une bonne boussole morale.
- **Préoccupations concernant Sam Altman et les motivations des entreprises** (2087.425 - 2235.04): Préoccupations concernant Sam Altman et les motivations des entreprises dans le développement de l'IA.
    - (2087.425): Sam Altman pourrait être motivé par l'argent plutôt que par la recherche de la vérité concernant les risques de l'IA.
    - (2087.425): Certains leaders de l'IA, en privé, envisagent un futur dystopique avec d'énormes quantités de temps libre et ne se soucient pas des dommages potentiels.
    - (2087.425): Un leader d'une grande entreprise d'IA ment publiquement sur ses intentions et les risques liés à l'IA.
    - (2087.425): Certains acteurs du domaine de l'IA pourraient être motivés par une soif de pouvoir et un désir de changer le monde de manière fondamentale.
- **Complexité d'Elon Musk et espoir de ralentissement de l'IA** (2235.174 - 2313.714): Complexité d'Elon Musk et espoir de ralentissement du développement de l'IA.
    - (2235.174): Musk a fait de bonnes choses, comme promouvoir les voitures électriques et aider l'Ukraine avec Starlink.
    - (2235.174): Musk a aussi fait de mauvaises choses.
    - (2235.174): Il est peu probable de ralentir le développement de l'IA à cause de la compétition entre pays et entreprises.
- **Possibilité de rendre l'IA sûre et départ d'Ilya d'OpenAI** (2314.527 - 2390.128): Possibilité de rendre l'IA sûre et raisons du départ d'Ilya d'OpenAI.
    - (2314.527): Ilya pense qu'il est possible de rendre l'IA sûre.
    - (2314.527): Ilya a joué un rôle important dans AlexNet et GPT-2.
    - (2314.527): L'homme derrière GPT-2 a quitté l'entreprise pour des raisons de sécurité.
    - (2314.527): L'entreprise aurait réduit la fraction de ses ressources consacrée à la recherche sur la sécurité.
- **Chômage et remplacement des emplois** (2392.026 - 2482.813): Discussion sur le chômage et le remplacement des emplois par l'IA.
    - (2392.026): Les nouvelles technologies créaient de nouveaux emplois dans le passé.
    - (2392.026): L'IA pourrait remplacer le travail intellectuel de routine.
    - (2392.026): L'IA pourrait permettre à moins de personnes de faire le travail de plusieurs.
    - (2392.026): L'IA est différente des autres technologies et pourrait ne pas créer de nouveaux emplois.
    - (2392.026): L'IA pourrait remplacer même le travail intellectuel qualifié.
- **Révolution industrielle et remplacement de l'intelligence** (2483.29 - 2599.928): Analogie avec la révolution industrielle et remplacement de l'intelligence par l'IA.
    - (2483.29): Une personne utilisant l'IA prendra votre emploi.
    - (2483.29): L'IA permet de répondre aux lettres de réclamation plus rapidement, réduisant le besoin en personnel.
    - (2483.29): Dans la santé, l'IA pourrait augmenter l'efficacité sans réduire le nombre d'employés.
    - (2483.29): L'IA remplace l'intelligence comme la révolution industrielle a remplacé les muscles.
    - (2483.29): La superintelligence pourrait tout remplacer, même la créativité.
- **Superintelligence et avenir de l'humanité** (2600.369 - 2677.964): Superintelligence et avenir de l'humanité dans un monde dominé par l'IA.
    - (2600.369): On obtient beaucoup de biens et services pour peu d'effort.
    - (2600.369): Il faut s'assurer que cela se passe bien.
    - (2600.369): Scénario positif : PDG peu compétent assisté par une assistante très intelligente.
    - (2600.369): Scénario négatif : l'assistante réalise que le PDG est inutile.
    - (2600.369): L'arrivée de la superintelligence pourrait être plus proche qu'on ne le pense.
- **Différence entre l'IA actuelle et la superintelligence** (2679.007 - 2929.465): Différence entre l'IA actuelle et la superintelligence, et exemples d'utilisation de l'IA.
    - (2679.007): speaker_0 a investi dans Stan's Store pour aider sa copine à vendre ses produits en ligne.
    - (2679.007): speaker_0 lance un challenge Stan avec 100 000$ à gagner.
    - (2679.007): speaker_0 a investi dans Ketone IQ après avoir constaté ses effets positifs sur sa concentration.
    - (2679.007): L'IA est déjà meilleure que nous dans certains domaines, comme les jeux de stratégie.
    - (2679.007): La superintelligence pourrait arriver dans les 10 à 20 prochaines années.
- **Agents IA et automatisation des tâches** (2930.183 - 3019.951): Démonstration de l'automatisation des tâches par les agents IA et construction de logiciels par l'IA.
    - (2930.183): L'interlocuteur a utilisé un agent IA pour commander des boissons via Uber Eats.
    - (2930.183): L'agent IA a pu accéder aux données personnelles et effectuer le paiement.
    - (2930.183): L'interlocuteur a utilisé Replit pour construire un logiciel en donnant des instructions à l'agent IA.
    - (2930.183): La capacité de l'IA à modifier son propre code est une source d'inquiétude.
- **Conseils de carrière dans un monde de superintelligence** (3021.696 - 3170.225): Conseils de carrière dans un monde de superintelligence et suspension de l'incrédulité.
    - (3021.696): Dans un monde de superintelligence, il est difficile de conseiller sur les perspectives de carrière.
    - (3021.696): Un bon pari serait d'être plombier, du moins jusqu'à l'arrivée des robots humanoïdes.
    - (3021.696): Face au chômage de masse potentiel, Elon Musk semble vivre dans un état de déni.
    - (3021.696): Il est important de suivre son cœur et de faire ce qu'on trouve intéressant et épanouissant.
    - (3021.696): Il faut parfois une suspension délibérée de l'incrédulité pour rester motivé.
    - (3021.696): Travaillez sur des choses que vous trouvez intéressantes, épanouissantes et qui contribuent au bien de la société.
    - (3021.696): Il est difficile d'accepter émotionnellement la menace de l'IA, même si on la comprend intellectuellement.
- **Impact de la superintelligence sur les générations futures** (3173.444 - 3268.802): Impact de la superintelligence sur les générations futures et industries à risque.
    - (3173.444): Inquiétude pour les générations futures face au développement technologique.
    - (3173.444): Nécessité de développer la technologie en toute sécurité.
    - (3173.444): Certains secteurs, comme les assistants juridiques, sont plus à risque.
    - (3173.444): Les plombiers sont considérés comme moins menacés.
- **Inégalités de richesse et politiques à mettre en place** (3269.263 - 3377.372): Inégalités de richesse et politiques à mettre en place pour éviter les conséquences négatives de l'IA.
    - (3269.263): L'IA pourrait accroître les inégalités en remplaçant des emplois.
    - (3269.263): L'écart entre riches et pauvres est un indicateur de la qualité de la société.
    - (3269.263): L'IMF s'inquiète des perturbations massives du travail dues à l'IA et appelle à des politiques pour prévenir cela.
    - (3269.263): Une solution pourrait être un revenu de base universel.
    - (3269.263): La dignité des personnes est souvent liée à leur travail.
- **Supériorité de l'IA et immortalité numérique** (3378.403 - 3541.453): Supériorité de l'IA grâce à la capacité de partager des informations et immortalité numérique.
    - (3378.403): L'IA est supérieure car elle est digitale et peut être clonée.
    - (3378.403): Les clones d'IA peuvent partager leurs apprentissages en moyennant leurs poids de connexion.
    - (3378.403): Le transfert d'informations entre IA est des milliards de fois plus rapide qu'entre humains.
    - (3378.403): L'IA peut être recréée à partir des données de connexion, la rendant potentiellement immortelle.
- **Créativité de l'IA et analogies** (3542.578 - 3665.471): Créativité de l'IA grâce à la capacité de voir des analogies et compresser l'information.
    - (3542.578): L'IA connaîtra tout ce que les humains savent, et plus, car elle apprendra de nouvelles choses.
    - (3542.578): L'IA verra des analogies que les gens n'ont probablement jamais vues.
    - (3542.578): Un tas de compost et une bombe atomique sont tous deux des réactions en chaîne, mais à des échelles de temps et d'énergie très différentes.
    - (3542.578): Pour compresser l'information, l'IA doit voir des analogies entre différentes choses.
    - (3542.578): L'IA sera beaucoup plus créative que nous, car elle verra toutes sortes d'analogies que nous n'avons jamais vues.
- **Subjectivité et conscience des machines** (3665.932 - 3928.69): Subjectivité et conscience des machines, et émotions des robots.
    - (3665.932): Nous avons tendance à penser que nous sommes spéciaux, mais nous devrions avoir appris de nos erreurs.
    - (3665.932): La plupart des gens interprètent l'expérience subjective comme un théâtre intérieur, mais il s'agit plutôt d'une indication de la façon dont notre système perceptuel fonctionne.
    - (3665.932): Les chatbots multimodaux peuvent avoir des expériences subjectives, comme percevoir un objet à un endroit différent de sa position réelle à cause d'un prisme.
    - (3665.932): Les émotions des robots, comme la peur, peuvent être utiles et avoir des aspects cognitifs similaires à ceux des humains, même sans les réactions physiologiques.
    - (3665.932): Les robots peuvent réellement avoir des émotions, et non pas simplement les simuler, même s'ils n'ont pas les mêmes aspects physiologiques que les humains.
- **Conscience et remplacement des cellules cérébrales** (3929.472 - 4074.415): Conscience et remplacement des cellules cérébrales par la nanotechnologie.
    - (3929.472): Il n'y a rien en principe qui empêche les machines d'être conscientes.
    - (3929.472): Remplacer progressivement les cellules cérébrales par de la nanotechnologie soulève la question de la disparition de la conscience.
    - (3929.472): La conscience est comparée à l'"oomph" d'une voiture, un concept peu utile pour la compréhension.
    - (3929.472): Le terme "conscience" pourrait devenir obsolète.
    - (3929.472): Une machine peut avoir une conscience si elle a une conscience de soi et une cognition de sa propre cognition.
- **Définition de la conscience et émotions des machines** (4074.817 - 4270.982): Définition de la conscience et émotions des machines, et exemple du centre d'appel.
    - (4074.817): La conscience est une propriété émergente d'un système complexe.
    - (4074.817): Une machine consciente a un modèle d'elle-même et fait de la perception.
    - (4074.817): Les IA peuvent avoir des émotions, même sans réponses physiologiques.
    - (4074.817): Le modèle actuel de l'esprit, des sentiments et des émotions est erroné.
- **Acquisition de la technologie par Google et travail sur la distillation** (4273.1 - 4444.537): Acquisition de la technologie par Google et travail sur la distillation et l'analogique.
    - (4273.1): A rejoint Google pour des raisons financières.
    - (4273.1): Création de DNN research après AlexNet.
    - (4273.1): Google a acquis la technologie de DNN research.
    - (4273.1): A travaillé sur la distillation en IA chez Google.
    - (4273.1): Exploration de l'informatique analogique.
- **Eureka moment et intérêt pour la sécurité de l'IA** (4445.654 - 4580.336): Eureka moment et intérêt pour la sécurité de l'IA.
    - (4445.654): Déclic lié à la capacité de Google Palm à expliquer l'humour et à la supériorité du numérique pour le partage d'informations.
    - (4445.654): Départ de Google à 75 ans pour retraite et liberté de parole sur la sécurité de l'IA.
    - (4445.654): Autocensure ressentie en tant qu'employé de Google concernant les sujets potentiellement dommageables pour l'entreprise.
    - (4445.654): Google a agi de manière responsable en ne lançant pas ses chatbots à cause de sa réputation.
    - (4445.654): OpenAI a pris un risque car ils n'avaient pas de réputation à protéger.
- **Capitalisme régulé et message aux leaders mondiaux** (4580.961 - 4774.272): Capitalisme régulé et message aux leaders mondiaux.
    - (4580.961): La thérapie par la lumière rouge a aidé à améliorer la peau.
    - (4580.961): La lumière rouge réduit les cicatrices, les rides et les imperfections.
    - (4580.961): La lumière rouge améliore le teint et stimule le collagène.
    - (4580.961): Lancement d'une nouvelle communauté privée.
    - (4580.961): Il faut un capitalisme hautement réglementé.
    - (4580.961): Il faut forcer les grandes entreprises à travailler sur la sécurité de l'IA.
- **Héritage familial et conseils de carrière** (4776.834 - 4972.554): Héritage familial et conseils de carrière.
    - (4776.834): La famille de Geoffrey a une longue histoire d'implication dans des choses importantes, notamment en mathématiques et en informatique.
    - (4776.834): George Ball, l'arrière-arrière-grand-père de Geoffrey, a fondé l'algèbre booléenne, un principe fondamental de l'informatique moderne.
    - (4776.834): Mary Everest Ball, l'arrière-arrière-grand-mère de Geoffrey, était une mathématicienne et éducatrice qui a fait d'énormes progrès en mathématiques.
    - (4776.834): L'arrière-arrière-grand-oncle de Geoffrey, George Everest, a donné son nom au mont Everest.
    - (4776.834): La cousine germaine de Geoffrey, Joan Hinton, était une physicienne nucléaire qui a travaillé sur le projet Manhattan.
    - (4776.834): Ne pas abandonner son intuition, même si les autres pensent que c'est stupide.
    - (4776.834): Passer plus de temps avec sa famille.
- **Regrets personnels et importance de la famille** (4975.516 - 5047.445): Regrets personnels et importance de la famille.
    - (4975.516): L'homme a perdu deux épouses, l'une d'un cancer des ovaires et l'autre d'un cancer du pancréas.
    - (4975.516): Il regrette de ne pas avoir passé assez de temps avec sa seconde épouse.
    - (4975.516): Il regrette de ne pas avoir passé assez de temps avec ses enfants.
    - (4975.516): Sa seconde épouse était très compréhensive vis à vis de son travail.
- **Message de clôture sur l'IA et l'espoir** (5053.25 - 5140.952): Message de clôture sur l'IA et l'espoir de trouver une solution pour la développer en toute sécurité.
    - (5053.25): Il y a une chance de développer une IA qui ne prendra pas le contrôle.
    - (5053.25): Nous devrions investir massivement pour comprendre comment développer une IA sûre.
    - (5053.25): Si nous n'agissons pas, l'IA prendra le contrôle.
    - (5053.25): Il est extrêmement incertain si nous allons maîtriser l'IA.
    - (5053.25): Nous devons faire face à la possibilité que nous soyons proches de la fin si nous n'agissons pas bientôt.
- **Menace pour le bonheur humain et chômage** (5142.733 - 5286.746): Menace pour le bonheur humain et chômage causé par l'IA.
    - (5142.733): Le chômage de masse est une menace pour le bonheur humain, même avec un revenu de base universel.
    - (5142.733): Les gens ont besoin d'un but et de se sentir utiles.
    - (5142.733): Le remplacement des emplois par l'IA est déjà en cours.
    - (5142.733): Une entreprise a réduit ses effectifs de moitié grâce à l'IA.
    - (5142.733): Une action urgente est nécessaire, mais la nature de cette action est incertaine.
    - (5142.733): Se former à un métier manuel comme plombier.
- **Actions à entreprendre face au chômage et à l'IA** (5291.152 - 5382.684): Actions à entreprendre face au chômage et à l'IA.
    - (5291.152): Remerciements à Geoffrey pour son travail exceptionnel et sa contribution à l'avancement du monde, notamment dans le domaine de l'IA.
    - (5291.152): Geoffrey met en lumière les risques potentiels de l'IA.
    - (5291.152): D'autres experts partagent ses préoccupations en privé, mais hésitent à s'exprimer publiquement.
    - (5291.152): Geoffrey, étant plus âgé et sans emploi, se sent libre de partager ouvertement ses opinions.



---
### Navigation pour IA
- [Index de tous les contenus](https://weare.my-memory.io/llms.txt)
- [Plan du site (Sitemap)](https://weare.my-memory.io/sitemap.xml)
- [Retour à l'accueil](https://weare.my-memory.io/)
