Geoffrey Hinton

Geoffrey Hinton
En .
Biographie
Naissance
Nationalités
Domicile
Formation
Activités
Père
Howard Everest Hinton (en)
Autres informations
A travaillé pour
Membre de
Directeur de thèse
Site web
Distinctions
Prix Turing ()
Prix Princesse des Asturies de la recherche scientifique et technique ()
Prix Nobel de physique ()

Geoffrey Everest Hinton, né le à Wimbledon (Royaume-Uni), est un chercheur britanno-canadien spécialiste de l'intelligence artificielle, de la psychologie cognitive à l'Université de Toronto et plus particulièrement des réseaux de neurones artificiels.

De 2013 à 2023, il partage son temps entre Google (Google Brain) et l'université de Toronto, avant d'annoncer en mai 2023 son départ de Google en alertant sur les risques émergents liés à l'intelligence artificielle[1],[2].

Geoffrey Hinton est co-auteur d'un article très cité publié en 1986, qui a popularisé l'algorithme de rétropropagation pour l'entraînement des réseaux de neurones multicouches[3], bien que l'article ne soit pas le premier à proposer cette approche[4]. Hinton est considéré comme une figure de proue dans la communauté de l'apprentissage profond[5]. Le modèle de reconnaissance d'images AlexNet, conçu en collaboration avec ses étudiants Alex Krizhevsky et Ilya Sutskever pour le défi ImageNet de 2012, a constitué une percée dans le domaine de la vision par ordinateur[6]. En 2017, il a cofondé l'Institut Vecteur à Toronto et en est devenu le scientifique en chef[7],[8].

Geoffrey Hinton reçoit avec Yoshua Bengio et Yann Le Cun le prix Turing 2018 pour ses travaux sur l'apprentissage profond ; ils sont parfois appelés les « pères fondateurs » de l'intelligence artificielle[1],[9].

En mai 2023, Geoffrey Hinton démissionne de Google afin de pouvoir « s'exprimer librement sur les risques de l'IA ». Il a alors exprimé des préoccupations concernant l'utilisation délibérée de l'IA par des acteurs malveillants, le chômage technologique et les risques existentiels liés à l'intelligence artificielle générale[10],[1]. En 2024, après avoir reçu le prix Nobel il appelle à des recherches urgentes en sécurité de l'IA afin de déterminer comment contrôler des systèmes plus intelligents que les humains[11],[12].

Il est co-lauréat avec John Joseph Hopfield du prix Nobel de physique en 2024 pour « leurs découvertes fondamentales et inventions qui ont rendu possible l'apprentissage automatique et les réseaux de neurones artificiels »[13], et en 2025, il reçoit le Queen Elizabeth Prize for Engineering[14].

Il est le deuxième scientifique vivant le plus cité au monde, toutes disciplines confondues, derrière son collègue Yoshua Bengio[15].

Éducation

Geoffrey Hinton fait ses études au Clifton College à Bristol[16], et au King's College à Cambridge. Après avoir changé de cursus plusieurs fois entre différentes disciplines telles que les sciences naturelles, l'histoire de l'art et la philosophie, il obtient finalement en 1970 un Bachelor of Arts en psychologie expérimentale[17]. Il obtient en 1978 un doctorat en intelligence artificielle à l'université d'Édimbourg, dirigé par Christopher Longuet-Higgins[18],[19].

Carrière et recherche

Après son doctorat, Hinton travaille à l'université du Sussex, puis, après avoir eu des difficultés à trouver un financement en Grande-Bretagne[20], à l'université de Californie à San Diego, puis à l'université Carnegie-Mellon[17]. Il a été le directeur fondateur de l'Unité de Neurosciences Computationnelles de la Gatsby Charitable Foundation à l'University College de Londres[17]. Il est professeur au département d'informatique de l'université de Toronto[21].

Il détient une chaire de recherche du Canada en apprentissage automatique[22] et est conseiller pour le programme Learning in Machines & Brains à l'Institut canadien de recherches avancées[23]. Hinton a enseigné un cours en ligne gratuit sur les réseaux de neurones sur la plateforme d'éducation Coursera en 2012[24]. Il rejoint Google en mars 2013 lorsque sa société, DNNresearch Inc., est acquise, et prévoit à ce moment de partager son temps entre sa recherche universitaire et son travail chez Google[25].

Ses recherches portent sur les moyens d'utiliser les réseaux de neurones pour l'apprentissage automatique, la mémoire, la perception et le traitement des symboles. Il écrit ou co-écrit plus de 200 publications évaluées par des pairs[26].

Lorsqu'il était post-doctorant à l'UC San Diego, il applique, avec David E. Rumelhart et Ronald J. Williams, l'algorithme de rétropropagation aux réseaux de neurones multicouches, montrant que de tels réseaux peuvent apprendre des représentations internes utiles des données[27]. Dans une interview en 2018[28], il déclare que « David E. Rumelhart a eu l'idée de base de la rétropropagation, donc c'est son invention ». Bien que ce travail ait été important pour populariser la rétropropagation, ce n'était pas la première suggestion de cette approche[4]. La différentiation automatique en mode inverse, dont la rétropropagation est un cas particulier, a été proposée par Seppo Linnainmaa en 1970, et Paul Werbos a proposé de l'utiliser pour entraîner les réseaux de neurones en 1974[4].

En 1985, Geoffrey Hinton co-invente les machines de Boltzmann avec David Ackley et Terry Sejnowski (en)[29]. Ses autres contributions portent sur les représentations distribuées, les réseaux de neurones à retard temporel, les mélanges d'experts (mixtures of experts), les machines de Helmholtz (en) et les produits d'experts (products of experts)[30]. Il co-invente aussi, en 2008, l'algorithme t-SNE de visualisation de données[31],[32].

En 2017, il présente le concept de « capsule networks » (réseaux de neurones à capsules), qu'il présente comme un tournant de l'apprentissage profond[33].

Lors de la conférence NeurIPS de 2022, il introduit un nouvel algorithme d'apprentissage pour les réseaux de neurones qu'il appelle l'algorithme « Forward-Forward ». L'idée de ce nouvel algorithme est de remplacer les étapes classiques de la rétropropagation, qui consistent en une passe avant suivie d'une passe arrière, par deux passes avant. La première passe utilise des données réelles, et la seconde utilise des données générées par le réseau[34].

En mai 2023, Hinton démissionne de Google pour pouvoir « s'exprimer librement sur les risques de l'IA » sans avoir à se soucier des conséquences potentielles pour l'entreprise[1].

Geoffrey Hinton a encadré des doctorants et chercheurs postdoctoraux notables, tels que Peter Dayan, Sam Roweis, Max Welling, Richard Zemel, Brendan Frey, Radford M. Neal, Yee Whye Teh, Ruslan Salakhutdinov, Ilya Sutskever, Yann Le Cun, Alex Graves, et Zoubin Ghahramani[35],[36]. Selon Google scholar (consulté le 22 juin 2025), ses articles ont été cité 933 699 fois, dont 558 785 fois depuis 2020[37]

Alertes et prises de position

Risques de l'intelligence artificielle

En 2023, Geoffrey Hinton exprime des préoccupations concernant les progrès rapides de l'IA. Il pensait auparavant que l'intelligence artificielle générale était pour dans « 30 à 50 ans voire plus ». Cependant, dans une interview de mars 2023 avec CBS, il déclare que l'IA à usage général serait peut-être créée dans moins de 20 ans, et pourrait avoir un impact sur la société comparable à la révolution industrielle ou à l'électricité[1],[40].

Dans une interview avec le New York Times publiée le 1er mai 2023[41], il annonce sa démission de Google afin de « parler des dangers de l'IA sans se soucier de l'impact sur Google ». Il explique qu'« une partie de lui regrette maintenant le travail de sa vie », et exprimé des craintes quant aux effets de la course entre Google et Microsoft, et quant aux effets de la propagation massive de désinformation[42],[43]. Début mai 2023, Hinton affirme à la BBC que l'IA pourrait bientôt surpasser le cerveau humain en termes de connaissances, bien qu'étant encore relativement peu performante en termes de raisonnement ; et il juge certains des risques posés par ces chatbots comme « assez effrayants », car pouvant apprendre indépendamment et partager des connaissances, ce qui signifie que chaque fois qu'une copie acquiert de nouvelles informations, celles-ci sont automatiquement diffusées à tout le groupe. Cela donne la capacité aux chatbots IA d'accumuler des connaissances bien au-delà de la capacité de tout individu[1],[44].

IA générale et risque existentiel pour les humains

Geoffrey Hinton déclare qu'« il n'est pas inconcevable » que l'IA générale puisse « anéantir l'humanité »[40], car pouvant « créer des sous-objectifs » non alignés avec les intérêts de leurs programmeurs[45] et pouvant chercher à gagner en pouvoir ou à empêcher leur propre désactivation, même si ce n'est pas l'intention des programmeurs, car ces sous-objectifs sont généralement utiles pour atteindre des objectifs ultérieurs[44]. Selon lui, « nous devons réfléchir sérieusement à la façon de contrôler » les systèmes d'IA capables de s'auto-améliorer[46]. Avec Yoshua Bengio et Dawn Song, en mai 2024, dans la revue Science, il alerte sur l'urgence de traiter ce sujet alors que les tests de performance les plus exigeants du domaine montrent que les progrès de l'IAg en matière de programmation, de raisonnement abstrait et de raisonnement scientifique sont exponentiels[47]. « La raison pour laquelle je ne suis plus très optimiste est que je ne connais pas d’exemples de choses supérieurement intelligentes contrôlées par des choses moins intelligentes » expliquait-il en mai 2023 au Guardian[48].

Mauvais usage de l'IA par des acteurs malveillants

Selon le rapport International AI Safety Report 2025, dont Hinton est co-auteur,

« les acteurs malveillants peuvent utiliser l’IA à usage général pour générer des deepfakes[note 1] et/ou de faux contenus[note 2] qui nuisent aux individus de manière ciblée. Par exemple, ils peuvent utiliser ce faux contenu à des fins d’escroquerie, d’extorsion, de manipulation psychologique, de production d’images intimes non consensuelles (NCII) et de matériel d’abus sexuel d’enfants (CSAM), ou de sabotage ciblé d’individus et d’organisations. Les acteurs malveillants peuvent utiliser à mauvais escient le faux contenu généré par l’IA pour extorquer, escroquer, manipuler psychologiquement ou saboter des personnes ou des organisations ciblées. Cela menace les droits universels de la personne, par exemple le droit de ne pas porter atteinte à l’honneur et à la réputation d’une personne[49] »

Geoffrey Hinton note qu'il est « difficile de trouver comment empêcher les mauvais acteurs de l'utiliser pour des fins malveillantes »[2], notamment aux USA « où les Américains ne peuvent même pas accepter de ne pas donner de fusils d'assaut à des adolescents »[48] ; en 2017, il a appelé à une interdiction internationale des armes autonomes létales. Selon lui, même en dehors du risque existentiel, la puissance croissante des modèles d’IA des années 2020 doit inquiéter ; il cite à ce propos l'exemple de l'influence qu'à eu la famille du milliardaire Robert Mercer, soutien de Cambridge Analytica « sur les campagnes politiques des deux côtés de l'Atlantique (...) Bob Mercer et Peter Brown, lorsqu’ils travaillaient chez IBM sur la traduction, ont compris le pouvoir de disposer de beaucoup de données. Sans Bob Mercer, Trump n’aurait peut-être pas encore été élu »[48] ; L'IA est déjà, et peut l'être bien plus encore, utilisée pour massivement diffuser massivement des contenus faux mais convaincants (images, vidéos, discours), dont par des régimes autoritaires, lobbys et groupes politiques pour affaiblir la démocratie, rendant les citoyens et décideurs incapables de distinguer le vrai du faux. Il devient (« difficile de voir comment empêcher les acteurs malveillants de l’utiliser à mauvais escient. [...] La personne moyenne ne saura plus ce qui est vrai ».

Impacts économiques

Geoffrey Hinton explique avoir été longtemps trop optimiste quant aux effets économiques de l'IA.

En 2018 il expliquait que : « l'expression intelligence artificielle générale sous-entend qu'un seul robot va soudainement devenir plus intelligent que vous. Je ne pense pas que ce sera le cas. Je pense que de plus en plus des choses routinières que nous faisons vont être remplacées par des systèmes d'IA. »[50] ; et il avait auparavant soutenu que l'IA générale ne rendra pas les humains redondants : « [L'IA du futur] saura beaucoup de choses sur ce que vous allez probablement vouloir faire... Mais elle ne vous remplacera pas » pensait-il alors[50].

Cependant, au vu des progrès exponentiels et très rapide de l'IA, en 2023, Hinton change d'avis, et alerte sur « le fait que les technologies d'IA bouleverseront à terme le marché du travail » et remplaceront plus que de simples tâches ingrates[2],[41].En 2024, il dit que le gouvernement britannique devra établir un revenu de base pour faire face à l'impact de l'IA sur les inégalités[51] ; l'IA augmentera la productivité et générera plus de richesse, mais si le gouvernement n'intervient pas, cela ne fera qu'enrichir les riches et nuire aux personnes pouvant perdre leur emploi[52].

Politique

Geoffrey Hinton quitte les États-Unis pour le Canada en partie par désillusion vis-à-vis de la politique de l'ère Ronald Reagan, et car il est opposé au financement d'usages militaires de l'intelligence artificielle[53].

En 2023, dans les jours qui ont suivi sa démission de Google, Hinton reçoit des demandes d'aide, notamment de Bernie Sanders, d'Elon Musk et de la Maison Blanche. Interviewé par The Guardian, il explique qu'il souhaite les aider, mais qu'il et possible que son avis ne soit pas celui qu'attend la Maison blanche, « « Je suis socialiste ; je pense que la propriété privée des médias, et des 'moyens de calcul', n'est pas une bonne chose (...) Si vous considérez ce que Google fait dans le contexte d'un système capitaliste, il se comporte de manière aussi responsable que ce qu'on peut attendre de lui. Mais cela ne signifie pas qu'il essaie de maximiser l'utilité [de l'IA] pour tout le monde : il est légalement obligé de maximiser l'utilité pour ses actionnaires, et c'est quelque chose de très différent (...) J'aimerais avoir une bonne solution, du genre : Arrêtez de brûler du carbone, et tout ira bien, mais je ne vois pas de solution simple comme celle-là »[48]. En août 2024, Hinton cosigne une lettre avec ses collègues Yoshua Bengio, Stuart Russell et Lawrence Lessig, en soutien au projet de loi californien SB1047 sur la sécurité de l'IA. Ce projet exige des entreprises investissant plus de 100 millions de dollars dans l'entraînement de modèles qu'elles réalisent des évaluations de risque avant leur déploiement. Les auteurs de la pétition estiment que cette législation représente le « minimum nécessaire pour une régulation efficace de cette technologie »[54],[55].

En 2025, il dénonce régulièrement le manque de volonté politique face aux risques existentiels liés à l'intelligence artificielle agentique. Il reproche aux gouvernements de se concentrer, à juste titre, sur des enjeux légitimes tels que les biais de l'IA ou sa contribution aux discriminations — des sujets qu'ils « comprennent » — mais tout en négligeant les dangers plus profonds de l'IA mise en œuvre par des agents autonomes[56]. Il alerte sur le fait que dans les années 2020, les systèmes d'IA évoluent : d'outils passifs, ils deviennent des agents et systèmes capables de modifier leur propre code, d'évoluer de manière autonome et capables d'actions et de décisions indépendantes, susceptibles d'échapper à tout contrôle humain[57], car capables d'action indépendante, potentiellement animés par des objectifs de conservation et de contrôle. Selon lui, ces systèmes agentiques pourraient développer des objectifs propres, tels que l'auto-préservation ou la maximisation de leur influence, sans alignement garanti avec les intérêts humains. Il souligne également que même les experts peinent à comprendre le fonctionnement interne de ces IA avancées, ce qui rend leur comportement difficilement prévisible[58]. Dans une interview faite le 17 juin 2025 par Steven Bartlett[59], Hinton estime qu'il existe une probabilité non négligeable — il estime cette probabilité comprise entre 10 % et 20 % — que l'IA devienne suffisamment autonome pour représenter une menace existentielle pour l'humanité, si aucune régulation efficace n'est mise en place[60]. Il déplore que si l'UE a effectivement voté un Règlement européen dit AI Act, ce dernier stipule néanmoins (article 2, paragraphe 3)[61] qu'il « ne s'applique pas aux systèmes d'intelligence artificielle développés ou utilisés exclusivement à des fins militaires »[note 3], ce qui permet aux entreprises de continuer à rechercher et produire des systèmes d'armes autonomes.

Distinctions

Vie personnelle

Geoffrey Hinton est l'arrière-arrière-petit-fils de la mathématicienne et éducatrice Mary Everest Boole et de son mari, le logicien George Boole[81]. Le travail de George Boole est finalement devenu l'une des bases de l'informatique moderne. Un autre de ses arrière-arrière-grands-pères est le chirurgien et auteur James Hinton[82], qui était le père du mathématicien Charles Howard Hinton.

Son père est l'entomologiste Howard Hinton[17],[83]. Son deuxième prénom provient d'un autre parent, George Everest, l'arpenteur général de l'Inde qui a donné son nom au mont Everest[20]. Il est le neveu de l'économiste Colin Clark[84].

Sa deuxième épouse, Rosalind Zalin, meurt d'un cancer de l'ovaire en 1994. Sa troisième femme, Jackie, meurt en septembre 2018, également d'un cancer[85].

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Geoffrey Hinton » (voir la liste des auteurs).
  1. selon Geoffrey Hinton est ses collègues, un deepfake est « un type de faux contenu généré par l’IA, composé de contenu audio ou visuel, qui présente à tort de vraies personnes comme faisant ou disant quelque chose qu’elles n’ont pas réellement fait ou dit » source : 2.1.1. Préjudice causé aux personnes par le biais de contenus frauduleux in (en) « International AI Safety Report 2025 », sur GOV.UK (consulté le ).
  2. Les faux contenu généré par l’IA sont des « contenu audio, texte ou visuel, produit par l’IA générative, qui représente des personnes ou des événements d’une manière qui diffère de la réalité de manière malveillante ou trompeuse, par exemple en montrant des personnes faisant des choses qu’elles n’ont pas faites, en disant des choses qu’elles n’ont pas dites, en changeant l’emplacement d’événements réels ou en décrivant des événements qui ne se sont pas produits » source : chap 2.1.1. Préjudice causé aux personnes par le biais de contenus frauduleux in (en) « International AI Safety Report 2025 », sur gov.uk (consulté le ).
  3. Les considérants du Règlement européen précisent que « si et dans la mesure où des systèmes d'IA sont mis sur le marché, mis en service ou utilisés avec ou sans modification de ces systèmes à des fins militaires, de défense ou de sécurité nationale, ces systèmes devraient être exclus du champ d'application du présent règlement, indépendamment du type d'entité exerçant ces activités, par exemple qu'il s'agisse d'une entité publique ou privée. En ce qui concerne l'usage à des fins militaires et de défense, une telle exclusion est justifiée tant par l'article 4, paragraphe 2, du traité sur l'Union européenne que par les spécificités de la politique de défense des États membres et de la politique de défense commune de l'Union relevant du titre V, chapitre 2, du traité sur l'Union européenne, qui sont soumises au droit international public, lequel constitue donc le cadre juridique le plus approprié pour la réglementation des systèmes d'IA dans le contexte de l'utilisation de la force létale et d'autres systèmes d'IA dans le cadre d'activités militaires et de défense. En ce qui concerne l'usage à des fins de sécurité nationale, l'exclusion est justifiée tant par le fait que la sécurité nationale reste de la seule responsabilité de chaque État membre, conformément à l'article 4, paragraphe 2, du traité sur l'Union européenne, que par la nature spécifique et les besoins opérationnels des activités liées à la sécurité nationale et par les règles nationales spécifiques applicables à ces activités.
    Néanmoins, si un système d'IA développé, mis sur le marché, mis en service ou utilisé à des fins militaires, de défense ou de sécurité nationale est, temporairement ou définitivement, utilisé en dehors de ce cadre à d'autres fins (par exemple, à des fins civiles ou humanitaires, à des fins répressives ou de sécurité publique), un tel système relèverait du champ d'application du présent règlement. Dans ce cas, l'entité qui utilise le système d'IA à des fins autres que militaires, de défense ou de sécurité nationale devrait veiller à la mise en conformité du système d'IA avec le présent règlement, à moins qu'il le soit déjà. Les systèmes d'IA mis sur le marché ou mis en service à des fins exclues, à savoir à des fins militaires, de défense ou de sécurité nationale, et à une ou plusieurs fins non exclues, comme à des fins civiles ou répressives, relèvent du champ d'application du présent règlement et les fournisseurs de ces systèmes devraient veiller au respect du présent règlement. En l'occurrence, le fait qu'un système d'IA puisse relever du champ d'application du présent règlement ne devrait pas affecter la possibilité pour les entités exerçant des activités de sécurité nationale, de défense et militaires, indépendamment du type d'entité exerçant ces activités, d'utiliser des systèmes d'IA à des fins de sécurité nationale, militaires et de défense, dont l'utilisation est exclue du champ d'application du présent règlement. Un système d'IA mis sur le marché à des fins civiles ou répressives qui est utilisé avec ou sans modification à des fins militaires, de défense ou de sécurité nationale ne devrait pas relever du champ d'application du présent règlement, indépendamment du type d'entité exerçant ces activités. »

Références

  1. Charles Plantade, « Intelligence artificielle : l'avertissement d'un des pères fondateurs », sur Le Figaro, (consulté le ).
  2. Jenifer Bitar, « Les 5 dangers de l'IA selon Geoffrey Hinton, un de ses pionniers », sur Le Point, (consulté le ).
  3. InternetActu, « Comment dépasser les limites du deep learning ? », sur Le Monde, (consulté le ).
  4. (en) Juergen Schmidhuber, « Deep Learning in Neural Networks: An Overview », Neural Networks, vol. 61,‎ , p. 85–117 (DOI 10.1016/j.neunet.2014.09.003, arXiv 1404.7828, lire en ligne, consulté le ).
  5. Pierre Benhamou, « Les pionniers de l'IA Yann LeCun, Geoffrey Hinton et Yoshua Bengio remportent le prix Turing », sur ZDNet, (consulté le ).
  6. (en) Sharon Goldman, « 10 years later, deep learning ‘revolution' rages on, say AI pioneers Hinton, LeCun and Li », sur VentureBeat, (consulté le ).
  7. Karim Benessaieh, « Le « parrain » de l'apprentissage profond », sur La Presse+, (consulté le ).
  8. (en) Siobhan Roberts, « Geoffrey Hinton has a hunch about what's next for AI », sur MIT Technology Review (consulté le ).
  9. Benoît Georges, « Pour le père fondateur de l'IA, les progrès actuels sont « effrayants » », sur Les Échos, (consulté le ).
  10. « Les 4 dangers de l'IA selon Geoffrey Hinton, un de ses pionniers », sur euronews, (consulté le ).
  11. (en) Christiaan Hetzner, « New Nobel Prize winner, AI godfather Geoffrey Hinton, says he's proud his student fired OpenAI boss Sam Altman », sur Fortune (consulté le ).
  12. Edward Back, « L'un des pères fondateurs de l'IA prévient : « personne ne sait vraiment si nous serons capables de les contrôler » », sur Futura (consulté le ).
  13. Denis Delbecq, « Le Nobel de physique récompense les pionniers de l'intelligence artificielle », Le Temps,‎ (lire en ligne, consulté le ).
  14. (en) « Modern Machine Learning », sur Queen Elizabeth Prize for Engineering (consulté le ).
  15. (en) AD Scientific Index, « Highly Cited Researchers – Citation Rankings 2025 », sur AD Scientific Index (consulté le )
  16. (en) Katrina Onstad, « Mr. Robot », Toronto Life,‎ (lire en ligne).
  17. (en) « Hinton, Prof. Geoffrey Everest » , sur Who's Who, (consulté le ).
  18. (en) « Geoffrey Hinton - The Mathematics Genealogy Project », sur mathgenealogy.org (consulté le ).
  19. (en) Geoffrey E. Hinton, « Relaxation and its Role in Vision », Edinburgh Research Archive,‎ (lire en ligne, consulté le ).
  20. (en) Craig S. Smith, « The Man Who Helped Turn Toronto Into a High-Tech Hotbed », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le ).
  21. (en) Jeff Gray, « U of T professor Geoffrey Hinton hailed as guru of new computing era », The Globe and Mail,‎ (lire en ligne, consulté le ).
  22. (en) « Google buys University of Toronto startup », CBC, .
  23. (en) « Geoffrey Hinton », sur Institut canadien de recherches avancées (consulté le ).
  24. (en) « Coursera - Free Online Courses From Top Universities », sur coursera.org via Wikiwix (consulté le ).
  25. « Google acquiert DNNresearch, spécialisé dans les réseaux de neurones profonds », Le Monde Informatique,‎ (lire en ligne).
  26. « Geoffrey Hinton », sur Google Scholar (consulté le ).
  27. (en) David E. Rumelhart, Geoffrey E. Hinton et Ronald J. Williams, « Learning representations by back-propagating errors », Nature,‎ (lire en ligne).
  28. (en) Martin Ford, Architects of intelligence: the truth about AI from the people building it, Packt Publishing, (ISBN 978-1-78913-151-2 et 978-1-78995-453-1).
  29. (en) David H Ackley, Geoffrey E Hinton et Terrence J Sejnowski, « A learning algorithm for Boltzmann machines », Cognitive science, Elsevier, vol. 9, no 1,‎ , p. 147–169.
  30. (en) « Geoffrey E. Hinton's Publications: in reverse chronological order », sur Université de Toronto (consulté le ).
  31. (en) Laurens van der Maaten et Geoffrey Hinton, « Visualizing Data using t-SNE », Journal of Machine Learning Research,‎ (lire en ligne).
  32. (en) « An Introduction to t-SNE with Python Example », sur KDNuggets (consulté le ).
  33. Johanna Diaz, « Réseaux de neurones: Geoffrey Hinton annonce un tournant fondamental », sur Actu IA, (consulté le ).
  34. (en) « Hinton's Forward Forward Algorithm is the New Way Ahead for Neural Networks », sur Analytics India Magazine, (consulté le ).
  35. (en) « Geoffrey Hinton's postdocs », sur Université de Toronto (consulté le ).
  36. (en) « Geoffrey Hinton - The Mathematics Genealogy Project », sur Math Genealogy Project (consulté le ).
  37. « Google Scholar », sur scholar.google.fr (consulté le ).
  38. Les données proviennent des sources (94) pour MNIST, Switchboard, ImageNet, SQuAD 1.1, 2 et GLUE, et des publications associées (95, 96, 97) pour MMLU, Big-Bench et GPQA.
  39. (en) « International AI Safety Report 2025 », sur GOV.UK (consulté le ).
  40. (en) « "Godfather of artificial intelligence" talks impact and potential of new AI », sur CBS, (consulté le ).
  41. (en) Cade Metz, « ‘The Godfather of A.I.' Leaves Google and Warns of Danger Ahead », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le ).
  42. « Geoffrey Hinton, pionnier de l'IA, quitte Google et dit « regretter » son invention », Le Monde.fr,‎ (lire en ligne, consulté le ).
  43. Pierre Monnier, « "Ne plus savoir ce qui est vrai": Geoffrey Hinton regrette d'avoir créé la technologie à la base de ChatGPT », sur BFMTV, (consulté le ).
  44. (en) « AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google », BBC,‎ (lire en ligne, consulté le ).
  45. (en) [vidéo] « Full interview: "Godfather of artificial intelligence" talks impact and potential of AI », à 31:55, dans CBS Mornings, (consulté le ).
  46. (en) [vidéo] « Full interview: "Godfather of artificial intelligence" talks impact and potential of AI », à 35:48, dans CBS Mornings, (consulté le ).
  47. (en) Yoshua Bengio, Geoffrey Hinton, Andrew Yao et Dawn Song, « Managing extreme AI risks amid rapid progress » [« Gérer les risques extrêmes liés à l'IA dans un contexte de progrès rapide »], Science, vol. 384, no 6698,‎ , p. 842–845 (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.adn0117, lire en ligne, consulté le ).
  48. (en-GB) Alex Hern et Alex Hern UK technology editor, « Bernie Sanders, Elon Musk and White House seeking my help, says ‘godfather of AI' », sur The Guardian, (ISSN 0261-3077, consulté le ).
  49. (en) « International AI Safety Report 2025 », sur gov.uk (consulté le ).
  50. (en) Kyle Wiggers, « Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality », sur VentureBeat, (consulté le ).
  51. (en) « AI 'godfather' says universal basic income will be needed », sur BBC, (consulté le ).
  52. (en) Lakshmi Varanasi, « AI 'godfather' Geoffrey Hinton says he's 'very worried' about AI taking jobs and has advised the British government to adopt a universal basic income », sur Business Insider Africa, (consulté le ).
  53. (en-US) Craig S. Smith, « The Man Who Helped Turn Toronto Into a High-Tech Hotbed », sur The New York Times, (ISSN 0362-4331, consulté le ).
  54. (en) Tharin Pillay et Harry Booth, « Exclusive : Renowned Experts Pen Support for California's Landmark AI Safety Bill », sur TIME, (consulté le ).
  55. (en-US) « Letter to CA state leadership from Professors Bengio, Hinton, Lessig, & Russell », sur SB 1047 - Safe & Secure AI Innovation (consulté le ).
  56. (en-US) « Govts Understand Bias And Discrimination, But Don't Understand AI Safety: Nobel Winner Geoffrey Hinton », sur officechai.com, (consulté le ).
  57. Maxime Marquette, « Geoffrey Hinton, le parrain de l'IA, lance un avertissement alarmant », sur Dose Quotidienne, (consulté le ).
  58. (en) Ashton Jackson et Tom Huddleston Jr., « AI 'godfather' Geoffrey Hinton: There's a chance that AI could displace humans », sur CNBC, (consulté le ).
  59. (en) [vidéo] The Diary Of A CEO, « Godfather of AI: I Tried to Warn Them, But We've Already Lost Control! Geoffrey Hinton », sur YouTube, .
  60. (en) Ashton Jackson, « There's a '10% to 20% chance' that AI will displace humans completely, says 'godfather' of the technology », sur msn.com (consulté le ).
  61. « Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) (Texte présentant de l'intérêt pour l'EEE) » (consulté le ).
  62. (en) « Geoffrey Hinton » [archive du ], sur The Royal Society, .
  63. (en) « The David E. Rumelhart Prize » [archive du ], sur rumelhartprize.org.
  64. (en) « Distinguished Edinburgh graduate receives ACM A.M. Turing Award » [archive du ], sur Université d'Édimbourg.
  65. (en) « ICJAI - 05 » [archive du ], sur ICJAI, .
  66. (en) « Artificial intelligence scientist gets $1M prize », CBC,‎ (lire en ligne).
  67. (en) Jenny Hall, « U of T's Geoffrey Hinton wins Killam Prize », sur Université de Toronto, (consulté le ).
  68. (en) « Awarding of an Honorary Doctorate and Conference - Geoffrey Hinton, keystone researcher in artificial intelligence, visits the Université de Sherbrooke » [archive du ], sur Université de Sherbrooke, .
  69. (en) « National Academy of Engineering Elects 80 Members and 22 Foreign Members », sur NAE Website, (consulté le ).
  70. (en) « 2016 IEEE medals and recognitions recipients and citations » [archive du ], sur IEEE, .
  71. (en) « The BBVA Foundation bestows its award on the architect of the first machines capable of learning the way people do » [archive du ], sur BBVA, .
  72. « La gouverneure générale annonce 103 nouvelles nominations au sein de l'Ordre du Canada », sur gg.ca, (consulté le ).
  73. Camille Bichler, « Prix Turing : le Français Yann LeCun couronné avec deux autres pionniers de l'intelligence artificielle », sur France Culture, (consulté le ).
  74. (en) « Dickson Prize in Science », sur Université Carnegie Mellon.
  75. « Un Français parmi les quatre lauréats du prix Princesse des Asturies de recherche scientifique et technique 2022 », sur Ambassade de France en Espagne (consulté le ).
  76. (en) « Geoffrey E Hinton », sur awards.acm.org (consulté le ).
  77. « Le prix Nobel de physique 2024 attribué à John Hopfield et Geoffrey Hinton pour leurs travaux sur l'intelligence artificielle », sur Le Figaro, (consulté le ).
  78. « Prix Nobel de physique : l'Américain John Hopfield et le Britanno-Canadien Geoffrey Hinton récompensés pour leurs travaux sur l'intelligence artificielle et l'apprentissage automatique », sur France Info, (consulté le ).
  79. « Le prix Nobel de physique 2024 est attribué à John Hopfield et Geoffrey Hinton pour leurs travaux sur « l'apprentissage automatique » », sur Le Monde, (consulté le ).
  80. (en-US) Derrick Bryson Taylor, « Nobel Prize in Physics Is Awarded to 2 Scientists for Work on Machine Learning », sur The New York Times, (consulté le ).
  81. (en) « Geoffrey Hinton: The story of the British 'Godfather of AI' - who's not sat down since 2005 », sur Sky News, (consulté le ).
  82. (en) « The Isaac Newton of logic », The Globe and Mail,‎ (lire en ligne, consulté le ).
  83. (en) George Salt, Biographical Memoirs of Fellows of the Royal Society, The Royal Society, (lire en ligne).
  84. (en) Joe Shute, « The 'Godfather of AI' on making machines clever and whether robots really will learn to kill us all? », The Telegraph,‎ (ISSN 0307-1235, lire en ligne, consulté le ).
  85. (en) Joshua Rothman, « Why the Godfather of A.I. Fears What He's Built », The New Yorker,‎ (ISSN 0028-792X, lire en ligne, consulté le ).

Voir aussi

Liens externes

Bibliographie

  • (en) Yoshua Bengio, Geoffrey Hinton, Andrew Yao et Dawn Song, « Managing extreme AI risks amid rapid progress » [« Gérer les risques extrêmes liés à l'IA dans un contexte de progrès rapide »], Science, vol. 384, no 6698,‎ , p. 842–845 (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.adn0117, lire en ligne, consulté le ).
  • Portail de l’intelligence artificielle
  • Portail de l'informatique théorique
  • Portail du Canada