Sélectionner une page

Hyperarme

Les ressources du livre

Erratum

Les premières éditions sont toujours délicates. On manque de recul et de petites erreurs se glissent souvent entre le manuscrit, la mise en page et l’impression. Dans ce livre, les versions non corrigées des Figures se sont malencontreusement retrouvées dans le fichier d’impression. Trois d’entre elles contiennent donc des coquilles.

Cliquez sur le bouton ci-dessous pour obtenir les versions corrigées.

Ressource 1
La colonne de chars, visible depuis les images satellites de Maxar Technologies.

Dernière consultation : 15/11/2024.

Ressource 2
Le papier de recherche présentant The AI Scientist.

Dernière consultation : 15/11/2024.

Ressource 3
La couverture du Time Magazine du 26 février 2024, ainsi que l’article associé.

Dernière consultation : 15/11/2024.

Ressource 4
Victoria Shi, l’avatar IA porte-parole du gouvernement ukrainien.

Dernière consultation : 15/11/2024.

Ressource 5
Le M-G1, un chien robot équipé d’un lance-roquette présenté par l’armée russe.

Dernière consultation : 15/11/2024.

Ressource 6
Le BAD-2, le chien robot utilisé en Ukraine.

Dernière consultation : 15/11/2024.

Ressource 7
Une vidéo de vulgarisation du fonctionnement du Deep Learning, par le Youtubeur Science Etonnante.

Dernière consultation : 15/11/2024.

Ressource 8
La vidéo de démonstration des drones Kargu par STM, l’entreprise qui les commercialise.

Dernière consultation : 15/11/2024.

Ressource 9
La page de présentation de Defense Llama, un LLM dédié à la recommandation et la planification de stratégies militaires.

Dernière consultation : 15/11/2024.

Ressource 10
Les agents d’OpenAI jouent à cache-cache grâce à l’apprentissage par renforcement.

Dernière consultation : 15/11/2024.

Ressource 11
le logiciel BlackMamba, capable de faire appel à GPT afin de modifier son code pour devenir malveillant.

Dernière consultation : 15/11/2024.

Ressource 12
La famille d’IA AlphaFold, qui a révolutionné la recherche en chimie et biologie.

Dernière consultation : 15/11/2024.

Ressource 13
Le site présentant la démarche Rebuild the Arsenal.

Dernière consultation : 15/11/2024.

Ressource 14
Une vidéo qui présente le concept de convergence instrumentale à travers l’expérience du Maximiseur de trombones.

Dernière consultation : 15/11/2024.

Ressource 15
Le RLHF appliqué à ChatGPT pour l’aligner.

Dernière consultation : 15/11/2024.

Ressource 16
La System Card de o1-preview décrivant les tests d’alignements menés avant de déployer l’IA.

Dernière consultation : 15/11/2024.

Ressource 17
Un article très complet sur les risques posés par les systèmes d’IA. La cinquième partie du document (« Rogue AIs ») est dédié aux problèmes d’alignement posés par l’autonomisation des IA.

Dernière consultation : 15/11/2024.

Ressource 18
L’évaluation conçue par METR pour mesurer les capacités d’autoréplication des systèmes d’IA.

Dernière consultation : 15/11/2024.

Ressource 19
La stratégie envisagée par l’équipe Superalignement pour s’attaquer au problème. Le postulat est le suivant : une superintelligence ne peut être alignée par un groupe d’humains car le fossé qui les sépare est trop important. La stratégie repose donc sur une approche « en escalier » : une superintelligence serait alignée par une IA légèrement moins intelligente, elle-même alignée par une IA légèrement moins intelligente, et ainsi de suite, jusqu’à arriver à une IA suffisamment proche de l’intelligence humaine pour être alignée par ses soins.

Dernière consultation : 15/11/2024.

Ressource 20
Le site web du rapport Situational Awareness, sur lequel celui-ci peut être téléchargé gratuitement.

Dernière consultation : 15/11/2024.

Ressource 21
Le centre de calcul Colossus (page générée par l’auteur grâce au moteur de recherche fondé sur l’IA, Perplexity).

Dernière consultation : 15/11/2024.

Ressource 22
L’article d’OpenAI introduisant les scaling laws associées au temps donné à l’IA. Le premier schéma fait en réalité apparaître deux nouvelles scaling laws : au moment de l’apprentissage (train-time compute), donner plus de temps à l’IA améliore son intelligence, et au moment de l’utilisation (test-time compute), donner plus de temps à l’IA améliore ses réponses.

Dernière consultation : 15/11/2024.

Ressource 23
L’article de DeepMind Position: Levels of AGI for Operationalizing Progress on the Path to AGI introduisant leur typologie des systèmes d’IA.

Dernière consultation : 15/11/2024.

Ressource 24
Une vidéo du Figure-01, un robot intelligent « généraliste » embarquant les technologies d’OpenAI.

Dernière consultation : 15/11/2024.

Ressource 25
La vidéo de la scène finale de WarGame, dans laquelle l’IA conclut qu’avec une arme existentielle, la meilleure stratégie de guerre est de ne pas jouer.

Dernière consultation : 15/11/2024.

Ressource 26
La page du Statement on AI Risk avec la liste des signataires.

Dernière consultation : 15/11/2024.

Ressource 27
La vidéo du discours de Rishi Sunak à la Royal Society.

Dernière consultation : 15/11/2024.

Ressource 28
Le tweet d’Ilya Sutskever annonçant le lancement de SSI.

Dernière consultation : 15/11/2024.

Ressource 29
Un chercheur en gouvernance de l’IA, Zach Stein-Perlman, étudie et mesure les actions prises par les plus importantes entreprises d’IA en matière de sécurité de leurs technologies. Ses scores ainsi que tout son travail d’analyse sont disponibles sur le site AI Lab Watch.

Dernière consultation : 15/11/2024.

Ressource 30
La page web de l’AI Act, sur laquelle on peut retrouver le texte lui-même ainsi que de nombreuses explications plus accessibles.

Dernière consultation : 15/11/2024.

Ressource 31
La déclaration de Bletchley, signée par les pays ayant participé au AI Safety Summit les 1ier et 2 novembre 2023.

Dernière consultation : 15/11/2024.

Ressource 32
Le papier décrivant la proposition MAGIC.

Dernière consultation : 15/11/2024.

Ressource 33
Le plan A Narrow Path, en anglais et en français pour l’executive summary (traduction réalisée par l’auteur du présent ouvrage et GPT-4o).

Dernière consultation : 15/11/2024.

Ressource 34
Les propositions gagnantes du concours du Future of Life Institute.

Dernière consultation : 15/11/2024.

Ressource 35
La page web de l’European Network for AI Safety présentant le réseau d’instituts européens dédiés à la sécurisation des technologies d’IA.

Dernière consultation : 15/11/2024.

Du même auteur

Hypercréation
Petit traité pour apprivoiser les C-Borgs

« Un livre incontournable pour comprendre l’IA et son impact sur la création sous toutes ses formes ! »