La singularité de l’IA est un événement futur hypothétique dans lequel l’intelligence artificielle a atteint un point où elle est capable de s’améliorer de façon exponentielle. Il en résulte que les humains ne sont plus en mesure de comprendre ou de contrôler la technologie en cours de création, ce qui peut conduire les machines à assumer un certain niveau de contrôle sur l’humanité.
L’intelligence artificielle générale est étroitement liée au concept de singularité. AGI fait référence à l’intelligence artificielle qui est capable d’effectuer n’importe quelle tâche aussi bien qu’un humain. Les gens pensent à l’AGI comme une exigence pour que la singularité se produise.
La technologie actuelle de l’IA est formée sur des ensembles de données existants générés par des humains. Cela signifie que tout ce que l’IA sait vient des humains, ce qui indique que les humains sont encore plus intelligents. La singularité marquerait un changement pour les ordinateurs ayant tellement appris qu’ils sont capables d’innover et de créer une technologie entièrement nouvelle et étrangère aux humains.
Que feraient les ordinateurs s’ils étaient plus puissants que nous ? Détruisez le monde ou sauvez-le – ou est-ce une seule et même chose, comme beaucoup d’histoires de science-fiction voudraient nous le faire croire ? Les scientifiques qui ont spéculé sur la singularité pensent que si ce moment arrive, ce sera un tournant décisif dans l’histoire humaine.
C’est une pensée inquiétante, mais un tel événement se produira-t-il réellement? Pouvons-nous l’arrêter? Et même si nous atteignons la singularité de l’IA, est-ce que cela signifiera le malheur pour l’humanité, ou entrerons-nous dans une ère de coopération entre les humains et l’IA ?
Quand la singularité se produira-t-elle ?
Avec les progrès rapides dans le monde de l’IA ces derniers temps, la singularité commence à ressembler davantage à une possibilité. La question est de savoir quand cela se produira.
Ray Kurzweil, responsable de l’IA de Google, a prédit il y a quelques années que la singularité serait là d’ici 2045. Lors d’une récente conférence, un expert en IA, John Hennessy, a déclaré : “Certains d’entre nous pensaient que le moment où nous aurions des l’intelligence générale était dans 40 ou 50 ans. Je pense que l’horizon de tout le monde a probablement reculé de 10 ou 20 ans.
Avec l’explosion des services d’IA que nous avons vu récemment, couvrant en particulier art et le mot écrit– et certaines des plus grandes entreprises technologiques du monde se bousculant pour se surpasser – son commentaire sonne vrai.
Cela dit, personne ne sait si la singularité se produira réellement. Il est possible que les développeurs mettent suffisamment de protections en place dans la technologie pour l’empêcher. Depuis les débuts publics de ChatGPT, de nombreux experts ont appelé à l’arrêt de la recherche sur l’IA avant que davantage de réglementations et de surveillance ne soient établies.
Peut-on empêcher la singularité ?
Les experts en IA sont divisés sur le sujet. Certains disent que la singularité est inévitable, tandis que d’autres prétendent que nous pouvons l’empêcher grâce à une réglementation prudente du développement de l’IA.
Alors que les deux UE et le ROYAUME-UNI explorent la réglementation de l’IA, on craint qu’au moment où la réglementation sur l’IA soit adoptée, la singularité se soit déjà produite. Et rien ne garantit que des réglementations significatives pourraient être adoptées.
La possibilité d’apporter des améliorations à de nombreux domaines grâce à l’IA, notamment la science, la médecine et l’éducation, est une perspective attrayante. Et nous n’avons même pas mentionné le côté entreprise de l’IA – il y a beaucoup d’argent à gagner. OpenAI a dit qu’il pourrait quitter l’UE si les règlements proposés actuels sont adoptés. C’est un premier aperçu du recul contre les réglementations sur l’IA auquel nous pouvons nous attendre de la part de certaines des entreprises les plus puissantes au monde.
De plus, les gouvernements voudront se faire concurrence dans le domaine de l’IA. Même s’il existe un accord sur la menace potentielle de l’IA, aucun pays ne veut arrêter les progrès de peur de prendre du retard sur ses rivaux.
Cependant, il existe d’autres moyens d’empêcher la singularité. L’une consisterait à implémenter un kill switch (soit physique, soit programmé dans l’IA elle-même) pour mettre fin à une IA si elle s’approchait d’un état considéré comme une singularité. Cependant, la fin d’une IA par ailleurs utile n’est pas non plus un résultat idéal. Dans un autre scénario, l’IA pourrait se rebeller, connaissant l’existence du kill switch, la propulsant à la place dans la réalisation de la singularité.
Qu’est-ce qui rendrait la singularité possible ?
Le développement continu de l’intelligence artificielle est ce qui rendra la singularité possible. Si l’IA arrive au point où elle est capable d’inventer une technologie au-delà de notre compréhension et de nos capacités (AGI), il est sûr de dire que la singularité est arrivée – l’IA a dépassé l’humanité en termes d’intelligence.
Et même si des restrictions sont mises en place dans la programmation d’une IA pour empêcher son intelligence de supplanter celle de l’humanité, de petites erreurs ou des paramètres mal définis pourraient provoquer par inadvertance la singularité que nous essayons d’empêcher.
Des comportements imprévus dans l’IA ont déjà été observés en raison de paramètres mal définis. En 2013, par exemple, le programmeur Tom Murphy a conçu une IA pour jouer aux jeux Nintendo NES. En jouant à Tetris, l’IA appris à mettre le jeu en pause indéfiniment pour s’empêcher de perdre. Murphy n’avait pas programmé l’IA pour faire ça. Imaginez simplement quelles conséquences imprévues pourraient se produire avec une IA beaucoup plus puissante.
Que peut-il se passer dans la singularité ?
Vous serez familier avec cette réponse : nous n’en avons aucune idée. Et c’est plutôt effrayant, même si un peu excitant. Un scénario idéaliste verrait les humains et les machines travailler ensemble, aller de l’avant pour créer un avenir meilleur pour les deux. De nouvelles technologies seraient découvertes, permettant potentiellement à l’humanité de faire ses premiers pas vers une installation ailleurs dans le système solaire. Les humains et les machines pourraient même fusionner pour créer une nouvelle forme d’intelligence.
Cependant, un autre avenir verrait les machines conquérir le monde, les humains vivant sous leur contrôle. Étant donné que la singularité entraînerait une technologie au-delà de notre compréhension, il est fort probable que nous serions incapables d’arrêter les machines. Les films et les livres ont longtemps exploré un tel avenir, tout comme le physicien Stephen Hawking et l’entrepreneur Elon Musk, qui craignent tous deux que l’IA avancée puisse échapper à notre contrôle.
En savoir plus: Les meilleurs films sur l’intelligence artificielle à travers les âges