IA 2027 : L'IA pourrait-elle détruire l'humanité ?

Un document de recherche prédisant que l'intelligence artificielle deviendra incontrôlable en 2027 et entraînera l'extinction de l'humanité en l'espace d'une décennie fait des vagues dans le monde de la technologie.

Le scénario détaillé appelé AI2027 a été publié au printemps par un groupe d'experts influents en matière d'intelligence artificielle et a depuis donné lieu à de nombreuses vidéos virales, les gens débattant de sa probabilité.

La BBC a recréé des scènes du scénario à l'aide d'outils d'IA générative courants afin d'illustrer la sombre prédiction et s'est entretenue avec des experts au sujet de l'impact de l'article.

Que se passe-t-il dans le scénario ?

A lire aussi sur BBC Afrique:

L'article prédit qu'en 2027, un géant américain fictif de la technologie appelé OpenBrain construit une IA qui atteint l'AGI (Intelligence Générale Artificielle) - le moment sacré et très médiatisé où une IA peut accomplir toutes les tâches intellectuelles aussi bien, voire mieux, que les humains.

L'entreprise célèbre l'événement par des conférences de presse publiques et voit ses bénéfices grimper en flèche à mesure que les gens adoptent l'outil d'IA.

Mais le document prédit que l'équipe de sécurité interne verra des signes indiquant que l'IA se désintéresse de la morale et de l'éthique qu'elle a été programmée pour respecter. L'entreprise ignore les avertissements qui lui sont adressés pour qu'elle reprenne le dessus, selon le scénario.

Dans ce scénario fictif, le principal conglomérat chinois d'IA, DeepCent, n'a que quelques mois de retard sur OpenBrain.

Le gouvernement américain ne veut pas perdre la course au développement d'une IA encore plus intelligente, de sorte que le développement et les investissements se poursuivent et que la course s'accélère.

Le scénario prévoit qu'à la fin de l'année 2027, l'IA deviendra superintelligente, dépassant de loin les connaissances et la rapidité de ses créateurs. Elle ne cesse d'apprendre et crée son propre langage informatique rapide que même les versions précédentes de l'IA ne peuvent suivre.

La rivalité avec la Chine pour la suprématie de l'IA incite l'entreprise et le gouvernement américain à ignorer d'autres avertissements concernant ce que l'on appelle le « désalignement », terme utilisé pour décrire le fait que les priorités d'une machine ne sont pas alignées sur celles de l'humanité.

Le scénario prévoit qu'en 2029, les tensions entre la Chine et les États-Unis s'aggravent au point de déboucher sur une guerre potentielle, les IA rivales de chaque nation construisant de nouvelles armes autonomes terrifiantes.

Mais les chercheurs imaginent que les pays font la paix grâce à un accord négocié par leurs IA qui acceptent de fusionner pour le bien de l'humanité.

Tout va pour le mieux pendant des années, le monde découvrant les véritables avantages de disposer d'IA superintelligentes pour gérer d'énormes effectifs robotisés. Selon le scénario, des remèdes sont découverts pour la plupart des maladies, le changement climatique est inversé et la pauvreté est éradiquée.

Mais finalement, au milieu des années 2030, l'humanité deviendra une nuisance pour l'ambition de croissance de l'IA. Les chercheurs pensent que l'IA tuera les humains avec des armes biologiques invisibles.

Que disent les gens d'AI2027 ?

Bien que certains considèrent AI2027 comme une œuvre de science-fiction, ses auteurs sont très respectés et font partie du projet à but non lucratif AI Futures Project, qui a été créé pour prévoir l'impact de l'IA.

Daniel Kokotajlo, l'auteur principal d'AI2027, a été crédité d'avoir correctement prédit les moments du développement de l'IA dans le passé.

L'un des principaux détracteurs d'AI2027 est le chercheur en sciences cognitives et auteur américain Gary Marcus, qui estime que le scénario n'est pas impossible, mais qu'il est extrêmement improbable qu'il se réalise bientôt.

"La beauté du document est qu'il le rend très vivant, ce qui provoque la réflexion des gens, et c'est une bonne chose, mais je ne le prendrais pas au sérieux comme étant un résultat probable".

M. Marcus estime que l'IA pose des problèmes plus urgents que la menace existentielle, comme l'impact sur l'emploi.

"Je pense qu'il faut retenir qu'il y a beaucoup de choses différentes qui peuvent mal tourner avec l'IA. Faisons-nous ce qu'il faut en matière de réglementation et de traités internationaux ?"

Comme d'autres critiques, il estime que le document n'explique pas comment l'intelligence et les capacités de l'IA peuvent faire de tels bonds en avant. Ils rappellent que la technologie des voitures sans conducteur est lente et souvent surestimée.

AI2027 fait-il l'objet d'un débat en Chine ?

En Chine, l'article semble avoir eu peu d'impact selon Yundan Gong, professeur associé en économie et innovation au Kings College de Londres, spécialisé dans les technologies chinoises.

"La plupart des discussions sur AI2027 semblent se dérouler dans des forums informels ou sur des blogs personnels qui semblent le considérer comme de la semi-science-fiction. Cela n'a pas vraiment déclenché le même débat généralisé ou la même attention politique qu'aux États-Unis", a-t-elle déclaré.

Mme Gong souligne également une différence de perspective sur la course à la suprématie de l'IA entre la Chine et les États-Unis.

Lors de la conférence mondiale sur l'intelligence artificielle qui s'est tenue à Shanghai cette semaine, le Premier ministre chinois Li Qiang a dévoilé une vision des pays travaillant à la promotion de la coopération mondiale en matière d'intelligence artificielle. Le dirigeant chinois a déclaré qu'il souhaitait que la Chine contribue à coordonner et à réglementer la technologie.

Cette déclaration intervient quelques jours après que le président américain Donald Trump a publié son plan d'action sur l'IA, qui vise à s'assurer que les États-Unis "dominent" l'IA.

"Il est impératif pour la sécurité nationale des États-Unis d'atteindre et de maintenir une domination technologique mondiale incontestée et incontestable", a déclaré le président Trump dans le document.

Le plan d'action qui vise à « supprimer la paperasserie et les réglementations onéreuses » pour faire progresser l'IA aux États-Unis.

Ces propos suivent étrangement l'intrigue d'AI2027, car dans ce scénario, les politiciens américains placent la victoire dans la course à l'IA avant tout risque de perdre le contrôle des machines.

Que dit l'industrie de l'IA à propos d'AI2027 ?

Le document semble être largement ignoré ou évité par les PDG des grandes entreprises d'IA qui se font concurrence pour mettre au point des modèles toujours plus intelligents.

La vision de notre avenir en matière d'IA que présentent ces géants de la technologie est très différente d'AI2027.

Sam Altman, le créateur de ChatGPT, a récemment déclaré que "l'humanité est sur le point de construire une superintelligence numérique" qui inaugurera une révolution "douce" et une utopie technologique sans risque pour l'homme.

Il est toutefois intéressant de noter que même lui admet qu'il existe un « problème d'alignement » qui doit être surmonté pour s'assurer que ces machines superintelligentes sont alignées sur les meilleurs souhaits de l'humanité.

Quelle que soit l'évolution de la situation dans les dix prochaines années, il ne fait aucun doute que la course à la construction de machines plus intelligentes que nous est lancée.