Aller au contenu

L’IA pourrait échapper à notre contrôle

Wikidébats, l'encyclopédie des débats et des arguments « pour » et « contre »
Cet argument est un argument « contre » dans le débat : Faut-il accélérer le développement de l'intelligence artificielle ?.

Résumé 

L'accélération du développement de l'IA sans garantir son alignement avec les valeurs humaines pourrait mener à une situation où une IA avancée, capable de s'auto-améliorer, prendrait des décisions contraires aux intérêts humains. Une telle IA pourrait devenir incontrôlable, représentant un risque existentiel pour l'humanité. L'absence de garanties sur la sécurité et l’éthique des systèmes d’IA amplifie ces craintes.

Citations 

« [...] une intelligence artificielle non alignée sur nos valeurs pourrait devenir un risque existentiel pour l’humanité. »

Nick Bostrom, « Superintelligence: Paths, Dangers, Strategies », Oxford University Press, 2014

Références 

Justifications 

Objections 

Débat parent