L’IA pourrait échapper à notre contrôle
Wikidébats, l'encyclopédie des arguments « pour » et « contre »
Aller à la navigation
Aller à la recherche
Résumé
L'accélération du développement de l'IA sans garantir son alignement avec les valeurs humaines pourrait mener à une situation où une IA avancée, capable de s'auto-améliorer, prendrait des décisions contraires aux intérêts humains. Une telle IA pourrait devenir incontrôlable, représentant un risque existentiel pour l'humanité. L'absence de garanties sur la sécurité et l’éthique des systèmes d’IA amplifie ces craintes.
Citations
« [...] une intelligence artificielle non alignée sur nos valeurs pourrait devenir un risque existentiel pour l’humanité. »
Nick Bostrom, « Superintelligence: Paths, Dangers, Strategies », Oxford University Press, 2014.