L’IA pourrait échapper à notre contrôle
Aller à la navigation
Aller à la recherche
Cet argument est utilisé dans le débat Faut-il accélérer le développement de l'intelligence artificielle ?.
Cet argument est un argument « contre » dans le débat Faut-il accélérer le développement de l'intelligence artificielle ?.
Résumé
L'accélération du développement de l'IA sans garantir son alignement avec les valeurs humaines pourrait mener à une situation où une IA avancée, capable de s'auto-améliorer, prendrait des décisions contraires aux intérêts humains. Une telle IA pourrait devenir incontrôlable, représentant un risque existentiel pour l'humanité. L'absence de garanties sur la sécurité et l’éthique des systèmes d’IA amplifie ces craintes.
Citations
« [...] une intelligence artificielle non alignée sur nos valeurs pourrait devenir un risque existentiel pour l’humanité. »
Nick Bostrom, « Superintelligence: Paths, Dangers, Strategies », Oxford University Press, 2014.