L’IA pourrait échapper à notre contrôle

De Wikidébats, l'encyclopédie des débats et des arguments « pour » et « contre »
Aller à la navigation Aller à la recherche
Argument contreCet argument est un argument « contre » dans le débat Faut-il accélérer le développement de l'intelligence artificielle ?.
Mots-clés : Alignement de l’IA, Sécurité technologique, Risque existentiel[ modifier ].

RésuméRésumé

L'accélération du développement de l'IA sans garantir son alignement avec les valeurs humaines pourrait mener à une situation où une IA avancée, capable de s'auto-améliorer, prendrait des décisions contraires aux intérêts humains. Une telle IA pourrait devenir incontrôlable, représentant un risque existentiel pour l'humanité. L'absence de garanties sur la sécurité et l’éthique des systèmes d’IA amplifie ces craintes.

CitationsCitations

« [...] une intelligence artificielle non alignée sur nos valeurs pourrait devenir un risque existentiel pour l’humanité. »

Nick Bostrom, « Superintelligence: Paths, Dangers, Strategies », Oxford University Press, 2014.

RéférencesRéférences

Arguments pourJustifications

  • Argument pourLes IA qui programment d'autres IA échappent à notre compréhension
  • Argument pourLes problèmes d’alignement des IA sont réels

Arguments contreObjections

  • Argument contreLes IA n’ont pas de volonté propre et ne ressentent aucun désir
  • Argument contreDes IA plus intelligentes peuvent résoudre le problème d’alignement des IA

Débat parentDébat parent