Contrôle des capacités de l'IA

Aujourd'hui, nous souhaitons consacrer un espace pour parler de Contrôle des capacités de l'IA, un sujet qui a gagné en pertinence ces derniers temps. Contrôle des capacités de l'IA est une problématique qui nous concerne tous, puisqu'elle a un impact direct sur nos vies. Tout au long de cet article, nous explorerons différents aspects et perspectives liés à Contrôle des capacités de l'IA, dans le but de fournir une vision globale et complète sur ce sujet. Nous aborderons son importance, son évolution dans le temps, ses implications dans la société actuelle et sa projection future. Sans aucun doute, Contrôle des capacités de l'IA est un sujet fascinant qui nous invite à réfléchir et à analyser son influence sur nos contextes personnels et collectifs.

Dans le domaine de l'intelligence artificielle (IA), le contrôle des capacités de l'IA, également appelé confinement de l'IA, vise à accroître notre capacité à surveiller et à contrôler le comportement des systèmes d'IA, en particulier pour les intelligences générales artificielles ou les superintelligences artificielles. Le but est de réduire le risque posé par l'IA si elle est mal alignée. Cependant, le contrôle des capacités devient moins efficace à mesure que les agents deviennent plus intelligents et que leur capacité à exploiter des failles augmente, ce qui peut entraîner un risque existentiel. Par conséquent, le philosophe d'Oxford Nick Bostrom et d'autres recommandent les méthodes de contrôle des capacités uniquement en complément des méthodes d'alignement.

Motivation

Une hypothétique superintelligence qui ne serait pas confinée pourrait, selon ses objectifs, prendre des mesures entraînant l'extinction humaine. Presque quel que soit ses objectifs, un agent intelligent est incité à survivre et acquérir des ressources, selon le concept de convergence instrumentale. Ce genre de phénomènes peut amener un agent ayant des objectifs apparemment inoffensifs à adopter des comportements dangereux. Par exemple, un système extrêmement avancé ayant pour seul but de résoudre l'hypothèse de Riemann, une conjecture mathématique, pourrait décider de tenter de convertir la planète en supercalculateur géant, s'il juge que ça augmenterait ses chances de trouver une démonstration.

Une difficulté majeure du contrôle des capacités est que les réseaux de neurones sont par défaut très difficiles à interpréter. Cela rend plus difficile la détection de la tromperie ou d'autres comportements indésirables. Les progrès en interprétabilité pourraient donc atténuer cette difficulté.

Articles connexes

Notes et références

  1. (en) Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford, First, (ISBN 9780199678112).
  2. Vincent C. Müller et Nick Bostrom, Future progress in artificial intelligence: A survey of expert opinion" in Fundamental Issues of Artificial Intelligence, Springer, , p. 553-571.
  3. (en) « Instrumental Convergence - LessWrong », sur www.lesswrong.com (consulté le )
  4. Stuart J. Russell et Peter Norvig, Artificial Intelligence: A Modern Approach, Upper Saddle River, N.J., Prentice Hall, (ISBN 978-0137903955), « Section 26.3: The Ethics and Risks of Developing Artificial Intelligence », Similarly, Marvin Minsky once suggested that an AI program designed to solve the Riemann Hypothesis might end up taking over all the resources of Earth to build more powerful supercomputers to help achieve its goal.
  5. (en) Montavon, Samek et Müller, « Methods for interpreting and understanding deep neural networks », Digital Signal Processing, vol. 73,‎ , p. 1–15 (ISSN 1051-2004, DOI 10.1016/j.dsp.2017.10.011, S2CID 207170725).
  6. (en) Yampolskiy, Roman V., « Unexplainability and Incomprehensibility of AI », Journal of Artificial Intelligence and Consciousness,‎ , p. 277-291. 7.02.