L'objectif de premier ordre du travail technique pour la gouvernance de l’IA est non pas de résoudre l’alignement mais de “gagner du temps” pour que les travaux en sûreté (interprétabilité, corrigibilité etc.) fassent leurs preuves. “Acheter” du temps pour la sûreté via des régulations ou d’autres outils de politiques publiques devient en effet de plus en plus crucial face à la rapide évolution des capacités des modèles de ML de frontière, alors que la recherche en sûreté est un champ naissant où de grandes avancées scientifiques et techniques sont encore nécessaires pour pouvoir ainsi assurer un développement sûr d’IA avancées.
La suite du document est disponible en cliquant sur le bouton "en savoir plus"