Depuis la parution de la tribune d’EffiSciences dans Le Monde exposant les fondements de la recherche impliquée, le pôle IA s’investit dans la sensibilisation et la recherche sur les risques potentiellement catastrophiques, voire existentiels, liés au développement d’intelligence artificielle à usage général (1, 2, 3, 4). Parce qu’elles sont source de progrès mais également susceptibles d’engendrer des risques majeurs, nous visons à promouvoir la recherche en sûreté, en robustesse et en interprétabilité de ces systèmes. Cette recherche négligée est nécessaire afin de garantir un développement responsable de cette technologie.
Découvrir : Conférences et Journées de formation
Se rencontrer : En ligne et à l'ENS Ulm lors des vendred'IA
Maîtriser : Séminaires universitaires accrédités et Bootcamps de recherche
Faire de la recherche : Groupes de recherche, Hackathons de recherche, Stages et Programmes internationaux
Différents paradigmes de solutions existent pour sécuriser les IA. La page notre vision présente un agenda de recherche qui, avec des mesures de gouvernance adaptées, devrait permettre aux IA générales d'être bénéfiques de manière robuste.