Suite à la parution de notre tribune dans Le Monde exposant les fondements de la recherche impliquée, le pôle IA s’investit dans la sensibilisation et la recherche sur les risques liés à l’emploi de ces technologies. Parce qu’elle est source de progrès et susceptible d’engendrer des risques majeurs, nous voulons promouvoir la recherche en sûreté, en robustesse et en interprétabilité des IA à usage général. Cette recherche aujourd’hui négligée est nécessaire afin de garantir un développement responsable de cette technologie.
Découvrir : Conférences et Journées de formation
Se rencontrer : En ligne et à l'ENS Ulm lors des vendred'IA
Maîtriser : Séminaires universitaires accrédités et Bootcamps de recherche
Faire de la recherche : Groupes de recherche, Hackathons de recherche, Stages et Programmes internationaux
Différents paradigmes de solutions existent pour sécuriser les IA. La page notre vision présente un agenda de recherche qui, avec des mesures de gouvernance adaptées, devrait permettre aux IA générales d'être bénéfiques de manière robuste.