Transformer by hand - ouvrons la black box méticuleusement !
DESCRIPTION
Diego Dorn, l'un de nos étudiants du programme ML4Good, a créé un sujet de hackathon original sur l'interprétabilité : Hand transformer. L'objectif du hackathon est de mesurer les connaissances des participant·es en interprétabilité en leur demandant d'écrire les poids des éléments dans les matrices de nombres des modèles GPT. Être capable de construire poids par poids les GPT permet d'obtenir une bien meilleure compréhension de ces modèles.
Date de publication
7/6/23
Date de dernière modification :
19/6/23
écrit par :
Diego Dorn

Transformers are behind many of the most exciting recent developments in machine learning. However they are difficult to understand and most attempts to do so tried to dissect trained models. The goal here is the opposite: we will put the weights into the models by hand, so that we know precisely what they do.

The family of models we have chosen here is very similar to GTP-2, but of course much smaller. They will be used to complete text, and generate patterns that are more and more complex as we go.

The machine we are going to tweak is the following, where every orange bit is a parameter that can be changed.

Pour avoir une idée de ce à quoi ressemblerait ces paramètres, lire : Induction heads - illustrated - LessWrong.

retourEN savoir plusLire