Le machine learning est de plus en plus integr ´ e dans ´ nos vies quotidiennes, notamment a travers des syst ` emes person- ` nalises. Toutefois, la confidentialit ´ e des donn ´ ees pose un d ´ efi ma- ´ jeur. L'apprentissage fed´ er´ e (FL) r ´ epond ´ a cette probl ` ematique en ´ permettant l'entraˆınement de modeles sans partager les donn ` ees ´ sensibles. Cependant, bien que FL garantisse la confidentialite´ des donnees, il reste vuln ´ erable ´ a diverses attaques, comme les ` attaques par empoisonnement des donnees ou l'inf ´ erence sur ´ les poids du modele. L'observation faite est que l'ensemble des ` modeles d ` eploy ´ es dans ce contexte FL peuvent ´ etre consid ˆ er´ es´ comme des variants du modele global, faisant ainsi ` echo au ´ monde de la variabilite logicielle. Cette th ´ ese propose donc ` d'adapter des techniques de test logiciel et de gestion de la variabilite pour renforcer la s ´ ecurit ´ e et la robustesse du FL, en ´ tenant compte de son evolution dans le temps et de ses sp ´ ecificit ´ es.