Salam Aleykoum a tous et à toutes! J'aimerais qu'on puisse débattre sur la question de l'éclaircissement de la peau que pratique certaines femmes. Je trouve que c'est un phénomène grandissant et de plus en plus pratiqué. De plus alors que beaucoup de femmes se blanchissaient la peau en afrique très peu le faisait en france or aujourd'hui beaucoup de femmes et de jeunes filles en france s'éclaircissent la peau. Pourquoi et dans quel but? Est-ce le résultat d'un mal être? est-ce une façon de mieux s'intégrer en France et d'avoir une place à part entière auprès du Blanc? est-ce une manière d'être plus belle? J'aimerais qu'on débat sur sujet afin d'y voir plus Clair!!!c'est le cas de le dire! A bientôt incha allah