Bonjour,

Perso, ya juste le boulot et "l'argent" qui fait de la France un bon pays par rapport à chez nous. Sinon psychologiquement, c'est beaucoup mieux de vivre au pays.

Cette France ou tu es stressé en permanence, ou TOUT est à payer ; à chaque fois que je le peux, je m'en vais me ressourcer.......tout en espèrant un jour pouvoir la quitter definitivement.....