18 novembre 2005
De l'influence de la France aux Etats-Unis
Selon une enquête réalisée par l'institut d'études Pew Research Center, la France verrait son influence décliner aux Etats-Unis. A la question "Quels sont les alliés des Etats-Unis qui seront les plus/moins influents ?", la France est la nation la plus...