La Petite Histoire : La France a-t-elle pillé ses colonies ?

Parmi la multitude d’idées reçues qui viennent aujourd’hui entacher, souvent volontairement, l’histoire de France, il y en a une qui a particulièrement la vie dure : la France aurait pillé économiquement ses colonies. On nous présente donc une Afrique saignée à blanc par l’ogre français ; une Afrique qui aurait ainsi vu, par la même occasion, sont développement fortement retardé. Une thèse aussi grotesque que malhonnête, d’autant que la vérité historique nous montre… tout le contraire !



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.