Culture: Ce que l’image de l’Afrique doit malheureusement à Hollywood
Et si les films américains essayaient de raconter l’Afrique telle qu’elle est réellement ? En effet, entre le misérabilisme d’avant la décennie 2000 et l’idéalisation de ces dernières années, les Africains pourraient s’y perdre.
Français