Quelle est la définition du mot Namibie?

Quelle est la définition du mot Namibie? Voici une liste des significations pour ce mot.
Définition
Nom propre
  1. (Géographie) Pays situé en Afrique australe, entouré à l’ouest par l’océan Atlantique, au nord par l’Angola, au sud par l’Afrique du Sud, à l’est par le Botswana et au nord-est par le Zimbabwe et la Zambie.
Recherche Encore

Voir aussi

© WordHippo 2021 Contactez Nous Conditions Confidentialité English Español Italiano Deutsch