Definicja Kolonializm
Co oznacza
Kolonializm to jest rodzaj polityki państwa - metropolii - mający na celu zdobycie i eksploatację nowych obszarów, istotnych m. in. ze względów strategicznych i ekonomicznych. Mechanizm kolonializmu ukształtował się w XIX wieku wskutek rywalizacji krajów o nowe posiadłości, w pierwszej kolejności w Azji, Afryce i Oceanii.
Charakterystyczne dla kolonializmu było zupełne nieposzanowanie praw ludności miejscowej i jej instytucji socjalnych i kultury. W swojej istocie kolonializm jest polityczno-ekonomicznym i wojskowym praktykowaniem rasizmu w formie bezpośredniej.
Mechanizm kolonializmu rozpadł się kompletnie dopiero po II wojnie światowej i dzisiaj dawne kolonie są już krajami niezależnymi, w większości zaliczanymi do ekipy państw rozwijających się. Mimo formalnej niepodległości tych krajów obecność gospodarcza byłych metropolii (raczej handlowo-finansowa) jest w nich oczywista. Obserwuje się wielkie wpływy kulturowe i militarne dawnych mocarstw kolonialnych - na przykład francuskie jednostki wojskowe stacjonują nadal w wolnych państwach afrykańskich, takich jak: Czad, Gabon, Kongo, Republika Środkowoafrykańska i Dżibuti.
Źródło: M. Baczwarow, A. Suliborski, Kompendium wiedzy o geografii politycznej i geopolityce, Warszawa 2003
Czym jest Kolonializm znaczenie w Słownik K .