Logo DizionarioItaliano.it

Significato di Colonialismo

Colonialismo

s.m.

1. la politica di dominio coloniale perseguita dalle potenze europee, spec. a partire dalla seconda metà del sec. xix agli anni successivi alla seconda guerra mondiale

2. (non com.) vocabolo o espressione di origine coloniale entrati in una lingua europea.

Altre definizioni correlate di Colonialismo

Ultime ricerche