Logo DizionarioItaliano.it

Significato di Imperialismo

Imperialismo

s.m.

1. tendenza di uno stato a estendere il proprio dominio su territori che originariamente non gli appartengono o ad acquistare egemonia sui popoli che li abitano

2. (econ.) fase del capitalismo caratterizzata dal prevalere del capitale finanziario e dagli investimenti all'estero

3. (fig.) egemonia culturale: l'imperialismo cinematografico americano.

Altre definizioni correlate di Imperialismo

Ultime ricerche