Logo DizionarioItaliano.it

Significato di West

West

s.m. invar. le regioni occidentali degli stati uniti e del canada: l'epoca della conquista del west.

Altre definizioni correlate di West

Ultime ricerche