Logo DizionarioItaliano.it

Significato di Western

Western

agg. e s.m. invar. si dice di film che ha per ambientazione le regioni occidentali degli stati uniti della seconda metà del sec. xix, e che narra storie avventurose i cui protagonisti sono soprattutto sceriffi, cow-boy e pellirosse; il genere cinematografico costituito da questi film | western all'italiana , filone cinematografico fiorente negli anni sessanta, che imitava i temi del genere western tradizionale, accentuandone di solito ironicamente e spettacolarmente gli aspetti più tipici.

Altre definizioni correlate di Western

Ultime ricerche