Logo DizionarioItaliano.it

Significato di Naturalismo

Naturalismo

s.m.

1. ogni dottrina filosofica che non ammette nulla al di fuori o al di sopra della natura, e quindi tenta di spiegare tutta la realtà con le sole leggi naturali, senza l'intervento di un principio trascendente o spirituale: il naturalismo dei presocratici ; il naturalismo rinascimentale

2. teoria estetica affermatasi in francia nella seconda metà del sec. xix per influenza del positivismo, secondo la quale l'opera d'arte non ha come fine il bello, ma è equiparabile a un documento scientifico e deve proporsi di rappresentare, in modo rigoroso e impersonale, la psicologia umana e l'ambiente sociale: il naturalismo di e. zola , di g. de maupassant ; il naturalismo francese e il verismo italiano.

Ultime ricerche