Logo DizionarioItaliano.it

Significato di Naturismo

Naturismo

s.m.

1. movimento nato alla fine del secolo scorso che, per reazione agli eccessi dell'urbanesimo, propone un genere di vita più vicino alla natura (vita all'aria aperta, nudità comune, alimentazione semplificata, massimo rispetto per l'ambiente naturale e per gli altri individui)

2. nella storia delle religioni, teoria per cui le divinità primordiali o mitologiche sarebbero personificazioni di fenomeni e di forze naturali

3. (antiq.) naturalismo.

Ultime ricerche