Logo DizionarioItaliano.it

Significato di Organicismo

Organicismo

s.m.

1. ogni dottrina filosofica o scientifica che concepisca la natura, o la società umana, come un organismo analogo a quello degli esseri viventi

2. (psicol.) concezione che attribuisce a fattori organici (anatomici, fisiologici ecc.) la genesi degli eventi psichici e psicopatologici

3. (med.) teoria che interpreta le malattie come pura alterazione di elementi anatomo-patologici.

Ultime ricerche