Naturismo

Movimento – formatosi tra la fine del sec. 19° e il principio del 20° come reazione agli eccessi della civiltà industriale e dell’urbanesimo – che tende a un ritorno dell’uomo a forme naturali di vita semplice e schietta, attraverso un tipo di alimentazione prevalentemente vegetale, l’immediato contatto con la natura, la semplificazione del vestiario fino alla sua totale soppressione.
Vocabolario Treccani

Il naturismo ci rende più felici.
Keon West Continua a leggere “Naturismo”