Wellness-Lexikon: Wellness

Unter Wellness versteht man heutzutage das aktive, selbstverantwortliche Bemühen um das Gleichgewicht von Körper, Geist und Seele.

Wellness sollte bei aller gesundheitlichen Vorsorge vor allem auch Genuss und Sinnlichkeit beinhalten.

Der Begriff gelangte in den USA in den 1950er Jahren zu ständig wachsender Popularität - in Deutschland hat Wellness erst seit Anfang der 1990er größere Bedeutung.

 Watsu

[ Zurück ]

Yin und Yang  


 

 

Kontakt | Impressum | Startseite | Design Bäder | Wellness Sauna | Apothekenvergleich | Relaxsessel