Wellness-Lexikon: Wellness
Unter Wellness versteht man heutzutage das aktive, selbstverantwortliche Bemühen um das Gleichgewicht von Körper, Geist und Seele.
Wellness sollte bei aller gesundheitlichen Vorsorge vor allem auch Genuss und Sinnlichkeit beinhalten.
Der Begriff gelangte in den USA in den 1950er Jahren zu ständig wachsender Popularität - in Deutschland hat Wellness erst seit Anfang der 1990er größere Bedeutung.
|