Wellness-Lexikon: Naturkost
Naturkost ist die Bezeichnung für naturbelassene Nahrungsmittel. Wenn man von Naturkost spricht, sind Lebensmittel aus biologischem Anbau
gemeint. Diese Nahrungsmittel sind vollwertig, gesund und erfüllen alle ethischen Kriterien.
|