Reiki

 

Das Wort Reiki bezeichnet die universelle Lebensenergie,
den Impuls, der uns am Leben erhält,
der biologisches Leben überhaupt erst ermöglicht.

Bei Krankheit bzw. Störungen körperlicher oder seelischer Art
besteht ein Defizit an Reiki.

Es ist möglich durch Auflegen der Hände
diese Energie auf andere Menschen zu übertragen
und sie damit auf dem Weg zu ihrer Gesundung zu unterstützen.