Le Reiki est une thérapie inventée au début du XXe siècle par un japonais du nom de Mikao Usui. C'est une thérapie qui se réalise par des gestes manuels à la fois doux et énergétiques, dont le but est d'apaiser le corps, mais aussi l'esprit en leur apportant le bien-être dont ils ont besoin pour que l'homme se sente en pleine forme et sûr de lui.
Au fil des années, cette thérapie a démontré de si bons résultats que des académies de Reiki sont nées un peu partout dans le monde pour perpétrer cette nouvelle méthode de guérison naturelle, saine et douce. En France, vous pouvez ainsi trouver de nombreux centres qui proposent les soins Reiki. C'est aussi l'occasion pour vous de vous initier à cette méthode de guérison du corps, en suivant des formations offertes sur place.
Cours et formations de Reiki
Il existe deux grands courants de formations à la Reiki. D'une part vous avez l'école classique qui enseigne le Reiki sous sa forme originelle, authentique, et l'école moderne qui a pratiqué à une adaptation du Reiki aux réalités occidentales.
Toutefois, quelle que soit l'école qui vous intéresse, vous avez la garantie de vous voir enseigner le Reiki par des professionnels avec un accompagnement des plus intéressants.