En France, la santé est devenue une manne pour les investisseurs. Notre système de soins est investi par un capitalisme financiarisé qui prend le contrôle progressivement de la biologie, de la radiographie, de l’ophtalmologie et du secteur dentaire, où des professionnels cèdent les rênes de leurs activités à des fonds d’investissement.