Recueil des présentations - Fondation Bâtiment Energie

Transcription

Recueil des présentations - Fondation Bâtiment Energie
1
RECUEIL
DES PRESENTATIONS
www.batiment-energie.org
Séminaire Expert
sur la Mesure de la Performance
Energétique des Bâtiments
10 et 11 février 2016
Louveciennes
Vers des
bâtiments
Facteur 4
La Fondation
Bâtiment-Énergie
est une Fondation
de recherche
reconnue
d’utilité publique
par le décret
du 14 mars 2005
www.batiment-energie.org
Reconnue d‘utilité publique
en 2005, la Fondation
Bâtiment-Énergie est l’une
des seules en France à œuvrer
sur le thème du développement
durable dans le secteur
du bâtiment.
Les projets de recherche
soutenus par
la Fondation
Bâtiment-Énergie
Elle contribue à la réalisation
des objectifs du Grenelle de
l’Environnement et du PREBAT
(Plateforme de Recherche et
d’Expérimentation sur l’Énergie
dans le Bâtiment) en matière de
réhabilitation et de construction
de bâtiments à très hautes
performances énergétiques.
La Garantie
de Performance
Énergétique (GPE)
Sa mission est de favoriser
l’émergence de technologies
innovantes permettant de réduire
d’un Facteur 4 à l’horizon 2050
les consommations d'énergie et
les émissions de gaz à effet de
serre et d’accroître le recours
aux énergies renouvelables
dans le secteur du bâtiment.
La Fondation Bâtiment-Énergie
soutient en priorité des projets
de recherche relatifs à la
réhabilitation performante
des bâtiments existants.
Créée à l’initiative de l’ADEME
et du CSTB, elle est constituée
et financée par quatre acteurs
majeurs du bâtiment et de
l’énergie, ArcelorMittal, EDF,
ENGIE, LAFARGE, et par
les pouvoirs publics.
Assurer au maître d’ouvrage que
sa consommation d’énergie après
travaux ne dépasse pas la valeur
prévue
Réaliser une méthodologie permettant de
garantir la performance énergétique des bâtiments
tertiaires et collectifs réhabilités : la consommation
d’énergie après travaux sera vérifiée à partir de données
réelles constatées et non pas seulement à partir de données
théoriques. En cas de non atteinte de la performance
énergétique garantie, les responsabilités seront recherchées,
les prestations défaillantes rétablies, le client sera
dédommagé sur la base de l’écart entre la consommation
constatée et la consommation garantie.
Les travaux de recherche portent sur les bâtiments
résidentiels collectifs et les bâtiments tertiaires faisant
l’objet de programmes de rénovations ambitieux concernant
plusieurs corps d’état.
Cette méthodologie vise à répondre aux objectifs
suivants :
• obtenir le Facteur 4 sur les émissions de gaz à effet de
serre ou les consommations d’énergie, ou progresser
vers le Facteur 4 avec un Facteur minimum de 2 sans
détruire le gisement Facteur 4 ;
• favoriser le développement de la GPE sur la rénovation
globale incluant enveloppe, systèmes et gestion
régulation ;
• trouver le bon compromis entre coût et marge
d’erreur de la démarche de mesure et vérification
des performances réelles ;
• apporter des éléments d'explication et de recalage
des écarts entre prévisions et mesures.
La méthodologie de GPE sera conçue pour une contractualisation d’un maître d’ouvrage avec un prestataire.
Ce prestataire pourra être une entité issue de la filière
technique du bâtiment (telle que l’exploitation,
l’industrie, la construction et l’installation, la production
d’énergie, la maîtrise d’œuvre, les bureaux d’études) ou
issue du secteur financier ou des assurances, ou encore
correspondant à un nouveau métier d’intégration de la
rénovation de bâtiments associée à une offre GPE.
Les bâtiments
tertiaires de bureaux
Quatre projets pour réduire de plus
de 50 % la consommation d’énergie
et les émissions de gaz à effet
de serre des bâtiments de bureaux
BEST (Bâtiment à Energie Solaire pour le Tertiaire)
Les maisons individuelles
Trois projets pour améliorer fortement
les performances énergétiques des
maisons existantes en développant
une offre d’améliorateurs
ADELIE (Améliorateurs pour la Diminution des
Émissions de gaz à effet de serre dans les Logements
Individuels Existants) consiste à réaliser et à analyser
des expériences exemplaires dans le but de constituer,
au profit de maîtres d’œuvre et de propriétaires, des
ensembles de solutions techniques adaptées aux
réhabilitations des maisons anciennes.
Ce projet identifie également les offres et incitations
disponibles pour encourager les investissements
performants répondant aux objectifs de la Fondation
Bâtiment-Énergie.
>
Le consortium : Les Architecteurs, EDF R&D,
Maisons de Qualité, Novakov, Pouget Consultants, FFB
MITECH (Proposition globale de remise à niveau
énergétique des maisons individuelles) fournit aux
améliorateurs de l’habitat et aux entreprises spécialisées
un catalogue de solutions pour traiter l’enveloppe des
maisons anciennes. L’objectif est d’atteindre un niveau
de performance énergétique supérieur au label Bâtiment
Basse Consommation.
>
Le consortium : TBC, CSTB, UNSFA, PAREXLANCO, STO,
CAREA, Protektor, CROISEES-PLAST, Schüco, ArcelorMittal, Aldès
ODMIR 4 (Outils d’aide à la Décision pour des
Maisons Individuelles Réhabilitées Facteur 4) développe
un ensemble de solutions techniques industrialisables
pour la réhabilitation du parc des maisons individuelles
du groupe Géoxia. Il fournit les outils d’aide à la décision
de travaux pour les propriétaires de ce type d’habitat.
>
Le consortium : Phénix Evolution, CSTB, Armines,
EDF R&D
consiste à développer des outils informatiques pour
l'aide à la conception, la gestion et la maintenance
de bâtiments tertiaires dont la plus grande partie des
besoins énergétiques (chaleur, froid et électricité)
sera assurée par des procédés solaires.
>
Le consortium : ARMINES Ecole des Mines d’ALBI,
Cabinet AURORE, TBC, ALDES, HBSF - TECHNAL, CLIPSOL,
TECSOL, NéoTIM, Groupe Financière DUVAL, HPC-SA,
François PELEGRIN, ARCHETYPE Elizabeth PELEGRIN GENEL
CLIMHYBU (CLIMatisation HYbride des immeubles
de BUreaux) vise à faire émerger un concept innovant
de climatisation hybride en associant à la fois un bâti
bioclimatique et l’utilisation optimale de ressources
renouvelables extérieures comme le soleil et l’air et
des équipements performants de faible puissance.
>
Le consortium : CSTB, ARMINES, CEA / DRT /
INES RDI, TRIBU ENERGIE, UNTEC, CERTIVEA, BBS Slama,
Agence STUDIO 4
int2 (vers un bâtiment à intelligence énergétique et
bioclimatique intégrée) est un projet de recherche
préindustriel. Il porte sur la conception et la réalisation
d’un prototype d’enveloppe multi-fonctions permettant
la construction ou la rénovation de bâtiments de bureaux
très économes en énergie grâce à l’optimisation des
ressources en air naturel fonctionnant sur un mode
décentralisé.
>
Le consortium : Barbanel, France Énergie, WICONA
PEREN (PERformance ENergétique et environnement
PERENNE) vise à démontrer que des performances
énergétiques et environnementales très élevées
peuvent être obtenues grâce à l’utilisation de logiciels
de simulation thermique. L’objectif est de développer
un outil de calcul de coût global partagé qui intègre
la dimension environnementale et citoyenne spécifique
aux immeubles de bureaux.
>
Le consortium : Tisseyre & Associés, GA, SILIC,
Addenda, GRECAU, Ecole Nationale d’Architecture
de Toulouse, Laurenti
Les bâtiments tertiaires
d’hébergement
Deux projets pour la réhabilitation
Facteur 4 des résidences sociales
et des établissements
pour personnes âgées
ADORER (ADOma Réhabilitation Energétique des
Résidences) vise à élaborer une démarche pour l’aide à
la décision de travaux de la part des maîtres d’ouvrage et
à définir les outils opérationnels et les solutions techniques
pour une réhabilitation énergétique performante du parc
des résidences d’ADOMA.
>
Les logements sociaux
Deux projets pour l’entretien et la
rénovation phasés des patrimoines
immobiliers des organismes
de logements sociaux
CIBLE (Cohérence des Interventions pour réaliser des
Bâtiments de Logements basse Énergie) développe des
outils informatiques permettant aux gestionnaires d’offices
HLM de mettre en place un plan de maîtrise de l'énergie
à l'échelle de leur parc de logements sociaux. Il vise à
définir dès l’origine pour chaque bâtiment une configuration
finale située au niveau du Facteur 4 et à élaborer une
méthodologie permettant une planification étape par
étape.
>
Le consortium : ENGIE, OSICA, CoSTIC,
Pouget Consultants, Armines / CEP
IPPI (Intégration et Planification pour la réduction des
émissions de gaz à effet de serre d’un Patrimoine
Immobilier) fournit une méthodologie permettant de
bâtir des programmes de travaux temporellement et
économiquement réalistes afin de réduire très fortement
la consommation énergétique globale et les émissions
de CO2 des parcs immobiliers concernés.
>
Le consortium : ARRA, Énergies Demain, Divergent,
ITF, Enertech, Mind Capital, DETRY & LEVY Sarl
Le consortium : ADOMA, EDF R&D, La Calade,
B&R Ingénierie Pas-de-Calais, Agence Hannouz et Janneau,
Cabinet Senzo, Pôle IMIS Université d’Angers, ENERCONCEPT
REPA-F4 (Réhabilitation des Etablissements pour
Personnes Agées et Facteur 4) évalue les performances
énergétiques des maisons de retraite affiliées au
Synerpa (Syndicat national des établissements et
résidences privés pour personnes âgées) et définit les
solutions de réhabilitation transposables à l’ensemble
des résidences françaises pour personnes âgées.
>
Le consortium : UTC, Synerpa, Philippe DEHAN
architecte, ELIOTH, ENIA architectes, Université de Liège
(Belgique), Universidad de Concepcion (Chili)
La Fondation
Bâtiment-Énergie :
Pour quoi faire ?
La Fondation Bâtiment-Énergie œuvre en
priorité sur la problématique la plus difficile
à résoudre actuellement : la réhabilitation
du parc des bâtiments existants.
Pour cela elle identifie au moyen d’appels
à projets annuels, élaborés par son conseil
scientifique, les acteurs du secteur présentant
des projets de recherche originaux portant
sur les parcs de bâtiments les plus énergivores
actuellement. À l’issue de deux phases
successives de sélection, les consortiums
d’acteurs lauréats sont soutenus financièrement
pour mener à bien leurs projets.
Cinq appels à projets ont déjà été lancés
depuis 2005. Onze projets ont été lauréats
depuis cette date et un Atelier sur la
Garantie de Performance Energétique (GPE)
a été créé. Chaque projet retenu comporte
une ou plusieurs applications des travaux de
recherche effectués sur des bâtiments réels.
Le dernier appel, lancé en 2010 soutient une
recherche méthodologique portant sur la
GPE conduit par 32 partenaires.
Avec qui ?
La Fondation Bâtiment-Énergie cherche
à créer des groupements ou consortiums
d’acteurs du bâtiment complémentaires
pour traiter ensemble de tous les aspects de
la recherche à conduire. Ces consortiums
peuvent être constitués d’experts issus de
centres de recherche, de centres techniques,
de sociétés industrielles ou d’entreprises,
de maîtres d’œuvre, de maîtres d’ouvrage,
de sociologues, d’économistes…
Par quels moyens ?
Le budget de la Fondation Bâtiment-Énergie
est de huit millions d’euros dont 50 % ont été
apportés à parité par les quatre membres
fondateurs et 50 % par abondement de l’Etat.
Elle agit principalement par le biais d’appels à
projets ou d’appels à manifestation d’intérêt.
Les lauréats bénéficient d’une aide financière
portant sur les travaux de recherche conduits.
Les travaux réalisés sont ensuite valorisés
auprès de la communauté scientifique et
technique par des colloques et l’édition
d’ouvrages dans le cadre des actions de
communication conduites par la Fondation.
Quatre
objectifs pour 2050
> Diviser par quatre les émissions
de gaz à effet de serre.
> Réduire fortement
les consommations d’énergie.
> Accroître le recours aux énergies
renouvelables.
> En faisant appel à des méthodologies
et des technologies innovantes.
Quatre
moyens d’action
> Organiser des appels à projets
afin de soutenir par un financement
partiel les projets de recherche
et de développement publics ou
privés préalablement sélectionnés
par un jury.
> Évaluer les travaux, projets
ou programmes que la Fondation
a soutenus.
> Diffuser les résultats
des recherches.
> Coopérer avec les autres acteurs
du secteur, publics ou privés,
dans un cadre national ou européen.
Mise à jour :
octobre 2015
Le Conseil d’administration
Le Conseil scientifique
Le collège des membres fondateurs
Jean-Christophe VISIER
/ CSTB / PRÉSIDENT DU CONSEIL SCIENTIFIQUE
Alexandre JEANDEL
/ ENGIE / PRÉSIDENT
Francis ALLARD
/ UNIVERSITÉ DE LA ROCHELLE
Chantal DEGAND
/ EDF / VICE PRÉSIDENTE
Philippe CHARTIER
/ SER
Alain BIRAULT
/ LAFARGE / SECRÉTAIRE
Daniel CLEMENT
Patrick LE PENSE
/ ADEME
/ ARCELORMITTAL / TRÉSORIER
Albert DUPAGNE
/ LEMA
Le collège des membres de droit
Michel JOUVENT
Pascal DUPUIS
/ ASSOCIATION APOGÉE
/ MINISTÈRE DE L’ÉCOLOGIE,
Patrick LE PENSE
DU DÉVELOPPEMENT DURABLE
ET DE L’ÉNERGIE (DGEC)
/ ARCELORMITTAL
Alain MARTI
Patrick-Paul DUVAL
/ EDF
/ MINISTÈRE DE L’ENSEIGNEMENT SUPÉRIEUR
Pierre PICARD
ET DE LA RECHERCHE
/ ENGIE
Françoise LAPLAZIE
/ MINISTÈRE DE L’INTÉRIEUR
Peter WOUTERS
/ BBRI
Katy NARCY
/ MINISTÈRE DE L’ÉCOLOGIE,
DU DÉVELOPPEMENT DURABLE
ET DE L’ÉNERGIE (DHUP)
Bruno ZUBER
Le collège des personnalités qualifiées
Daniel AUBERT
/ PROMOTÉLEC SERVICES
Jean-Louis BAL
/ SER
Jean-Robert MAZAUD
/ S INTERNATIONAL S’PACE SA
Jean-Claude VANNIER
/ PLAN BÂTIMENT DURABLE
>
SIÈGE SOCIAL
>
CONTACT
Fondation Bâtiment-Énergie c/o ADEME
27, rue Louis Vicat - 75015 Paris Cedex 15
Fondation Bâtiment-Énergie c/o ADEME
500, route des Lucioles - Sophia Antipolis
06560 Valbonne
Tél. : 04 93 95 79 40
E-mail : [email protected]
www.batiment-energie.org
www.agencemars.com - Imprimé avec encres végétales sur papier recyclé © ArcelorMittal : Architecte Agence Lheureux Wilk / EDF / ENGIE / ADEME / Charlier - Wallis.fr.
/ LAFARGE
Ce recueil est un document de travail fourni à l’ensemble des participants au séminaire expert sur la
MPEB organisé par la Fondation Bâtiment Energie. Ci-après, la liste des communications lauréates de
l’AMI FBE regroupées en 3 sessions de présentations :
 Session 1 : MPEB – Retours d’expériences terrain
 Session 2 : La mesure de la performance énergétique intrinsèque de l'enveloppe et des
équipements techniques
 Session 3 : La mesure de la performance énergétique effective des bâtiments
Légende :
En rouge : communications non disponibles au moment de l’édition du recueil
* : O présentation Orale – P présentation Poster
** : Groupe 1 : Solutions/Méthodes au stade de la R&D - Groupe 2 : Solutions/Offres disponibles sur le
marché
Session 1 : La MPEB Retours d'expérience terrain
N° Organisme
01 ENERTECH
Experts
Titre de la communication
Siedler
Principaux facteurs explicatifs des divergences observées
entre performances envisagées et performances mesurées
dans un bâtiment
02 TERAO
Novel
Méthode de suivi des performances sur le projet VELUX
Langfang 2
03 LA CALADE
Charlot-Valdieu
Expérimentation de constructions passives ou à énergie positive par
les bailleurs sociaux : une nécessité de connaître la performance
énergétique des bâtiments
04
COFELY Services,
Goczkowski
ENGIE
05 CEREMA
Lancelle
06 FEDENE
Hochar
07 BYCN - OPB
Robin
08 AVELTYS
Flattet
Une mesure performante pour une exploitation performante
Suivi et évaluation de la performance des bâtiments PREBAT :
méthodologie et résultats
Le pilotage et la mesure au service de la performance énergétique
des bâtiments et du confort des occupants
La MPEB, de la phase Conception à l'exploitation. Méthodologie et
retours d'expérience
Retour d'expérience d'exploitation d'un bâtiment à énergie positive
*
Gr
**
1
O
O
P
P
P
P
P
P
1
1
1
1
2
2
2
Session 3 : La Mesure de la performance énergétique effective des batiments
Session 2 : La mesure de la performance énergétique
intrinsèque
de l'enveloppe et des équipements techniques
N° Organisme
09
Experts
SAINT GOBAIN
Pandraud/
(ISOVER et SGR) Alzetto
Titre de la communication
QUB : une méthode rapide de mesure des déperditions de
l'enveloppe du bâtiment
Méthode ISABELE pour la mesure à réception des
performances d'isolation thermique des bâtiments
Evaluation de la performance des système de ventilation (secteur
résidentiel)
STD et méthodologies
Evaluation des systèmes innovants intégrés à des bâtiments
performants
*
O
Gr
**
1
10 CSTB
Bouchié
11 CEREMA
Lentillon
12 FBC
Parent
13 I2M/H3C
Mora/Vitte
14 CERTES
Ibos
Possibilités offertes par la thermographie infrarouge pour la mesure
de la performance énergétique de l’enveloppe d’un bâtiment
15 THEMACS
Monchau
Analyse des méthodes de mesure de résistance thermique in-situ de
parois de bâtiment : essais sur un immeuble d’habitation occupé.
P
1
16 CERQUAL
Tiffaneau
Mesure performance énergétique des bâtiments résidentiels
1
17 SIRTEME
Pelini
Humbert/
Bonneau
Infiltrométrie du bâtiment et des réseaux aérauliques
Evaluation de la transmission thermique de l'eveloppe : retour
d'expérience prébat et perspectives
Mesure in situ des performances des appareils de production
thermodynamique
18 CEREMA
19 EDF
Teuillieres
N° Organisme
Experts
Titre de la communication
20 VERITAS
Lahmidi
Methods and Applications of Monitoring-based on commissioning
21 MANASLU
Corgier
La solution "bâtiment virtuel" : une réponse aux enjeux de la
performance énergétique du bâtiment
22 LNE
Koenen
Evaluation de l’effet des différentes sources d’incertitudes sur les
performances énergétiques réelles des bâtiments.
23 NOBATEK
Brassier
La MPEB au service de la réduction du gap entre prédictions et
performances réelles des bâtiments en exploitation
24 CSTB
Boisson
Outil PICXAR – Platform for Initial Commissioning and Reporting
25 CSTB
Ansanay
Mesurer pour prévoir : modélisation statistique des occupants et des
effets de leurs activités
26 CSTB
Da silva
27 CARDONNEL
Cardonnel
28 SE
Beguery
29 Insa de Lyon
Ghiaus
30 ARBN
Calberg-Ellen
31 CSTB
Lahrech
32 ARMINES
Peuportier
33 TERAO
Novel
34 CSTB
Rivallain
35 Openergy
Ziour
Outil pour détermination de l’incertitude et le risque associé dans le
calcul énergétique - outil MIRACLE
Econfort (r)
Réduction de l'écart entre prévisions et performance réel - Projet
TRIBUTE
Le verrou technologique des méthodes de mesure de l’efficacité
énergétique : la base de comparaison
Analyse statistique de données de consommation d’énergie,
pour le calcul de l’économie d’énergie
Méthodologie de comparaison calculs-mesures utilisant
l'analyse de sensibilité et la propagation d'incertitudes
Associer mesures et simulation énergétique dynamique pour
évaluer la PEB
Pack énergie: le suivi énergétique par TERAO et Vertical M2M
REPERE : Retour d’Expérience sur la Performance Effective des
Rénovations Energétiques
La simulation énergétique dynamique en temps réel au service de la
validation de performance
O
P
P
P
P
P
P
O
O
*
P
P
1
1
1
1
1
2
1
1
Gr
**
1
1
1
P
1
P
P
P
P
P
P
1
1
1
1
1
1
P
O
O
O
P
P
P
1
1
1
2
2
2
Séminaire Expert
sur la Mesure de la Performance Energétique des
Bâtiments
1ère session :
La MPEB - Retours d'expériences terrain
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
ENERTECH scop
Nom de l’expert :
Bureau d’études
Fonction :
Olivier SIDLER
Conseiller
TITRE : Principaux facteurs explicatifs des divergences observées entre
performances envisagées et performances mesurées dans un bâtiment
Contexte et enjeux
La France s’est dotée d’une première réglementation en 1974 pour les logements et en 1976 pour les
bâtiments tertiaires. Elles étaient fondées sur le respect de valeurs de déperditions volumiques
(coefficient G) en fonction du volume du bâtiment, de la zone climatique et du type de chauffage. On
considérait alors qu’il n’y avait que des déperditions dans un bâtiment.
De 1982 à 2012, la réglementation a beaucoup évolué, et l’une de ses caractéristiques majeures a
été la notion de consommation de référence : chaque bâtiment, en fonction de son architecture, de la
taille de ses surfaces vitrées, du type de chauffage se voyait attribuer une consommation de référence
qui lui était spécifique et qu’il devait respecter. Il s’agissait donc d’une réglementation « à la carte ».
Mais l’arrivée de la RT 2012 a tout changé : désormais la consommation d’un bâtiment, quel qu’il soit,
doit être de 50 kWhep/m²/an, modulée de différents paramètres valables pour tous.
Rappelons que le calcul conventionnel est destiné à permettre aux collectivités locales et à l’Etat de
savoir si un bâtiment proposé à la construction est conforme aux exigences générales en vigueur. Ce
n’est donc pas un calcul prévisionnel.
En caractérisant désormais les contraintes par une consommation spécifique bien précise, le calcul
réglementaire a induit des réactions qui n’étaient pas forcément attendues : celle des particuliers qui ont
cherché à retrouver par mesure la valeur indiquée dans le calcul réglementaire, et celle des juristes, par
le biais de Me Perinet Marquet, qui ont estimé que puisque 50 kWh/m²/an était inscrit dans la RT, cela
faisait partie du contrat de vente du bien et devait à ce titre entrer dans la garantie décennale.
De simple outil destiné à l’administration, le calcul réglementaire s’est retrouvé avec le statut d’outil
de prévision de la consommation, fonction pour laquelle il n’a jamais été conçu et pour laquelle il est
totalement inadapté. Mais l’idée d’un engagement sur la consommation s’est, dans cette logique,
installée dans l’esprit de chacun, induisant dans son sillage le concept de garantie de performance
énergétique perçu comme parfaitement légitime. Cette dérive est dangereuse, et pour s’en persuader il
suffit de se demander ce qui se passerait si les propriétaires de véhicules voulaient désormais qu’on leur
garantisse leur consommation, qu’ils se déplacent en ville, sur autoroute ou en montagne….
Pour ne pas faire en sorte qu’après chaque chantier, les bureaux d’études et les constructeurs se
retrouvent systématiquement au tribunal, il est urgent que l’on s’intéresse à la manière dont les
consommations se construisent. La contribution proposée s’appuie sur 15 années de campagnes de
mesure très lourdes visant à comprendre comment s’organisent les flux énergétiques dans un bâtiment.
Description des travaux réalisés
ENERTECH fait des campagnes de mesure depuis 22 ans, notamment sur l’ensemble des
consommations d’un même bâtiment. Le nombre de mesureurs alors posés varie de 300 à 700 par
bâtiment. Tout est mesuré : les usages thermiques, les usages électriques, les conforts (hygrométrie,
température), les débits d’air (au niveau des CTA), le tout au pas de temps de 10 minutes et pendant
une année entière. Le principe est de suivre les principaux indicateurs, mais aussi les « variables
explicatives » afin de comprendre pourquoi on obtient ce qu’on obtient. L’approche au pas de temps de
10’ permet de revenir sur des dysfonctionnements ou des phénomènes qui passeraient inaperçus avec
des relèves plus grossières. Mais ceci suppose des outils de traitement de données assez sophistiqués
et puissants.
C’est sur les bâtiments que nous avons nous-mêmes construits que les premières opérations de
« recollement » ont été réalisées. Sur l’un de ces bâtiments, conçu par simulation dynamique, nous
avons même réinjecter les principales mesures mais n’avons jamais pu faire coïncider les prévisions (ou
plutôt « postvisions ») et la mesure. Quelles sont les principales raisons de ces écarts ?
1 – L’outil de calcul utilisé pour établir la prévision ne doit pas être un outil fonctionnant de manière
conventionnelle, mais un outil ouvert à toutes les hypothèses, comme un simulateur. C’est une condition
nécessaire mais pas suffisante ! Cela élimine le calcul réglementaire et toutes les méthodes simplifiées.
2 – La base de données météo est la première cause de divergence. Les mesures faites
simultanément en centre ville et sur les stations météo de périphérie (en espérant que chaque projet
dispose d’une station proche), montrent qu’en moyenne la température en centre ville est supérieure de
2° à celle des stations météo. Il s’ensuit une surestimation des besoins de chauffage de 25 à 35 % (à
Grenoble).
3 – Le comportement de l’usager est la principale cause de dérive. Les éléments de cette dérive
sont :
- le choix de la température intérieure rarement en phase avec celle adoptée pour la simulation.
Celle-ci est en généralement de 19° alors que la température réelle peut aller jusqu’à 24°. Or chaque
degré supplémentaire dans un bâtiment performant représente une augmentation des besoins de
chauffage de 15 à 20%.
- l’ouverture des fenêtres en plein hiver reste un facteur difficile à contrôler. Les campagnes de
mesure comportent toujours des contacts de feuillure sur les fenêtres pour savoir quand elles sont
ouvertes. La valeur moyenne est de 2h/jour (entre [déc et févr]), mais on a déjà observé des valeurs
allant jusqu’à 15h/j (en moyenne). L’impact est difficile à évaluer, mais il doit être important.
- le choix et le niveau d’équipements électriques. Il s’agit de l’électroménager en logement et
essentiellement de la bureautique et de l’éclairage en tertiaire de bureaux. Ces usages pèsent souvent
plus lourds que le chauffage lui-même, si bien qu’ils jouent un rôle de premier ordre dans la
consommation de chauffage. Quelques exemples : logements calculés avec un niveau de
consommation électromestique égal à la moyenne française (2.500 kWh/logt à l’époque). Quartier à
faibles ressources où cette consommation est en moyenne inférieure à 1100 kWh/logt. Conséquence :
moins d’apport de chaleur et surconsommation de chauffage de 12 kWh/m²/an (soit 25 % de plus que
prévu). Autre exemple : cas de logements sociaux chauffés par PAC sur nappe. Consommation de
chauffage : 4,2 kWhel/m²/an. D’ECS : 3,2 kWhel/m²/an. Et d’électroménager : 46 kWhel/m²/an…..
- le pilotage de tous ces équipements électriques est aussi un élément qui explique notamment les
dérives au cours du temps. Les usages sont souvent correctement programmés et pilotés à la livraison,
mais très vite certains usages restent en fonctionnement permanent (la ventilation par exemple).
Le fonctionnement et les consommations de veille sont aussi une cause importante de la dérive.
4 – La qualité de la conception et de la réalisation. Il s’agit là de causes de divergence qui ne
devraient pas exister. Les défauts de conception et de réalisation devraient pouvoir être améliorés dans
l’avenir…. Parmi celles–ci on peut citer :
- non prise en compte des ponts thermiques structurels lors des calculs, ce qui peut induire une
augmentation du coefficient U de 50%.
- graves défauts d’étanchéité à l’air créant une différence importante avec les valeurs adoptées dans
le calcul,
- surdimensionnement récurrent des générateurs de chaleur conduisant à une dégradation profonde
de leur rendement,
- régulation terminale inopérante interdisant la récupération des apports gratuits,
- débits de la ventilation mécanique complètement aléatoires (VMC hygro au double du débit pris en
compte dans le calcul RT)
- montage incorrect des installations de VMC double flux,
- défaut d’asservissement de l’éclairage des cabines d’ascenseur (conduit au doublement des
consommations de l’appareil),
- etc.
Toutes ces causes devraient pouvoir être améliorées dans le futur par une montée en compétence
des bet et des entreprises.
5 – Les défauts et déficits de maintenance. La maintenance ne dépend plus du MOU et des
concepteurs. Les défauts de maintenance peuvent donc rendre complexes les situations où l’on
constate un déficit de performance. Parmi les défauts de maintenance observés, on retiendra :
- Le non-remplacement des filtres d’air neuf sur les ventilations double flux. On a pu déterminer qu’en
9 mois le débit soufflé pouvait chuter à 25% de sa valeur nominale et que, le bâtiment étant en
dépression, l’air pénétrait par infiltration au travers de la façade (ce qui limite la chute du débit extrait),
occasionnant une surconsommation annuelle de chauffage de 8 kWh/m²/an,
- le pilotage incorrect des usages est une cause très fréquente et d’impact lourd. Il en est ainsi des
ventilations de bureaux fonctionnant 24h/24 et 7j/7 (induisant des surconsommations électrique et
thermique), des éclairages déprogrammés, des pompes qui ne sont jamais arrêtées, etc.
- absence d’intervention en cas de panne. Ce cas est très fréquent sur les installations solaires qui ne
produisent alors plus rien.
CONCLUSION/PERSPECTIVES
Les causes de divergence entre mesures et « prévisions » sont nombreuses. Celles dues à la
conception et à la réalisation ont un impact en général plutôt du second degré (sauf les débits d’air) et
pourraient être améliorées par un effort conséquent des concepteurs et des entreprises, mais cela se
traduirait par un renchérissement des opérations. Les causes imputables à l’usager nous semblent
beaucoup plus préoccupantes car leur impact est de premier ordre (cas de la température intérieure),
leur mise en évidence et leur impact ne sont pas très aisés (cas de l’ouverture des fenêtres) et on n’est
pas en capacité de les faire changer (débat avec les sociologues) : on n’imposera à personne son
équipement électroménager ou bureautique. C’est plusieurs dizaines de % d’écart qui sont entre les
mains des usagers.
Mais au-delà de ce constat, les expériences de post-vision tentées avec des mesures injectées dans
la simulation dynamique ayant servi à la conception du bâtiment, montrent qu’il existe toujours un écart
significatif entre modèle et mesures. Ceci prouve que le nombre de paramètres à connaître heure par
heure pour faire de la prévision est considérable et souvent totalement inaccessible. Comment
modéliser le débit d’air variable d’une installation (technique de plus en plus fréquemment utilisée) ?
Comment modéliser tous les détails et gestes quotidiens ayant un impact énergétique (ouverture des
fenêtres, blocage des apports solaires (volets), équipements ajoutés/retirés, etc).
Il apparaît que pré-voir n’est en réalité guère possible puisque même en post-vision on n’arrive pas à
corréler mesures et calculs. Ceci pose donc la double question de l’outil de calcul et des données
nécessaires pour le faire fonctionner.
Enfin, on peut s’interroger sur l’intérêt réel qu’il y a dans cette vérification de la consommation. Le
parallèle avec le cas des véhicules, dont personne ne cherche à comparer les consommations réelles et
conventionnelles, est éloquent !…
Références
Tous les rapports de campagnes de mesure et nos analyses figurent sur notre site internet :
www.enertech.fr
L’AVIS de l’expert
Les difficultés identifiées pour permettre de comparer des consommations réelles à des valeurs
prévisionnelles sont extrêmement nombreuses. Mais beaucoup d’entre elles sont à la fois hors du
champ de la prévision et totalement impossible à évaluer. Toutes les tentatives que nous avons faites en
ce sens l’ont démontré et n’ont jamais permis ce rapprochement de façon satisfaisante.
Il nous semble donc illusoire d’espérer un jour « mesurer ce que l’on a prévu » car un concepteur
n’aura jamais les moyens de construire une prévision correcte, au point que nous estimons nécessaire
d’utiliser désormais un autre terme que celui-ci qui introduit de la confusion. Alors le but serait-il de
vérifier, a posteriori, et compte tenu du mode de vie effectif de l’usager, que la consommation réelle est
bien celle que l’on aurait pu prévoir en disposant de tous les paramètres nécessaires ? Nous avons
tenté cet exercice et montré qu’il ne donnait pas de résultats satisfaisants (malgré l’usage d’un outil
comme TRNSYS). Mais on peut aussi s’interroger sur l’intérêt réel de cette démarche. Nous pensons
que les désaccords existeront toujours, et qu’en conséquence les tribunaux s’empliront de tous ces
conflits parfaitement inutiles. Alors est-ce qu’on peut évoquer le vol sur le service rendu ? Quel est en
effet l’impact d’un dérapage de 40 kWh/m²/an, soit 80 % de la « prévision », à raison de 0,10
€TTC/kWh ? C’est 4 € TTC/m², soit 320 € TTC/m²/an pour un appartement de 80 m². Si on se réfère au
cas des véhicules, que l’on suppose un écart d’un litre/100 km entre consommations réelle et estimée, la
surconsommation pour 15.000 km annuels est de 225 €….ce qui est du même ordre de grandeur.
On peut donc se demander si l’intérêt de la mesure de la consommation réelle des bâtiments est bien
de rapprocher celle-ci des « prévisions » faites, ou si ce ne serait pas plutôt de contribuer à aider les
concepteurs à mieux percevoir le comportement réel des bâtiments et de leurs équipements, sans pour
autant qu’ils soient astreints à un exercice de prévision dont le seul aspect visible sera d’engorger les
tribunaux. On ne peut être responsable que de ce que l’on maîtrise, et donc pas des comportements
aléatoires des utilisateurs et usagers.
A notre avis, l’enjeu de la mesure des consommations réelles réside bien dans l’amélioration des
connaissances de la profession et son appropriation des conditions effectives de fonctionnement afin
d’améliorer les performances des bâtiments.
Nous pensons également que la Garantie de Performance Energétique est une fausse bonne idée, et
nous suggérons plutôt d’instaurer et de faire respecter une vraie obligation de moyens : ce qui a été
prescrit et calculé doit être livré et fonctionner comme cela a été prévu. L’usager fera ensuite ce qu’il
veut de sa consommation réelle, en fonction de ses comportements et de ses choix. On aura ainsi
parfaitement délimité les responsabilités de chacun dans la construction de la consommation
énergétique.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
TERAO
Nom de l’expert :
Aymeric NOVEL
Bureau
d’études
énergie
et
environnement dans la construction
Fonction :
Directeur
opérations
des
METHODE DE SUIVI DES PERFORMANCES ENERGETIQUES LE LONG DU CYCLE DE
VIE DU PROJET VELUX LANGFANG 2
CONTEXTE ET ENJEUX
Le bâtiment en France a jusqu’à maintenant adopté une approche d’évaluation de la performance
énergétique conventionnelle, c’est-à-dire liée à des calculs, des réglementations et à des labels. La
problématique de la performance énergétique se pose dans le cas de constructions neuves et de
réhabilitations lourdes, mais également sur l’ensemble du parc immobilier dans le cadre d’une gestion
optimisée. Un intérêt renforcé envers la performance énergétique réelle des bâtiments et de leurs
systèmes émerge depuis quelques années. Les maîtres d’ouvrage sont mécontents de constater de
grandes différences entre ce que promet la conformité réglementaire et les labels (RT2005, RT2012,
BBC, Effinergie +) et la consommation réelle. Pour un certain nombre d’acteurs la facture énergétique
est importante. Pour d’autres, la garantie de charge est un argument commercial important. Pour
d’autres encore l’usage de la mesure de la performance énergétique fait partie d’un ensemble
d’exigences lié à une certification ISO 50001. Enfin la démarche de Garantie de Résultat Energétique
(GRE) émerge comme un cadre permettant d’orienter les projets vers la maitrise réelle de la
consommation énergétique.
Le problème de la mesure de la performance énergétique se pose tout le long du cycle de vie d’un
projet. A partir du moment où l’objectif est défini en phase programme, la « mesure » de cette
performance se traduit également en maitrise du risque associé à sa déviation. Ce risque prend des
natures et des amplitudes différentes selon les phases de développement d’un projet. Son évolution ne
suit d’ailleurs pas nécessairement un raffinement à mesure que l’on avance dans le détail et la mise en
œuvre. Les travaux menés dans le cadre la thèse de M.Novel, encadré par le LaSIE de l’université des
sciences et technologies de La Rochelle, ont pour but de déterminer des outils permettant de gérer ce
risque. Sur la base de ses travaux menés sur des opérations réelles dans le cadre de ses fonctions au
sein de TERAO, M.Novel déploie une démarche de maitrise du risque associé à la performance
énergétique, démarceh s’associant nécessairement à plusieurs types de mesures. Le cas présenté ici
est celui du nouveau siège social de Velux China, projet qui a été suivi du début de la conception à la fin
de la période me M&V par M.Novel. Il expose ici les retours d’expériences d’un cycle complet sous
l’angle de la maitrise du risque sur la performance énergétique.
DESCRIPTION DES TRAVAUX ETUDES REALISES ET RESULTATS MARQUANTS OBTENUS
Velux China a entrepris en 2011 de construire un nouveau siège pour son activité Chine. Le projet se
passe dans le contexte de la concentration de l’activité de Velux Chine, alors répartie sur deux sites, sur
unique site. L’opération se devait d’être financièrement neutre : le coût de construction et d’exploitation
du nouveau siège doit être remboursé par le loyer économisé en quittant le second site. La maîtrise des
coûts est donc au centre de l’opération. Le projet a également d’autres objectifs :
-
Etre le nouveau démonstrateur pour les produits de Velux Chine et pour un modèle de bureau
basse consommation et basses émissions de CO2 en Chine
-
Atteindre une valeur cible en consommation énergétique finale pour les usages réglementaires
comprise entre 30 et 50kWh/m²/an (exigence de la réglementation thermique qui sera en
vigueur au Danemark en 2020) tout en ayant un très bon niveau de qualité de l’environnement
intérieur (CEN recommendation report 1752:1999 Class B)
-
Tenir des coûts de construction raisonnables pour répliquer le modèle sur le marché chinois
Afin de mener à bien ce projet, Velux a sélectionné TERAO pour une mission d’AMO performance
énergétique avec garantie de performance énergétique. TERAO s’est engagé sur ses honoraires à ce
que la valeur cible de consommation soit atteinte. Pour ce faire, des missions clefs de maitrise d’œuvre
ont également été incluses dans le périmètre de la mission (STD, prescriptions CCTP
enveloppe/CVC/GB, dimensionnement CVC). Un tel montage est encouragé pour un projet chinois pour
deux raisons : la maîtrise d’ouvrage n’a pas localement d’AMO compétent en la matière et la maitrise
d’œuvre doit être assurée obligatoirement par un institut de conception local, le problème étant que ce
dernier n’a pas les compétences requises pour un projet visant une telle performance. En complément
de notre mission, le maître d’ouvrage s’est adjoint les services d’une société de gestion de projet,
ingrédient indispensable pour mener à bien un projet en Chine.
Maitre d’Ouvrage : VELUX China Ltd
Type : Bureaux, showroom
Lieu : Langfang, Chine
Surface utile : 2000m²
AMO performance énergétique : TERAO
Gestion de projet : TRA
Livraison : Mai 2013
La garantie porte sur une valeur cible de consommation qui est une valeur absolue, par opposition à une
valeur relative à un seuil de référence. De plus, il est vite apparu que pour un bureau, la garantie devait
préciser deux niveaux de consommations : le niveau de consommation des usages réglementaires, et le
niveau tous usages, ceci en raison du lien entre les consommations de bureautique et les charges de
chauffage et climatisation. Un point crucial est que Velux, en tant que maitre d’ouvrage, a montré une
forte motivation et une forte détermination à l’atteinte des objectifs. C’est également la raison pour
laquelle la mission de TERAO fut conçue pour donner un poids fort dans les processus décisionnels le
long des différentes étapes, et ce toujours avec l’appui du maitre d’ouvrage. Un autre point clef est que
l’exploitation est gérée en interne par Velux, ce qui assure une continuité de la formation et de la
motivation par rapport au résultat final.
Le projet avait été imaginé au niveau conceptuel au Danemark et repose sur les principes du projet
Green Lighthouse situé à Copenhague. Les concepts étaient bons et notre travail a commencé par
évaluer leur pertinence/faisabilité dans le contexte local et à les modifier en conséquence. Le point
particulier de ce projet est l'usage d'une stratégie CVC innovante (TABS couplé à un PAC
géothermique). Le fait que cette stratégie repose énormément sur l'inertie a rendu l'usage d'une STD
pointue encore plus important que d'habitude. Le fait que la garantie pousse à maîtriser tous les postes
de consommation et leurs effets interactifs le justifiait aussi. Nous avons travaillé sur EnergyPlus, via son
interface DesignBuilder. Cependant, à l’époque de la conception, les capacités de l’interface ne
permettaient pas de modéliser un tel système. Nous avons donc travaillé directement dans EnergyPlus,
malgré son ergonomie inadaptée. Cela a posé un problème par la suite : l’adaptabilité du modèle en
phase de M&V pour l’exercice de l’ajustement de la base de référence. Ceci étant dit, ce modèle se
révèla être l’outil central de la conception, du point de vue de l’efficacité énergétique, la maitrise d’œuvre
locale n’ayant pas les outils pour dimensionner et concevoir un tel système.
Ce concept CVC nous a poussés à recommander au maitre d’ouvrage de séparer les marchés génie
civil/éclairage et CVC/GTB. Ce point a été crucial. Si notre mission n’avait pas été intégrée au
démarrage, tout aurait été passé en un seul marché avec l’entreprise de construction en tant que
mandataire et cela aurait été catastrophique pour la performance finale si l’on se réfère aux
compétences constatées de ces acteurs sur le terrain. Un intégrateur spécifique CVC/GTB était
nécessaire. Nous avons fourni un important travail de sensibilisation et de pédagogie.
La sélection de l’entreprise de génie civil se déroula de façon classique du point de vue de la procédure
avec une attention particulière sur la qualité, les garanties, les prix et les marques.
Plus compliquée fut la sélection de l'entreprise CVC/GTB. Même en séparant ce marché, le lot
CVC/GTB présentait tout de même plusieurs challenges d’intégration de technologies bien distinctes. Le
processus de dialogue compétitif a été utilisé pour cette étape. Durant ce processus, la conception de la
GTB a été affinée et l'on a convergé vers le bon compromis entre coût et sophistication tout en amenant
le maitre d’ouvrage à se poser les bonnes questions concernant son vrai besoin en tant qu’utilisateur de
cette GTB. Néanmoins, l’expérience a montré que des outils ont manqué à ce stade pour évaluer la
qualité des équipements GTB qui ont été au centre des préoccupations en phase de réception et de
mise en route.
La phase chantier étant cruciale pour la qualité finale, le dispositif mis en
place a reposé sur la présence continue des équipes de l’entreprise de
gestion de projet, non seulement pour les critères
classiques qualité/coût/délai, mais aussi pour
l’efficacité énergétique globale. Le phasage des lots,
l’interaction entre l’entreprise de génie civil et
l’intégrateur CVC/GTB ont nécessité une attention
constante et une présence hebdomadaire de notre
part. Des tests en laboratoire ont été faits sur les
vitrages et sur les isolants afin de confirmer que leur caractéristiques thermiques étaient conformes.
A la fin de la phase chantier, nous avons eu beaucoup de travail sur la mise en route des installations.
L’expérience montre que plus un bâtiment est conçu pour la haute performance énergétique, plus sa
mise en route est difficile. Afin d’amorcer le commissioning du fonctionnement, nous avons d’abord
conduit des tests in situ sur les équipements techniques.
Sachant cela, nous avons mis en place avec le maitre d’ouvrage une mission de commissioning basé
sur du monitoring qui a révélé les problématiques de démarrage. La régulation a été au centre des
préoccupations. Les charges thermiques de ce bâtiment sont assez stables globalement du fait de
l’inertie des TABS mais localement les ajustements sont rapides, ce qui est caractéristique des faibles
charges thermiques. Tous les ajustements faits durant cette phase l’ont été avec l’objectif de favoriser la
performance énergétique et non en se focalisant uniquement sur l’aspect fonctionnel. A titre d’exemple
nous illustrons ci-dessous les relevés faits sur la boucle de distribution de la PAC géothermique. Ce
travail a été mené sur tous les composants des systèmes.
La phase de commissioning s’est terminée par la livraison d’un ensemble d’instructions simples à
destination de l’exploitant afin que les ajustements qu’il est amené à faire soient toujours faits sans
porter préjudice à la performance ou le moins possible. Ces instructions ont été données par saison et
par système.
Une fois que le travail de commissioning a permis de stabiliser le fonctionnement au bout de plusieurs
mois, le protocole de mesure et vérification des performances a été mis en place selon les règles
IPMVP. Sa mise en œuvre permet de suivre à la fois les consommations d’énergie mais aussi « la vie du
bâtiment ». Le problème rencontré a été celui dela modification du modèle initial, en raison des
évolutions de l’interface EnergyPlus. Nous avons mené des analyses précises des conditions de
fonctionnement et d’usage. Ce cas est simple au niveau de ses usages, étant un bureau au
fonctionnement connu. Notre attention s’est portée sur le fonctionnement des systèmes et les conditions
de confort intérieur, notamment le contrôle de l’humidité relative en été ainsi que les données
climatiques. La quantité et qualité de données disponibles a été analysée à chaque étape. Durant
l’année de suivi, une des vertus de la démarche a été de pointer les lacunes de la GTB en la matière.
Rapport M&V 1 : 7% de données CVC
et 14% de données T/HR/CO2
Rapport M&V 2 : 95% de données
CVC et 94% de données T/HR/CO2
Rapport M&V 3 : 60% de données
CVC et 70% de données T/HR/CO2
Rapport M&V 4 : 78% de données
CVC et 78% de données T/HR/CO2
La période de suivi est terminée et a
conclus que le bâtiment consomme
55kWh/m²/an
tous
usages,
dont
40kWh/m²/an
pour
les
usages
réglementaires. Les données relevées sur
compteurs sont comparées aux données
du modèle STD élaboré en phase
conception (mais qui n’a pu être ajusté).
Sur ce type de courbe, on voit bien que
les
consommations
sont
remarquablement fidèles à la prédiction
prouvant l’efficacité de toute la démarche.
CONCLUSIONS ET PERSPECTIVES
Ce type de retour d’expérience montre déjà que des éléments méthodologiques et organisationnels font
une grande différence. Dans le cas présenté, sans ces éléments il n’y avait aucune chance pour que la
performance énergétique soit au RDV. Nous constatons que la démarche présentée partage nombre de
ses caractéristiques avec la définition la plus large du commissioning. Ce dernier pose un cadre complet
à ce qui a trait au contrôle qualité. Les risques techniques et les outils associés sont en revanche à faire
mûrir. Ici nous avons pu constater les problématiques liées à la GTB, à la qualité des données
remontées mais aussi à la difficulté de faire évoluer le modèle énergétique initial complexe sur
l’ensemble du cycle de vie, pour des raisons de version et d’interface dans ce cas. Le développement
d’outils de calculs évolutifs adaptés à la procédure d’ajustement de la référence ainsi que les approches
permettant de fiabiliser les données nécessaire à l’application de l’IPMVP sont des sujets au centre des
développements du travail en cours de M.Novel et des travaux associés au LaSIE.
Références
Application de la démarche GRE pour lé réhabilitation du centre franco-chinois de formation aux métiers
de l’énergie à Beijing, Chine
Application de la démarche GRE au projet VELUX Langfang 2
Mise en place de CPE sur un programme de réhabilitation énergétique incluant bureaux, hôpitaux et
campus universitaires totalisant 1350000m² pour la Ville de Wuhan en Chine
Mise en place de CPE sur un programme de réhabilitation énergétique et d’intégration d’énergies
renouvelables incluant des bureaux, centres commerciaux, hôtels pour la Kasikorn Bank à Bangkok,
Thailande
L’AVIS de l’expert
Les enjeux de la MPEB aujourd’hui sont multiples. Beaucoup de solutions émergent, que ce soit au
niveau des équipements que des services. La complexité est augmentée du fait que ce phénomène se
passe dans le cadre plus global à la fois du déploiement de la Big Data et du bâtiment augmenté ou
encore connecté. Le service de gestion énergétique, comme nombre d’autres, vont être amené à
« s’ouvrir » sur l’extérieur. Ainsi la qualité de la donnée et la fiabilité de la chaine d’acquisition dans des
écosystèmes complexes devient critique, faute de quoi la quantité ne sert à rien. Une véritable remise en
cause de plusieurs types d’acteurs a également lieu, du bureau d’étude, à l’exploitant en passant les
maitres d’ouvrage (ou d’usages !) aux fournisseurs de GTB.
Les enjeux vont donc se cristalliser à divers niveaux incluant : comptage non-intrusifs innovants,
algorithmes de calcul énergétiques fiables et peu gourmands en temps, appliquer l’IPMVP à l’échelle
d’un quartier voire d’un territoire, modélisation et gestion du risque de déviation de la performance.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
La Calade
Aménagement durable et stratégies énergétiques
LA CALADE, 04 93 40 29 30
Nom
de Catherine
l’expert :
CHARLOTVALDIEU
[email protected]
www.suden.org/lacalade
Consultante, chercheur associé au laboratoire
recherche en architecture (LRA) de Toulouse
de
Fonction :
Chef de projet
Expérimentation de constructions passives ou à énergie positive par les bailleurs
sociaux : une nécessité de connaître la performance énergétique des bâtiments
Contexte et enjeux
Depuis 2010, de nombreux bailleurs sociaux ont lancé des opérations passives ou à énergie positive
(bepos) tout en associant à ces projets des innovations techniques et organisationnelles. L’objectif des
bailleurs était de réduire les charges des locataires, notamment en expérimentant la construction
passive, ou d’anticiper la réglementation 2020 des bâtiments à énergie positive. Les questions posées
étaient de savoir quelle organisation, quel montage, quel résultat pour des constructions qui doivent
concilier réduction des charges et des consommations d’énergie avec confort et qualité d’usage.
La Calade a analysé 23 opérations de construction passive ou à énergie positive réalisées par 19
bailleurs sociaux un peu partout en France (cf. références 1 à 4).
Description, résultats
18 de ces 23 opérations ont mis en œuvre un processus de suivi de la performance énergétique de leurs
bâtiments, essentiellement dans le but de comparer le réel à la théorie et de contrôler les équipements
innovants mis en place. Le suivi technique s’accompagne aussi d’une analyse de la consommation
d’énergie des locataires et de l’usage de leur logement. Le suivi d’une opération permet aussi par un
processus de feed-back de revenir sur les nouvelles formes de conception et de préparer ainsi la
réglementation énergétique de 2020. Les objectifs de mesure de la performance énergétique peuvent se
résumer ainsi :

Comparer le réel à la théorie :
Connaître la consommation réelle du bâtiment et vérifier si les objectifs sont atteints
Identifier les écarts par poste de consommation
Suivre la température et sensibiliser les locataires
Capitaliser les résultats afin de mieux estimer les consommations

Contrôler et gérer les équipements :
Connaître la consommation réelle de certains équipements ou postes de consommation
afin de valider des choix techniques et d’affiner les réglages
Valider les standards passifs (techniques)
Comparer les modes attendus de gestion et d’usage des équipements avec la réalité

Analyser la consommation des locataires :
Sensibiliser les locataires sur la consommation par poste ou globale afin de favoriser

des réactions proactives
Utiliser cette connaissance pour la répartition (éventuelle) des charges chauffage et ECS
Mieux maîtriser les nouvelles formes de conception des systèmes constructifs et anticiper la
future RT (pour le bailleur comme pour les partenaires professionnels)
La comparaison du réel à la théorie pose de nombreuses questions :
- la température souhaitée par les ménages est supérieure à celle retenue dans les moteurs de calcul et
explique une part des écarts,
- la première année, voire la seconde année, n’est pas toujours significative car les installations
nécessitent des réglages et des adaptations techniques ou de comportement,
- la comparaison du réel à la théorie nécessite l’usage de bons moteurs de calcul de type STD ou PHPP
alors que les moteurs de calcul réglementaires ne sont pas le reflet de la réalité,
- la difficulté de la mesure de la PEB réside aussi dans la grande diversité des consommations de
chauffage par logement dans un même immeuble, avec des écarts énormes difficiles à interpréter
Répartition de 57 logements d’un même immeuble dont l’instrumentation a été possible durant 3
ans selon la consommation d’énergie pour le chauffage (kWh par m² et par an) (cf. référence 5)
Quelle valeur retenir ? la valeur moyenne ou la valeur médiane (respectivement 24 et 27 kWh/m²), quel
sens donner à l’écart type ?
Par ailleurs, l’instrumentation doit permettre une distinction des différents usages voire des équipements
et peut s’avérer trop lourde financièrement pour les bailleurs, d’où le recours à des aides publique ou
privée. Ces aides entrent dans des processus d’expérimentation et ne sont pas dans le droit commun.
Dans tous les cas, l’instrumentation technique gagne à être enrichie par une analyse des
comportements (ou analyse sociotechnique) des habitants (température, utilisation des équipements,
valorisation des apports internes et solaires). Le retour d’information vers les habitants favorise aussi l’
appropriation des logements par les locataires et un meilleur fonctionnement des résidences.
Conclusions/perspectives :
L’analyse des dispositifs mis en place par les bailleurs montrent que la MPEB sert à définir la stratégie
énergétique du bailleur social par une capitalisation des résultats, des méthodes, des démarches
indispensables pour les futures opérations de construction.
Le suivi des opérations permet en particulier de :
- analyser les produits les plus pertinents et les modes constructifs performants afin de valider les
choix de conception,
- mieux prendre en compte les contraintes de la construction passive ou très basse énergie et
corriger les erreurs,
- comparer les performances avec d’autres réalisations,
- mieux connaître les usages des locataires,
- améliorer la gestion de l’information interne.
Ces éléments ont déjà permis à certains bailleurs de définir des modèles économiques (cf. référence 6)
basés sur le triptyque passif – structure bois – 0 carbone (Toit Vosgien) ou le triptyque passif – système
constructif béton - réduction de charges (NEOTOA)…
L’attente de ces instrumentations nous semble effectivement être la construction de modèles
économiques fiables, par des bailleurs sociaux réellement acteurs de leurs projets, et qui s’intègrent
dans le territoire et valorisant les ressources locales (humaines, économiques et naturelles).
Références
[1] La Calade, Evaluation d’opérations ou de bâtiments passifs (BPas) et à énergie positive (BePOS)
dans le logement social, étude réalisée pour l’USH, 4 volumes, janvier 2015
[2] Union Sociale pour l’Habitat (USH), Bâtiments passifs, bâtiments à énergie positive, évaluation des
nouvelles générations de bâtiments, Collection Cahiers Références n° 2, mai 2015
[3] Union Sociale pour l’Habitat, Evaluation d’opérations BePOS / BPas dans le logement social,
Synthèse de l’étude, La Calade pour l’USH, 19 mai 2015
[4] Union Sociale pour l’Habitat, Directive européenne Efficacité énergétique des bâtiments – Etat
d’avancement de la transcription dans les pays européens, La Calade pour l’USH, 19 mai 2015
[5] Catherine Charlot-Valdieu et Philippe Outrequin, Conception, réalisation et évaluation d’un quartier à
très basse énergie, modèle de la ville d’Egedal au Danemark, éditions Le Moniteur, 2014
[6] Catherine Charlot-Valdieu et Philippe Outrequin, Nouvelle architecture écologique, 37
expérimentations pour la transition énergétique, éditions Le Moniteur, à paraître en Mars 2016
[7] C. Charlot-Valdieu et P. Outrequin, La réhabilitation énergétique des logements, éditions Le Moniteur,
2012
[8] C. Charlot-Valdieu et P. Outrequin, Le coût global mode d’emploi, éditions Le Moniteur, 2013
L’AVIS de l’expert
La MPEB doit permettre de créer les conditions favorables à la transition énergétique, à la fois dans le
neuf et dans la réhabilitation (cf. référence 7) :
-
faire en sorte que les résultats correspondent aux attentes mais pour cela il faut aussi que les
moteurs de calcul prennent en compte les retours de l’instrumentation, ce qui donnera
confiance aux maîtres d’ouvrage (décideurs publics et maîtres d’ouvrage privés) et permettra
un discours de vérité,
-
bien distinguer les économies d’énergie qui se traduisent par des économies réelles de charges
de celles qui sont issues de convention dans les calculs (ex. du réseau de chaleur renouvelable)
sans oublier les impacts des projets sur les coûts de maintenance et les frais d’abonnement,
-
rassurer aussi les maîtres d’ouvrage sur les performances techniques et économiques des
équipements, sur les capacités des entreprises à les mettre en œuvre puis à en assurer la
maintenance et l’efficacité dans le temps, ce qui permettra de créer des modèles économiques
durables,
-
montrer que les bâtiments très performants fonctionnent bien, afin de donner envie aux maîtres
d’ouvrage,
-
favoriser des modèles juridiques et économiques de garantie de résultat,
-
faire aussi émerger des projets « d’écoréhabilitation » où l’instrumentation sert de formation sur
le terrain aux artisans et entreprises ayant réalisé les travaux (cf. projet Réhafutur dans
référence 6).
Les questions posées à la recherche (hormis les questions techniques de l’instrumentation elle-même)
devraient être :

la capitalisation des expériences afin de conforter les actions des maîtres d’ouvrage,

le couplage des études techniques, sociologiques et économiques sur le fonctionnement réel
des bâtiments

l’aide à la définition de modèles économiques fiables pour les opérateurs et notamment les
organismes de logements sociaux.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
ENGIE Cofely
Grand groupe
Nom de l’expert :
Mariane GOCZKOWSKI
Fonction :
Responsable du pôle
Mutation numérique des
services à l’énergie
chez Cylergie
UNE MESURE PERFORMANTE POUR UNE EXPLOITATION
PERFORMANTE
Le cœur de métier d’ENGIE Cofely est l’exploitation des bâtiments, principalement tertiaires et logements. Or c’est un métier en
pleine évolution, notamment sur l’exigence de résultat et de finesse de pilotage. Il devient alors nécessaire voire parfois
indispensable de bien connaître le bâtiment afin d’y adapter son travail.
En effet, la mesure de la performance énergétique est une problématique à laquelle nous devons pouvoir répondre dans le
cadre de nos contrats d’engagement énergétique ; avoir un état zéro du bâtiment afin de pouvoir améliorer les conditions de
fonctionnement et répondre adéquatement aux exigences contractuelles.
De plus, les nouveaux bâtiments exigent une régulation de plus en plus fine, et l’exploitant doit donc connaître l’état exact et
complet du bâtiment à chaque instant afin d’apporter confort et performance à l’instant t.
Pour ce faire, le ENGIE Lab Cylergie travaille sur des solutions pour mieux connaître le bâtiment à exploiter, que ce soit avant
une prise de contrat ou en cours d’exploitation et aussi bien sur le bâti que le comportement énergétique. Cette connaissance
du bâtiment passe nécessairement par l’analyse d’indicateurs de la performance.
Connaissance du bâti
La justesse d’une régulation CVC (Chauffage Ventilation Climatisation) d’un bâtiment dépend beaucoup de son temps de
réponse à un changement (température extérieure, température ambiante, consigne de température, occupation, …). Plus un
bâtiment sera long à réagir, plus il sera nécessaire de travailler sur une anticipation de ce changement et une finesse de la
régulation. Or il y a deux inerties : l’inertie des systèmes CVC et l’inertie du bâti. La connaissance du bâti devient donc
primordiale.
ENGIE Cofely recherche donc des méthodes et outils fiables et simples à mettre en œuvre pour caractériser le bâti, dont
notamment le coefficient de déperditions thermiques (Ubât) et l’inertie.
L’utilisation de la caméra thermique et de stylos fumigènes
permet d’identifier des défauts d’isolation ou des malfaçons, mais
ce ne sont que des indications qualitatives et en rien
quantitatives. En effet, suite à de nombreux tests terrain, ENGIE
Cofely a catégorisé la caméra thermique en bon outil
d’accompagnement et d’analyse relative, mais insuffisante en tant
qu’instrument de mesure.
 Résultat uniquement qualitatif
Les sondes de coefficient U présentent sur le marché permettent de faire
uniquement des mesures de U à des endroits précis d’une paroi (Uparoi).
Ces outils peuvent donc servir uniquement à alimenter un calcul de Ubât à
partir de plusieurs Uparoi mesurés. Mais le Ubât obtenu est en fait un Ubât
théorique (résultat du calcul) et n’est donc pas suffisamment représentatif
de la réalité.
De plus ENGIE Cofely a évalué ces outils qui se révèlent être peu précis et
délicats à opérer (contraintes météo, temps de mesure, …).
 Fiabilité limitée et résultat uniquement théorique
La méthodologie consistant à mettre en surchauffe le bâtiment par intermittence, de
mesurer l’énergie consommée et, en fonction des conditions du test (données météo),
d’en déduire le coefficient de déperdition global du bâtiment est intéressante car
globale mais présente d’importantes contraintes de mise en œuvre. Les bâtiments
sont rarement (voire jamais) vides plusieurs jours de suite, et les indicateurs
nécessaires imposent une instrumentation parfois délicate (température ambiante
moyenne représentative, débitmètre hydraulique, …).
ENGIE Cofely teste actuellement cette méthode avec un partenaire.
 Méthodologie séduisante, fiabilité à confirmer
Connaissance des équipements énergétiques
Cartographie des
équipements
Mesure de
performance
Bien piloter un bâtiment nécessite également de bien connaître les équipements énergétiques, leur fonctionnement, leur rôle,
leur performance et leur importance. Sans oublier les interactions entre ces équipements. Et cela est d’autant plus vrai que les
bâtiments sont de plus en plus équipés et que les équipements sont de plus en plus perfectionnés mais aussi complexes.
ENGIE Cofely élabore et/ou teste des outils et méthodes permettant deux approches :
mesurer la performance de systèmes énergétiques ;
cartographier les différents systèmes énergétiques d’un bâtiment.
Ces outils, en constante évolution, permettent de répondre à certains besoins mais sont encore imparfaits.
Bilan complet du fonctionnement et de la performance d’une CTA (dont la mesure
du rendement d’échange thermique) : « mallette CTA » développée par Cylergie.
Cette mallette contient capteurs, pinces, enregistreurs radio et logiciel permettant
d’instrumenter la CTA le temps nécessaire (en général quelques jours dont le we)
et de recueillir son fonctionnement réel.
Des mesures de QAI peuvent être complémentaires à cette instrumentation car
elles peuvent être révélatrices du mode de fonctionnement d’équipements de
ventilation.
 Outil performant répondant aux besoins des exploitants
Elaboration du profil d’appel de puissance et de consommation électrique :
« mallette diagnostic électrique » développée par Cylergie. Cette mallette
contient pinces, analyseur de courant, enregistreurs radio, logiciel permettant de
recueillir le profil de consommation et d’appel de puissance électrique du site ou
d’un plateau (au besoin).
Cette mallette peut être un complément aux solutions NIALM (Non Intrusive
Appliance Load Monitoring) qui sont parfois trop macroscopiques pour être le reflet
exact du bâtiment.
 Outil performant répondant aux besoins des exploitants
Logiciel de simulation énergétique dynamique (SED) développé à l’interne qui
permet de mettre en évidence la part de chaque énergie/système dans le bilan
global du bâtiment, d’identifier les postes à potentiel d’économies ainsi que de
détecter les optimisations possibles sur la conduite du bâtiment. Pour être fiable,
cet outil nécessite d’être utilisé avec des données fiables, dont parfois mesurées
sur site.
La SED utilisée en temps réel, c’est-à-dire dont les hypothèses de calcul sont
mises-à-jour régulièrement, a pour but de savoir à l’instant t si le bâtiment
fonctionne comme il devrait et de prévenir d’éventuels fonctionnements non
optimisés. Ce pourrait être aussi un outil d’aide à l’exploitation par l’anticipation des
besoins du bâtiment.
 Outil performant mais dont la fiabilité est directement liée au temps
alloué, et outil uniquement théorique. A combiner avec une étude
terrain.
Connaissance de la vie du bâtiment
Exploiter correctement un bâtiment revient à arriver à ce que le bâtiment réponde correctement aux besoins des occupants. Il
faut donc bien connaître le bâtiment mais aussi les besoins et attentes des occupants.
Mesure pour le pilotage
de l’installation
Mesure du confort
Mesure du confort thermique (température de l’air sec, température opérative,
humidité relative, vitesse d’air) : « mallette confort climatique » développé par
Cylergie. Permet de donner une réponse objective à une question très subjective
(calcul des indices de confort).
 Outil performant répondant aux besoins des exploitants
Mesure de la qualité d’air (CO2, température, hygrométrie, concentration de
formaldéhyde, concentration de benzène) : « mallette QAI » développée par
Cylergie. Permet notamment de détecter les éléments responsables d’inconfort.
La caméra thermique permet de compléter cette mallette pour la localisation de
sources d’humidité.
 Outil performant répondant aux besoins des exploitants
Le confort visuel est une question importante, mais qu’il est difficile de qualifier. Les luxmètres apportent une
réponse très localisée et uniquement centrée sur la question d’apport de lumière (pas de distinction lumière
artificielle ou naturelle ni de qualité de lumière).
 En recherche de solution
Le confort acoustique est une problématique grandissante, notamment avec la multiplication des espaces ouverts
et des bâtiments à très forte isolation et donc coupés de l’environnement extérieur (amplification des bruits
intérieurs).
 En recherche de solution
Mesure du renouvellement d’air pour mieux connaître sa part dans les consommations du
bâtiment ou mieux connaître la qualité de l’air intérieur. Mesure basée sur le temps de dilution
du CO2 par l’air neuf injecté.
Cette méthode prend en compte le renouvellement par les ouvrants et celui non forcé mais
sans en évaluer la part.
 Méthode performante répondant aux besoins des exploitants
Le taux et les horaires d’occupation sont des indicateurs importants mais difficilement quantifiables. Des
systèmes de comptages de personnes existent, mais sont soit peu fiables soit difficiles à mettre en place.
L’évaluation par le comptage de Smartphones ainsi que via une mesure de QAI sont des solutions étudiées chez
ENGIE Cofely.
 En recherche de solution
Connaissance des éléments extérieurs au bâtiment
La compréhension et la confiance en la fiabilité des données météorologiques sont des éléments très importants. ENGIE
Cofely évalue en ce moment l’impact des données de température et d’ensoleillement sur les consommations énergétiques et le
comportement du bâtiment. Les questions étant : l’exactitude de la valeur est-elle primordiale ? Une donnée mesurée sur place
est-elle plus fiable qu’une donnée « professionnelle » ou moyennée ? Quel est le rôle de la typologie du bâtiment sur l’impact
des conditions extérieures ? L’anticipation de certaines données aide-t-elle à l’exploitation ?
 Etude en cours
Les nouvelles technologies au service du bâtiment
Il n’est aujourd’hui plus nécessaire de tirer des câbles pour instrumenter un bâtiment. Les réseaux de capteurs sans fil ont levé
cette barrière il y a déjà une quinzaine d’années. Et la solution SigFox contribue aujourd’hui à faciliter grandement la relève de
données. En effet, Sigfox propose un réseau sans fil cellulaire très bas débit et très longue portée dédié aux objets
communicants et aux capteurs qui n’ont besoin de transmettre que de petites quantités de données. Cette technologie répond
parfaitement au besoin de suivi d’installations, sans infrastructure à déployer par l’utilisateur.
 ENGIE Cofely alliée avec SigFox pour un déploiement massif de capteurs et compteurs connectés
La question de la qualité de la donnée
La connaissance du bâtiment est une question fondamentale pour le métier de l’exploitation et elle passe obligatoirement par la
récupération des données, mais aussi par leur qualité et leur analyse. Le plus important n’est peut-être alors pas la quantité
des données, ni leur diversité mais peut-être plus sûrement leur qualité. En effet, de nombreux sites très bien instrumentés
présentent en fait des données inexploitables car mal identifiées, incomplètes, mal mesurées, … Aussi, face à une abondance
de données, il faut être en mesure de les traiter et de les interpréter correctement, de les « faire parler », sans quoi toute
mesure est vaine.
L’AVIS de l’expert
De la conception du bâtiment à sa destruction, il est question de Mesure de la Performance Energétique des Bâtiments (MPEB).
La MPEB concerne aujourd’hui aussi bien le propriétaire, l’occupant que l’exploitant ou gestionnaire. Et quelque soit l’acteur
concerné, la problématique finale est la même : la qualité de la donnée.
Même si la mesure de certains indicateurs s’avère encore délicate, les progrès technologiques permettent d’avancer et
permettront à terme de pouvoir recueillir grand nombre de données très diverses.
Par contre, l’accent devrait être mis, et ce dès la conception, sur la qualité et la précision de la donnée attendues. En effet, un
compteur mal positionné ou mal dimensionné sera inutile, et pire, transmettra une valeur fausse qui sera utilisée en l’état. Aussi,
les bâtiments très connectés sont aujourd’hui capables de remonter une importante quantité de données, représentant un gros
volume mais qui ne sont pas toujours utiles ni fiables. Cela alourdit le stockage et complique le traitement des données. Dans le
cadre d’un projet de mise en place d’une MPEB, il est donc primordial de répondre précisément à ces questions :
quels indicateurs seront utiles et utilisés ?
quelle précision sera nécessaire ?
quelle fréquence d’enregistrement faudra-t-il ?
Sachant que les réponses dépendent bien sûr de l’équipement et du bâtiment concernés, un guide d’aide à l’instrumentation
serait sûrement très profitable à tous les métiers du bâtiment.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Cerema – Centre d’études et
d’expertises sur les risques,
l’environnement, la mobilité ét
l’aménagement
Nom de l’expert :
Constance
LANCELLE
Centre scientifique et technique
Fonction :
Chargée de projets
en
mesure
de
l’efficacité
énergétique
des
bâtiments
et
de
leurs systèmes
SUIVI ET EVALUATION DE LA PERFORMANCE DES BATIMENTS PREBAT : Méthodologie et
résultats
Les mesures mises en place par l’État pour réduire les consommations et les émissions de gaz à effet
de serre sont accompagnées d’un programme de recherche et d’expérimentation sur l’énergie dans le
bâtiment (PREBAT) lancé 2005. Ce programme s’intéresse aussi bien aux rénovations qu’aux
constructions neuves d’un niveau a minima basse consommation. L’enjeu est de comprendre le
fonctionnement (consommations, pratiques et usages des occupants,…) en cours de vie des bâtiments
performants que ce soit pour faciliter la mise en œuvre de la réglementation thermique 2012 qui
généralise les bâtiments à basse consommation d’énergie, ou pour préfigurer les bâtiments à énergie
positive de demain.
Près 3000 réalisations bâtiments à basse consommation ont été soutenues dans ce cadre.
Parmi eux, plus de 200 bâtiments ont été instrumentés pour mesurer leur performance énergétique sur 2
ans. Par ailleurs, les suivis-évaluations comportaient un volet d’observation et d’enquêtes auprès des
usagers, afin de mieux connaître l’utilisation du bâtiment une fois la construction ou la rénovation
achevée. Les suivis-évaluations sont répartis entre le centre d’études et d’expertise sur les risques,
l’environnement, la mobilité et l’aménagement (Cerema), pour près de 70% des bâtiments, et d’autres
bureaux d’études.
Pour les deux tiers des opérations suivies par les directions territoriales du Cerema, une méthodologie
tournée vers la caractérisation in situ et l'explication des écarts de consommation par rapport au calcul
réglementaire RT 2005 a été développée.
Dans un premier temps, l’objectif est de récupérer
un maximum de données sur la conception du
bâtiment (DCE, fichier de calcul réglementaire, …)
et suivre la phase chantier (essais de perméabilité à
l’air, étude infrarouge) pour mettre en lumière les
différences entre la conception et la réalisation qui
ont un impact sur les consommations.
Une fois construit, le bâtiment est instrumenté
pour suivre les consommations poste par poste
(chauffage, eau chaude sanitaire, ventilation,
auxiliaires,
éclairage,
refroidissement
et
électricité spécifique) au pas de temps horaire
pendant deux années. Sur cette même période,
les conditions météorologiques du site sont
mesurées à partir d’une station météo installée
sur le site du bâtiment. L’ambiance à l’intérieur
des bâtiments est suivie par l’intermédiaire de
capteur de température et d’humidité relative.
Parallèlement, des enquêtes de terrain sont
réalisées auprès des occupants afin de
comprendre l’usage qu’ils ont de leur bâtiment.
Une double analyse de l’ensemble de ces données est ensuite réalisée à l’aide d’outils développés par
le Cerema afin de :


Caractériser la performance de l’enveloppe du bâtiment : une valeur expérimentale de Ubat est
évalué sur la base du bilan thermique du bâtiment
Exploiter les données de consommation en les confrontant aux consommations issues du calcul
réglementaire avec pour objectif d’identifier et évaluer l’impact dans un premier temps des
conditions météorologiques et de l’occupation et dans un second temps des performances de
l’enveloppe et des équipements énergétiques. Ces impacts sont tirés de la transposition du
calcul de l’étude thermique réglementaire 2005 (méthode dynamique au pas de temps horaire)
dans les conditions observées et mesurées.
Les résultats obtenus pour une opération en Bretagne dont le chantier s’est terminé en 2010 sont
présentés ci-après. Il s’agit d’un centre multi accueil qui accueille une quarantaine d’enfants toutes les
semaines.
Le bâtiment est en ossature bois, isolé par 12cm de laine de bois. De grandes baies vitrées au sud, avec
brises soleil, assurent des apports solaires importants qui entrainent une légère surchauffe en hiver et
une surchauffe plus importante en mi-saison obligeant les occupants à ouvrir les fenêtres en hauteur. La
mise en œuvre de l’enveloppe, principalement en terme de perméabilité à l’air a été soignée. Le
bâtiment est chauffé par une pompe à chaleur air/eau (COP de 3) branchée sur un plancher chauffant.
La ventilation est assurée par des systèmes double flux de rendement 85%. Il n’y avait pas de bypass
d’installer sur cet équipement.
L’instrumentation a permis de récupérer des
données sur les consommations de chauffage
(compteur électrique de la PAC, compteur de
calories n’a pas fonctionné pour estimer le
besoin), les consommations de ventilation
(compteur électrique pour chacun des caissons),
les consommations d’eau chaude sanitaire
(compteur électrique pour chacun des ballons), la
consommation d’éclairage et les consommations
électriques spécifiques (compteurs électriques
des sorties spécifiques du compteur).
Une des trois systèmes double flux a été
instrumenté en température ce qui a permis de
déterminer un rendement.
Après analyse des mesures, les paramètres qui ont pu être évalués sont les suivants :
Valeur issue du calcul RT
Valeur issue des outils
Perméabilité à l’air (m /h.m²)
1,7
0,69
Température de consigne (°C)
0,6
0,78
Ubat (W/m².K)
0,534
0,77
Apports internes
7 W/m² et occupation 10h/j
pendant 5j/7
7,9 W/m² et occupation 12h/j
pendant 5j/7
Température extérieure
Météo réglementaire
Température extérieure du site
3
Les résultats des deux étapes de recalage sont présentés dans le graphique suivant
Les écarts restants sur la consommation de chauffage peuvent être dus à des paramètres qui ne sont
pas mesurables ou quantifiables (ouverture des fenêtres, débits de ventilation, …). Quant aux
consommations d’eau chaude, l’écart est dû à un besoin plus important que le besoin conventionnel.
Le programme de recherche sur les bâtiments PREBAT a permis de développer une méthode
permettant d’estimer la performance intrinsèque du bâtiment à travers le recalcul du Ubat évalué sur la
base des mesures. Cette approche permet aussi de distinguer en terme d’impacts sur les
consommations, ce qui relève des conditions météorologiques et d’occupation (et donc d’usage), de ce
qui relève de la performance intrinsèque du bâtiment et du fonctionnement de ses systèmes.
Aujourd’hui, l’incertitude sur les résultats obtenus par cette méthode n’est pas évaluée. Son évaluation,
actuellement en cours, permettra d’apporter une connaissance supplémentaire quant à la fiabilité des
résultats présentés. L’instrumentation mise en place est tout de même assez lourde et couteuse et la
quantité de données, bien qu’essentielle, est importante et demande beaucoup de temps d’analyse. Le
coût d’une telle étude représente un budget conséquent.
Références :
Suivis de Performance Energétique PREBAT dans l’ensemble des régions
Bâtiments démonstrateurs du programme PREBAT Enseignements opérationnels tirés de 32
constructions et rénovations à basse consommation d’énergie évaluées de 2012 à 2014
Bâtiments démonstrateurs à basse consommation d’énergie - Enseignements opérationnels tirés de 60
constructions et rénovations du programme PREBAT 2012 – 2015 - collection « Connaissances » du
Cerema
L’AVIS de l’expert
Garantir la performance énergétique des bâtiments est devenu aujourd’hui une action incontournable
pour qui souhaite réduire les consommations de la vie d’un bâtiment. Cette action repose dans un
premier temps par une mesure fiable des consommations. La mesure s’appuie sur la mise en place
d’une instrumentation optimisée. Elle doit être suivie d’une analyse fine des données brutes obtenues à
travers des outils. Enfin, les résultats obtenus doivent être intelligibles par l’ensemble de la profession,
depuis les bureaux d’études jusqu’au gestionnaire du bâtiment.
D’un point de vue qualité environnementale du bâtiment, la mesure de la performance énergétique est
aussi une source de données importante pour la classification des bâtiments. Mieux connaître son
patrimoine dans une optique énergétique permet de toujours mieux appréhender et réussir les
rénovations énergétiques.
Une connaissance approfondie des capteurs de mesure, de l’échantillonnage des points
d’instrumentation, de la durée de l’instrumentation sont des points essentiels permettant de réduire, dès
les premières actions, les incertitudes sur la donnée finale qu’est la performance.
L’instrumentation des bâtiments est aujourd’hui une opération couteuse non seulement en matériel mais
aussi en temps. Réduire le nombre de capteurs installés, décomplexifier les outils d’analyse et estimer
les incertitudes liées à cette chaine de mesure/analyse sont les points essentiels pour que la MPEB se
généralise et soit mieux accepter par l’ensemble de la profession et des occupants des bâtiments.
Quels capteurs pour quelles mesures, quel traitement standardisé ou non des données récoltées et avec
quelle incertitude, me semblent être les questions essentielles à se poser pour mesurer la performance
énergétique des systèmes.
SEMINAIRE EXPERT MPEB ORGANISE
PAR LA FONDATION BATIMENT ENERGIE
FEDENE
Nom de l’expert :
Antoine HOCHAR
Fédération professionnelle
Fonction :
Responsable technique
LE PILOTAGE ET LA MESURE AU SERVICE DE LA PERFORMANCE ENERGETIQUE DES
BATIMENTS ET DU CONFORT DES OCCUPANTS
La réalisation d’économies d’énergie est l’un des points clés de la transition énergétique qui concerne tout particulièrement les
bâtiments.
Les entreprises du SYPIM - Syndicat du pilotage et de la mesure de la performance énergétique, membre de FEDENE - ont
développé une ingénierie spécialisée et reconnue afin d’assurer un pilotage intelligent des installations ou des bâtiments
pour garantir les résultats d'économies d'énergies, en préservant le confort des occupants.
La mesure et la vérification, selon une méthode rigoureuse, sont indispensables pour renforcer la garantie réelle du bâtiment. Les
systèmes de télégestion, télétransmission et de GTC (Gestion Technique
Centralisée) font aujourd’hui partie intégrante des installations techniques et
contribuent à l’amélioration de l’exploitation et de la maintenance. Ces
systèmes de management des énergies permettent de mesurer, suivre,
gérer, optimiser et restituer les informations relatives au confort et au
fonctionnement des installations.
Ils contribuent au fonctionnement optimal des installations et permettent un
reporting précis à destination des parties prenantes, leur donnant la possibilité
de bénéficier d’une information transparente et en continu sur leur confort, l’état
des installations et leurs conditions de fonctionnement compte tenu de l’usage
qui en est fait.
Le confort, en particulier le confort thermique, est subjectif. Afin de le
caractériser de manière objective, il existe des indicateurs qui traduisent l’état
thermique des zones occupées du bâtiment : la température de l'air,
l’hygrométrie, la température de l'eau, le rayonnement solaire, la vitesse de l’air,
la qualité de l'air (par exemple la concentration de CO2), etc.
Le confort est défini comme une série de ces indicateurs, fixée pour une zone
dans le bâtiment en fonction de l’usage (exemples : chauffage / logement, ECS
/ logement, chauffage / piscine, bureaux / climatisation, etc.). De plus, ces
grandeurs permettent, à confort égal, de ne pas dériver des engagements de
performance énergétique.
1- Mesurer
Le choix des données pertinentes à mesurer constitue le premier axe pour la
surveillance et le pilotage de la performance énergétique. Les entreprises du
SYPIM intègrent cette dimension pour s’assurer en permanence de la qualité et
de la fiabilité des données collectées (unicité, complétude, exactitude,
conformité, cohérence, intégrité). Pour ce faire, l’étalonnage des instruments de
mesure est nécessaire.
Les mesures à mettre en œuvre vont dépendre des objectifs souhaités et des
moyens alloués à cette finalité. A ce stade, définir ou réviser le plan de comptage
est indispensable pour définir quelles données mesurer, pour quel usage et à
quel coût. Un plan d’investissement sera établi en conséquence.
L’évolution des outils de pilotage (multiplicité des constructeurs, des
équipements, des protocoles de communication…) et l’histoire des bâtiments qui
ont vu s’implanter en leur sein différentes solutions de technologies et d’origines
différentes, apportent une complexité qu’il est indispensable d’appréhender dans
sa globalité et de maitriser dans le moindre détail.
Les installations techniques sont dotées de nombreux capteurs, actionneurs, mesureurs reliés à des unités de contrôle / commande
qui traitent les données et agissant pour maintenir un état de fonctionnement optimal. Il s’agit de collecter et transférer ces
données depuis les capteurs et compteurs jusqu’à un serveur central. Parmi les systèmes de transmission de données usuels,
on peut citer : radio, réseau cuivré, 3G, bus, IP, etc.
Les données sont alors accessibles en temps réel et partout, via internet sur des supports tels que les PC, tablettes ou
smartphones.
2- Qualifier la donnée, l’analyser
Des méthodes précises comme l’IPMVP permettent de connaitre les
données pertinentes choisies à l’avance et d’identifier les actions à mener
pour optimiser la performance énergétique du bâtiment.
Ceci passe avant tout par une connaissance précise des quantités d’énergie.
En conséquence, la mise en œuvre de compteurs télé-relevables est un
atout pour un suivi en temps réel de la performance. Les données ainsi télérelevées seront intégrées dans les systèmes de supervision centraux,
programmés de telle sorte qu’une dérive peut être identifiée par les équipes
en charge de l’analyse et du management. Ces analyses s’appuient sur les
données collectées pour engager avec leurs analystes énergétiques des
actions d’optimisation du fonctionnement des installations thermiques.
Le suivi, à ce stade, il s’agit de stocker et de traiter les données
énergétiques afin de détecter la survenance d’anomalies ou de dérives de
consommations, en comparant les données récentes aux données
historiques. La chaine de mesure comporte un ensemble de boucles d’auto
contrôle assurant une surveillance permanente des mesures collectées
(tests cycliques, alarmes d’erreur, information de perte de mesure..). La prise
en compte de ces éléments permet aux hommes de l’analyse et du
management de faire la part des choses entre un dysfonctionnement de la
chaîne de mesure et une dérive réelle de la performance énergétique, dans
un souci de maintenir le confort de l’occupant tel qu’il a été définit par la série
d’indicateurs. Les nouveaux outils d’analyse de données permettent de développer des modèles de surveillance liée à l’expérience.
En général, les indicateurs du confort comme la température et
l’hygrométrie sont mesurés en continu dans le bâtiment. Des interventions
régulières de techniciens qualifiés sont prévues pour s’assurer du bon
fonctionnement des systèmes. Selon le besoin, il est possible d’aller plus loin
dans le confort en garantissant par exemple une qualité de l’air améliorée.
Pour assurer ce service, des sondes de mesures sont reliées à des unités
de télégestion et sont parfois assorties d’alarmes en cas d’atteinte de seuils
non acceptables.
Le rôle de l’homme (connaissances, expertise) complété par l’utilisation
d’intelligence artificielle se montre par exemple utile dans l’anticipation des
besoins (montée en charge en avance pour un confort dès que le besoin est
là, réduit lancé en avance pour augmenter l’efficacité énergétique).
3- Exploiter les données / pilotage
Dans le cadre d’une optimisation permanente de l’efficacité énergétique avec
pour objectif la garantie de réduire les consommations d’énergie en
préservant le confort des occupants, il existe déjà des solutions
techniques économiquement viables pour mettre en œuvre ces
services vertueux. La mesure est cruciale pour quantifier les paramètres
suivis par les parties prenantes (fournisseur de service et client), notamment
pour savoir si les objectifs sont atteints ou pas.
Il est possible de proposer, pour tous types de bâtiments, des services de suivi, pilotage, comptage et publication intelligente des
données, en industrialisant et en accélérant la remontée des informations, telles que les consommations d’eau, d’énergie,
la détection des anomalies, les interventions de maintenance, etc.
L’opérateur doit sans cesse s’adapter à l’existant pour optimiser économiquement (investissements dans les systèmes de mesure,
de transmission de données, de pilotage et de maintenance) le service rendu (confort, performance énergétique).
4- Freins / ouverture
Les exploitants sont en mesure de mobiliser leurs équipes de terrain pour mettre en œuvre les actions correctives qui peuvent être
de plusieurs niveaux.
Certaines actions complexes sont à mener en se basant sur l’expertise de l’opérateur qui conseille ses clients :
sur l’optimisation de la maintenance ;
les risques sanitaires comme la propagation d’ondes de plus en plus nombreuses, dont l’impact sur la santé humaine est
encore méconnu ;
la fiabilité de la mesure, qui peut être augmentée via des investissements plus importants ;
l’anticipation des évolutions réglementaires.
Il est nécessaire de mettre en regard la performance des installations et les niveaux de confort attendus en agissant sur les
équipements techniques ou sur le comportement des occupants.
L’accompagnement
des
usagers
(sensibilisation,
communication) est également fondamental pour une
meilleure acceptation.
VISION FUTURISTE DU CONFORT
(Exemple du chauffage dans le logement)
Cela se traduit par la mise en disposition d’informations
lisibles et compréhensibles en temps réel, de rapports
d’analyse circonstanciés, mais également de préconisations
d’amélioration des installations et de leurs usages. On peut
citer une mesure très incitative, réalisable par le biais de cette
transparence, permettant d’optimiser la consommation
d’énergie en préservant le confort : la répartition de la
facturation selon la température (ou plus précisément les «
degrés jours ») mesurées dans chaque zone.
Chauffage local selon
température ressentie
Certaines solutions innovantes apportent des gains en
termes de performance énergétique, d’investissement dans
le matériel installé, ainsi qu’en termes de maintenance sur la durée. Par exemple, certains nouveaux capteurs de température et
d’hygrométrie permettent une transmission directe des données qui pourront être analysées en temps réel, permettant alors un
pilotage en temps réel des installations.
On imagine déjà certains services qui accompagneront le confort grandissant des usagers à l’avenir, comme par exemple une
garantie de température au sol dans les crèches, une mesure de la « résultante thermique » (température ressentie par l’Homme)
ou une anticipation de la maintenance (maintenance prédictive), grâce à la connaissance des systèmes acquises avec les
données de plus en plus nombreuses.
D’autres capteurs deviendront même mobiles et permettront une mesure géolocalisée dans le bâtiment de la température, de
l’hygrométrie et de la qualité de l’air ambiant.
L’AVIS de l’expert
Plusieurs pistes peuvent être explorées afin de pallier aux freins cités dans le texte ci-dessus.
Investissement
Afin de réussir à investir de manière optimale en fonction du besoin, il sera nécessaire de mieux connaître et maîtriser le bâti et
ses caractéristiques thermiques. Des solutions techniques existent et permettent de faire des économies rapidement (quelques
années parfois). Cependant, il est important d’investir davantage dans :
des tests et études sur le bâtiment dont les systèmes seront pilotés, pour l’ancien ;
une maquette numérique fiable assortie d’études lors de la mise en service, pour le neuf.
Risques sanitaires
Afin de monter en compétence sur la dangerosité des ondes, un benchmark dans le milieu des télécommunications sera pertinent.
Entre temps, de simples mesures DAS (Débit d'Absorption Spécifique) suffiront peut être à démontrer que l’exposition aux ondes
liées au flux de données thermiques d’un bâtiment est acceptable.
Fiabilité de la mesure
Des investissements plus importants dans les systèmes de mesure permettraient d’obtenir des données plus fiables. Aussi, la
quantité de données recueillies jusqu’à présent étant importante, elle permettrait, via des analyses type « big data », de développer
des algorithmes de correction.
Evolutions réglementaires
Citons ici par exemple la volonté de compter l’énergie par usager. Le bâtiment n’est pas homogène et le comportement thermique
de chaque zone en dépend : à confort constant, les logements en bordure par exemple utiliseront plus d’énergie que ceux situés
au cœur du bâtiment. Cette volonté semble donc apporter un biais dans le traitement des usagers, notamment ceux ayant le
pouvoir d’achat le plus faible. Un système se basant sur des mesures de température par zone (existe déjà dans beaucoup de
cas) permettrait une équité de traitement (facturation en fonction du confort choisi par l’usager).
Citons par ailleurs des solutions plus générales permettant d’améliorer le confort comme :
la mesure de la qualité de l’air par zone, couplée à une action de pilotage (sur la ventilation par exemple) ;
le déploiement de contrats de résultats permettant un bon compromis entre confort et efficacité énergétique /
environnementale.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Bouygues Bâtiment Ile-de-france
Nom de l’expert :
Damien ROBIN
Grand Groupe
Fonction :
Pilote de la performance
énergétique
La mesure de la performance énergétique du bâtiment de la conception à
l’exploitation. Méthodologie et retour d’expérience
L’étude présentée concerne un processus de commissionnement énergétique permettant de
fiabiliser les engagements énergétiques réalisés en phase de conception. La Mesure de la
Performance Énergétique du Bâtiment (MPEB) est le maillon final de cette chaîne permettant d’affiner
et de fiabiliser les modèles de Simulations Thermiques Dynamiques (STD) ayant servi à évaluer
l’engagement initial.
La mesure de la performance s’articule autour de deux axes :
1. Mesure des consommations par usage : Auxiliaires, éclairages, climatisation
technique ou de confort, chauffage, ECS, ventilation, électricité spécifique…
2. Mesures d’indicateurs de performances liés à l’enveloppe, aux systèmes, aux
réseaux et aux usages
Cette démarche de MPEB commence par la définition d’indicateurs de performances. Chaque
type d’hypothèse de la STD correspond à un indicateur :
 Perméabilité à l’air et coefficient de transmission thermique pour l’enveloppe
 Temps de fonctionnement, rendement et débit d’un ventilateur ou d’une pompe
 Taux et horaires d’occupation des locaux
 Classe d’isolation et perte de charge d’une réseau…
La mise en place et le suivi de ces indicateurs en phases de conception et d’exécution permet de
suivre l’évolution de l’engagement énergétique ainsi que de tracer les évolutions liées à la
conceptions ou à la mise en œuvre. Lors de la mise à disposition du bâtiment une STD « asbuilt »
est réalisée à l’image du bâtiment grâce aux données issues du Dossier des Ouvrages Exécutés
(DOE). Une photographie énergétique du bâtiment est réalisée et servira de référence en exploitation.
En exploitation, la mesure de ces indicateurs de performance a pour but de suivre le
comportement du bâtiment et de ses systèmes. Elle permettra d’analyser les écarts entre les mesures
de consommations réelles par usage et les résultats de la STD « asbuilt ».
L’objet de la présentation est de :
 définir les outils et les acteurs clé durant chaque phase de la conception à l’exploitation
pour la mise en place et la mesure de ces indicateurs
 présenter les premiers retours d’expérience
Les retours d’expérience (REX) continus durant ces deux phases correspondent à trois catégories :
 Thermique : Affiner les hypothèses de la STD initiale
 Technique : Définir les outils et attendus de conception incontournables
 Contractuel : Définir les acteurs clé et leur interactions de chaque phase
REX STD :
Les retours d’expériences permettant d’améliorer les hyptohèses STD initiales sont très variés, ils
concernent par exemple la prise en compte de :
 Ponts thermiques d’attaches de bardage
 Débits de compensation dans les cuisines
 Consommations des cordons chauffants
 Éclairage et ventilation des parkings
 L’encrassement des filtres de CTA
 Débits minimum des ventilateurs et pompes
 La modélisation des emmissions de CO2 par les occupants …
REX Contractuel :
L’engagement énergétique est dépendant de la conception, il doit donc être portée par les
maîtrises d’œuvre et balayer l’ensemble de l’enveloppe et des systèmes.
Enveloppe : La MOE en charge de l’enveloppe doit avoir a sa charge l’ensemble des parois et pas
uniquement la façade. Cela permet d’évaluer une performance globale de l’enveloppe incluant les
ponts thermiques entre façades et planchers hauts et bas. Cette maîtrise d’œuvre doit être garante
de la perméabilité à l’air sur l’ensemble des faces du bâtiment.
Systèmes et réseaux : La MOE en charge de la technique doit s’occuper de l’ensemble de la chaîne
de comptage et des points GTB nécessaires aux indicateurs ainsi qu’aux compteurs. Garante de la
performance des systèmes, elle doit mettre en œuvre les outils permettant de mesurer cette
performance.
REX Technique :
En fin de phase de conception, les études doivent permettrent de valider l’ensemble des
hypothèses techniques de la STD. Les principaux attendus de la MOE sont :
 Préciser les valeurs cibles des indicateurs dans les CCTP : Par exemple le CCTP façade
devra décrire la performance des châssis incluant le pont thermique de mise en œuvre.
 Fournir une analyse fonctionnelle (AF) pour l’ensemble des lots tehcniques (CVC, PLO,
CFO). L’analyse fonctionnelle permet de voir si les sénarios tehcniques de la STD sont
conformes à la conception : pilotage d’éclairage sur programme horaire, arrêt de pompe de
distribution sur températures extérieure et planning d’occupation…
 Fournir un plan de comptage permet de s’assurer que tous les équipements / départs sont
comptés dans le bon usage contractuel ou réglementaire
 Fournir une liste de points GTB permet de s’assurer que la mesure des indicateurs pourra
s’effectuer via la GTB. L’oubli de mesure des débits aérauliques empêchera la mesure des
SFP (Specific Fan Power) des CTA. Le pilotage des pompes via GTB est également
indispensable pour la maintenance et l’optimisation des consommations énergétiques des
auxiliaires.
 Fournir un zoning permettant de faire concorder les zones techniques et fonctionnelles
permet, à titre d’exemple, d’éviter de faire fonctionner :
o une CTA en permanence car un local de sa zone d’influence a une occupation
continue tel un poste de sécurité
o une boucle d’eau glacée en innoccupation car un local technique nécessite un
rafraîchissement permanent
 Fournir un plan de repérage des isolants thermiques. Ce plan permet également de délimiter
l’enveloppe chaude qui devbra respecter l’objectif de perméabilité à l’air. Ce plan sera
accompagné de détails de traitement des ponts thermiques respectant les valeurs de la STD.
En phase d’exécution les protocoles : pose de châssis, calfeutrement, traitement de joints de
dilatation… doivent être visés par les MOE et des tests de perméabilité à l’air devront être réalisés in
situ pour s’assurer de l’efficacité de la solution retenue. Les AF d’exécution décriront le
fonctionnement (commande, régulation) de l’ensemble des systèmes. L’AF GTB doit dcrire
l’ensemble des équipements qu’elle supervise ou pilote :
o Programmes horaires des équipements et éclairage
o Pilotage des stores ou ventilation naturelle…
Les AF sont indispensables car elles permettent de définir les tests séquentiels à réaliser par
l’entreprise technique. Les tests devront vérifier l’ensemble des indicateurs de performance afin de
réinjecter dans la STD Asbuilt les valeurs réelles. La programmation GTB initiale doit être forunie aux
MOE pour vérifier la conformité aux AF.
La mise à disposition est une phase majeure du commissionnement, elle doit être préparée par
l’ensemble des acteurs et être intégrée dès le départ dans le planning. Les Moe doivent définir un
cahier des OPR permettant de garantir la performance de systèmes, de l’enveloppe et le respect de
l’engagement initial.
En exploitation, au moyen de la GTB, une mesure de la performance du bâtiment est alors possible.
L’engagement énergétique est suivi par un pilote de la performance énergétique dont la mission est
continue durant l’ensemble du projet. Les principaux freins actuellement sont les problèmes
rencontrés au niveau des chaînes de comptage et des interfaces GTB. Le groupe travaille sur
l’uniformisation des données afin de pouvoir analyser les mesures de l’ensemble des projets réalisant
de la mesure de performance énergétique.
L’AVIS de l’expert
La fonction de pilote de la performance énergétique est nouvelle et doit s’accompagner d’un réel
engagement des MOE sur le sujet de la performance énergétique. La multiplicité des enjeux et des
acteurs necessite qu’une réflexion sur la sobriété technique soit réalisée afin de garder des bâtiments
agréables à vivre, appropriables par les usagers et accessibles financièrement.
Les enjeux sont le comptage et la communication entre les systèmes mais également avec les usagers.
Les axes de recherches pouvant apporter de la sobriété sont :




Coupler la maquette numérique avec les besoins en exploitation
Comptage par reconnaissance de pattern
Utilisation de capteurs sans fil sans pile
Utilisation de Li-Fi pour l’internet des objets…
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
AVELTYS
Nom de l’expert :
PME
Fonction :
Romain FLATTET
Directeur Général
Adjoint
Retour d’expériences sur la gestion d’un bâtiment à énergie positive
Nous gérons aujourd'hui le Green Office de Rueil, ensemble immobilier de 35 000 m2, occupé par
Unilever, American Express Voyage et Ingerop. Nous garantissons les charges d'exploitation ainsi que
les consommations règlementaires de 20 kW/m2/an, compensées par la production photovoltaïque pour
atteindre l'énergie positive. Nous vous proposons un retour d'expérience de la première année
d'exploitation de ce bâtiment.
Description du batiment :
Mesure de la performance du Bâtiment
Le traitement des écarts et les plans d’actions correctifs
L’AVIS de l’expert
Le bâtiment Est de Green Office Rueil est en exploitation depuis le 12 Décembre 2014. Sur cet
immeuble Aveltys garantit les consommations liées au confort (chauffage, refroidissement, auxiliaires,
ventilation, éclairage), c'est-à-dire le périmètre RT2005. Après une année d’exploitation nous constatons
que nous sommes très proches de la cible de 20,2kw/h/m².
Nous voyons bien sur cette ouvrage que le retraitement des écarts et la façon d’y associer un plan
d’action correctif est clés dans le processus de l’atteinte de l’objectif. Or sans une connaissance parfaite
des process et une analyse fine des écarts, il est impossible d’avoir une maitrise de la consommation
énergétique du bâtiment.
Ne perdons pas de vue que la performance énergétique dans un bâtiment ne doit jamais se faire au
détriment du confort. Les niveaux de confort optimaux permettent à la fois qualité de vie au travail et
performance des collaborateurs. Vivre dans un bâtiment à énergie positive nécessite certes un pilotage
fin de la performance mais aussi une implication de chacun dans la transformation des usages. Ce qui
signifie que nous pouvons mettre en place les meilleurs systèmes de mesures et les meilleurs plans
d’actions, si l’occupant n’adhère pas à la démarche, aucune cible ne pourra être atteinte.
Séminaire Expert
sur la Mesure de la Performance Energétique des
Bâtiments
2ème session :
La mesure de la performance énergétique intrinsèque de
l'enveloppe et des équipements techniques
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Saint-Gobain Recherche
Nom de l’expert :
Florent ALZETTO
Grand groupe
Fonction :
Chef de Projet R&D
Saint-Gobain ISOVER
Nom de l’expert :
Guillaume
PANDRAUD
Grand Groupe
Fonction :
Ingénieur R&D
QUB/e : une méthode rapide de mesure rapide des pertes thermiques de l’enveloppe du
batiment
Les engagements nationaux pour la réduction des consommations énergétiques (facteur 4 sur les gaz à
effet de serre, facteur 2 sur les consommations énergétiques) entraînent des conséquences fortes et
directes sur le marché de la construction. En particulier il y a besoin de massifier les projets de
rénovation et de généraliser les constructions de bâtiments à énergie positive. Afin que ces objectifs
soient atteints, le groupe de travail du Plan bâtiment durable a défini la GPEI et la GRE devant permettre
de sécuriser les investissements réalisés. Cependant, la GPEI n’est pas encore mesurée in situ, en
particulier sur le poste le plus important, celui des déperditions thermiques de l’enveloppe. Cela pose le
problème de la validation de la GRE et donc du fonctionnement de l’architecture mise en place. Mais
pour qu’une mesure de la GPEI soit acceptable et massifiée, il faut impérativement qu’elle soit à la fois
assez simple pour être réalisée par de nombreux opérateurs différents, assez rapide pour entraîner un
coût réduit, et assez fiable pour être acceptée par toutes les parties concernées. Ces 3 points ont le
potentiel d’être en forte tension. En particulier, les mesures thermiques dans le bâtiment nécessitent en
général une durée élevée pour garantir une faible incertitude de mesure, et les durées supérieures à une
nuit entraînent la prise en compte des effets complexes liés au rayonnement solaire. Cela peut
rapidement demander un matériel et une expertise ne permettant pas une utilisation par le plus grand
nombre, ainsi qu’une augmentation forte de la durée de mesure pour prendre correctement en compte
ces effets. Il est donc nécessaire de développer une méthode thermique dynamique dont la durée serait,
pour un compromis optimal entre simplicité, fiabilité et coût, inférieure à une nuit de mesure.
Dans ce contexte une méthode de mesure in-situ rapide et innovante de la perte thermique globale d’un
bâtiment appelée QUB [1] a été développée et brevetée par Saint-Gobain [2,4]. Les travaux de
recherche ont permis de valider cette méthode par une expérience en chambre climatique [3] et de
démontrer théoriquement les conditions d’utilisation de celle-ci [5]. Elle permet de mesurer un paramètre
représentant la puissance à injecter pour maintenir une différence de 1 °C d’écart entre l’intérieur et
l’extérieur du bâtiment dans les conditions de température du système pendant la mesure. En effet, la
valeur mesurée n’est pas tout à fait intrinsèque à l’enveloppe mais dépend également de l’état du
système (température des zones adjacentes, conditions de ciel dégagé ou nuageux, vitesse de vent…).
Ce paramètre noté HLC (Heat Loss Coefficient) est appelé le coefficient de perte thermique d’un
bâtiment. Il intègre les pertes thermiques par conduction dans l’enveloppe et par infiltration d’air au
travers de l’enveloppe.
Afin de mieux comprendre l’effet des matériaux de construction sur l’isolation d’un bâtiment une
extension de la méthode a été développée, appelée QUB/e et breveté par Saint-Gobain. Cette méthode
permet en plus de la perte thermique globale de mesurer la transmission thermique (valeur U) d’un
assemblage de matériaux de construction comme des murs opaques, des vitrages, un plafond… Par la
connaissance des surfaces d’éléments associés il est alors possible de déduire la répartition des pertes
dues aux différents éléments, soit pour réaliser un contrôle à réception de chantier, soit pour
diagnostiquer l’existant afin de prescrire des travaux de rénovation de l’enveloppe. La mesure des pertes
thermiques vers les éléments mitoyens ou locaux adjacents chauffés ou non permet d’estimer la
contribution de ces éléments afin de ne diagnostiquer que la partie de l’enveloppe souhaitée. Cette
méthode peut alors être appliquée à une zone contenue dans un plus grand local. Il reste toutefois un
écart entre la perte globale mesurée et la somme de la perte de tous les éléments. Cette différence est
principalement due à toutes les pertes non unidimensionnelles (ponts thermiques de liaison ou des
systèmes d’assemblage de matériaux de construction) mais également au renouvellement d’air entre
l’intérieur et l’extérieur, qu’il soit naturel ou forcé par ventilation mécanique.
Les travaux présentés par Saint-Gobain dans ce séminaire ont été réalisé sur deux types de logement.
Le premier est une maison de type Victorienne de 60 m 2 au sol sur deux étages, mitoyenne avec une
autre, qui a la particularité de se trouver dans une chambre climatique où la température et l’humidité
relative peuvent être contrôlées. Cela offre la possibilité de réaliser des mesures statiques impossibles
en climat réel. En effet les températures intérieures et extérieures peuvent être maintenues constantes
pendant plusieurs jours de telle sorte que la puissance thermique dissipée dans la maison et les flux
thermiques sortant du batiment soient constants. Il est alors possible de déduire de ces valeurs une
référence parfaite de la performance thermique du batiment et de ses composants.
Dans le cadre d’un projet de collaboration entre Leeds Beckett University, Saint-Gobain et University of
Salford [6], cette maison a entièrement été rénovée en remplaçant les menuiserie et en isolant les murs,
les combles perdus et le sol. Ceci a été fait en 5 étapes où chaque élément (murs, sol, comble,
menuiserie) a été rénové indépendamment en plus d’une étape de rénovation complète. Par ailleurs, la
maison a été instrumentée avec plus de 400 capteurs de températures, flux thermiques, puissances,
humidités, CO2… et une campagne intensive de mesure a été réalisée à chaque étape. Deux mesures
sont présentées ici. La première, une mesure statique de la performance thermique du batiment, a été
réalisée par Leeds Beckett University ; la seconde est la méthode QUB/e réalisée par Saint-Gobain. Les
résultats sont comparés et montrent un très bon accord entre les deux méthodes que ce soit pour la
mesure de la perte thermique globale ou la transmissivité thermique (valeur U) des élements individuels.
La seconde expérience a été réalisé en climat réel dans un appartement ancien en duplex de 80 m 2 au
sol situé à Levallois-Perret. La facade en contact avec l’extérieur a une surface de 128 m 2 et une surface
de 103 m2 est en contact avec des locaux chauffés habités. Deux mesures ont été réalisées. La
première est la méthode du « co-heating » dont la méthodologie a été écrite par Leeds Beckett
University [7] et qui consiste à réguler l’intérieur du batiment à une température constante pendant deux
semaines avec des éléments chauffants électriques. L’analyse de la puissance électrique consommée
en fonction de l’évolution de la température extérieure et du flux radiatif solaire incident permet de
mesurer le coefficient de perte thermique du batiment. Cette méthode est l’analogue de la méthode de
mesure statique en chambre climatique, devient par nécessité quasi-statique en climat réel, et demande
que les paramètres du batiment soient identifiés par corrélation aves les valeurs moyennes des
conditions climatiques sur plusieurs heures. L’utilisation additionnelle de fluxmètres thermiques pendant
cette mesure permet de mesurer la transmissivité thermique des éléments (valeur U) en accord avec la
norme ISO 9869-1 [8]. La seconde est la méthode QUB/e. Les résultats sont comparés et révèlent une
nouvelle fois un très bon accord entre les deux méthodes, que ce soit pour la mesure de la perte
thermique globale ou la transmissivité thermique (valeur U) des élements.
Ces deux essais sont caractéristiques des nombreuses mesures réalisées par Saint-Gobain, et montrent
à la fois la faisabilité et la fiabilité de la méthode QUB/e, quel que soit le type de bâtiment testé, le niveau
d’inertie, le positionnement de la couche d’isolation, etc. Des développements sont cependant toujours
en cours sur cette méthode pour améliorer sa simplicité et sa fiabilité. En raison de la quantité de
capteurs de températures et de flux utilisés, le matériel est encore assez lourd et demande une certaine
experience. Un travail d’optimisation du nombre et du positionnement des capteurs est donc en cours
pour permettre son utilisation par le plus grand nombre. Par ailleurs, si les études de comparaison à des
référence et de dispersion des résultats permettent d’estimer l’incertitude de mesure à ± 15 % en
moyenne, l’influence de la structure du bâtiment ou des conditions de mesure sur cette valeur sont
encore assez mal connues. Néanmoins, aucun de ces problèmes ne paraît impossible à résoudre, ce qui
laisse penser que les méthodes QUB et QUB/e ont les caractéristiques nécessaires pour permettre de
massifier l’évaluation in situ des performances thermiques de l’enveloppe des bâtiments.
[1] Quick measurements of energy efficiency of buildings. Mangematin, E, Pandraud, G et Roux, D. 4,
2012, Comptes Rendus Physique, Vol. 13, pp. 383-390
[2] Mangematin, Eric, et al., et al. Determination of the heat loss coefficient of a premises.
WO2012028829 A1 2012
[3] Pandraud, G et Fitton, R. QUB: Validation of a rapid energy diagnosis method for buildings.
International Energy Agency / EBC / Annex 58 4th Expert meeting. 8-10 4 2013
[4] Alzetto, Florent et Pandraud, Guillaume. Method and device for determining the heat loss coefficient
of a room. WO2015101751 A1 2015
[5] Pandraud, G, Gossard, D et Alzetto, F. Experimental optimization of the QUB method. International
Energy Agency / EBC / Annex 58 6th Expert meeting. 14-16 4 2014
[6] http://www.salford.ac.uk/__data/assets/pdf_file/0008/563165/pdf4-saintgobain_energy_house_leaflet_high_res_v8.pdf
[7] Johnston, D., Miles-Shenton, D., Farmer, D. & Wingfield, J., 2013. Whole House Heat Loss Test
Method (Coheating). Available at:
http://www.leedsbeckett.ac.uk/as/cebe/projects/cebe_coheating_test_method_june2013.pdf
[8] ISO 9869-1:2014, 2014. Thermal insulation -- Building elements -- In-situ measurement of thermal
resistance and thermal transmittance -- Part 1: Heat flow meter method
L’AVIS de l’expert
L’efficacité énergétique des bâtiments est essentiellement assujettie en France comme en Europe à des
exigences réglementaires intégrant la dimension de sobriété énergétique au stade de la conception et
construction des ouvrages, mais en l’absence de contrainte reste très peu développée quant à la preuve
de résultats après la construction. Les calculs des besoins énergétiques du bâtiment, de consommation
prévisionnelle, la mesure de la performance d’étanchéité à l’air à réception, permettent de s’assurer du
respect des consommations énergétiques maximales prévues par la réglementation. A l’instar de la
mesure de la performance d’étanchéité à l’air du bâti, du fait des très faibles consommations
recherchées, la demande de preuve de la qualité thermique du bâti est de plus en plus pressante. Cette
demande est d’autant plus légitime que la durée de vie du bâti est longue. Pour satisfaire cette attente,
en particulier pour le petit résidentiel individuel, il paraît essentiel de pouvoir évaluer de manière rapide
et fiable la qualité thermique intrinsèque de l’enveloppe permettant ainsi de sensibiliser les intervenants
de la construction sur l’importance de leur rôle dans la performance énergétique du bâti construit.
Le rôle principal de la Mesure de la Performance Energétique des Bâtiments (MPEB) doit donc être de
fournir aux acteurs de la construction le moyen de valider la qualité thermique intrinsèque du bâtiment.
Dans l’existant les mesures permettront d’identifier les pertes thermiques liées à l’enveloppe.Une image
de la configuration initiale avant rénovation permettra de quantifier les besoins d’amélioration et les
potentiels gains. Ceci permettra également, si nécessaire, de prioriser les travaux en fonction des
contraintes du maitre d’ouvrage. Après la rénovation et comme dans le cas de la réception d’un bâtiment
neuf un contrôle de la qualité thermique intrinsèque du bâtiment permettra de confirmer l’efficacité des
travaux. La méthode choisie devra donc à la fois avoir une ergonomie permettant d’être utilisée par de
nombreux techniciens, assez rapide et donc peu chère pour ne pas rencontrer d’opposition majeure des
différents acteurs, et suffisamment précise pour être acceptable en termes de reproductibilité et de
répétabilité.
Les chercheurs sont donc sollicités pour développer méthode et outils sur différents aspects :
robustesse, simplicité, rapidité, fiabilité, afin que la méthode puisse être massifiée. Une fois cette
méthode développée, sa validation doit suivre un processus permettant de s’assurer par comparaisons
avec une référence incontestable que les résultats obtenus sont fiables. Le développement d’une
procédure et d’un matériel spécifiques nécessitent également une phase d’expérimentation pilote par
différentes équipes afin de vérifier l’ensemble des paramètres de reproductibilité.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Centre Scientifique et Technique
du Bâtiment
Nom de l’expert :
Rémi BOUCHIE
Centre scientifique et technique
Fonction :
Ingénieur Recherche
et Expertise
METHODE « ISABELE » POUR LA MESURE A RECEPTION DES PERFORMANCES
D'ISOLATION THERMIQUE DES BATIMENTS
La qualité de l’isolation thermique à la livraison des travaux est aujourd’hui principalement appréciée de
manière qualitative à l’aide d’une caméra Infra Rouge. Cet outil de diagnostic permet la localisation de
défauts de mise en oeuvre altérant l’isolation thermique des parois mais elle ne permet pas d’apprécier
l’impact quantitatif sur les performances énergétiques à l’échelle du bâtiment dans son ensemble.
Des outils de diagnostics quantitatifs existent, comme par exemple la méthode fluxmétrique décrite dans
la norme ISO 9869-1, mais demeurent restreints à des mesures locales sur une paroi donnée et sont
généralement à applications limitées et en particulier peu adaptées aux parois fortement isolées. Dans la
pratique courante, il n’est donc pas à ce jour réalisé de mesure globale du niveau d’isolation thermique
effectif à l’issu des travaux, faute de méthodes opérationnelles disponibles. L’absence aujourd’hui de
ces protocoles conduit à une incapacité à identifier l’existence de non performances significatives une
fois le bâtiment en exploitation.
L’enjeu est ainsi de mettre à disposition de la filière des protocoles de mesure in situ permettant de
mesurer l’isolation globale réelle d’un bâtiment à l’issu des travaux ainsi que l’erreur sur la mesure du
résultat obtenu. Cette valeur pourra ensuite être rapprochée de la valeur théorique calculée en phase de
conception afin d’évaluer la qualité de l’ensemble du processus de mise en oeuvre du bâtiment. A la
manière de la mesure d’étanchéité à l’air, cette méthode permettra d’évaluer un niveau global de
performance réelle du bâtiment construit et par conséquent de statuer sur l’existence ou non d’un écart
significatif avec la performance attendue en phase de conception. Si un écart est constaté, des
investigations complémentaires seront nécessaires pour identifier les causes, ces investigations devront
faire appel à des mesures spécifiques et locales sur des éléments du bâti.
La méthode CO-HEATING est une méthode qui a déjà été testées et utilisées sur des bâtiments réels.
Elle sert en particulier de base aux travaux de normalisation en cours au sein du CEN TC89 WG13.
Cependant, la méthode CO-HEATING demande quelques semaines voire plus d’un mois
d’immobilisation du bâtiment ce qui limite son utilisation.
Le CSTB développe ainsi depuis 2014 la méthode ISABELE (In Situ Assessment of the Building
EnveLope performancEs). Cette méthode vise à mesurer l’indicateur du niveau global d’isolation
thermique Htr et l’incertitude sur cette mesure, pour un durée d’essai limitée (de l’ordre d’une semaine).
Le protocole de mesure a été envisagé de manière à minimiser les sources d’incertitude sur le résultat
final. Il s’applique donc sur bâtiment inoccupé pour neutraliser l’impact de l’activité des occupants, avec
volets fermés pour minimiser l’impact des apports solaires, système de ventilation coupé et ouvertures
fermées ou obturées afin de limiter les échanges aérauliques entre l’intérieur et l’extérieur du bâtiment.
La sollicitation thermique est réalisée à l’aide d’un chauffage rapporté (convecteurs et brasseurs d’air
pour limiter la stratification thermique) dont le pilotage est maitrisé et la puissance injectée mesurée. Un
écart de température intérieure/extérieur de l’ordre de 10 à 15°C° est imposé durant une partie du test.
Le set de mesures requis sur la durée du test est relativement simple :
 Mesures de l’environnement extérieur : températures et humidité extérieures, températures
extérieures équivalentes et vitesse du vent,
 Mesures intérieures : température et humidité intérieures par pièces, comptage de l’énergie
injectée
 Mesure préalable de perméabilité à l’air,
La température extérieure équivalente tient compte des conditions aux limites réellement vues par les
parois, elle est mesurée à l’aide du capteur SENS (Solar and ENvironment temperature Sensor)
spécialement conçu par le CSTB pour cette mesure.
Le débit d’infiltration instantané est évalué en utilisant la mesure d’étanchéité à l’air, les températures
d’air intérieures et extérieures ainsi les données de vitesse de vent.
Les données sont ensuite réinjectées dans un modèle physique adapté du bâtiment et analysées.
L’indicateur Htr est ensuite obtenu par inversion de modèle thermique dynamique en prenant en compte
la modélisation stochastique du bruit afin d’évaluer de manière simultanée l’incertitude sur le résultat :
Cette méthode a été expérimentée sur des démonstrateurs (plateforme INES maisons INCAS
notamment) dans le cadre du projet collaboratif Européen PERFORMER et a été partagée au sein de
l'Annexe 58 de l'IEA (Reliable Building Energy Performance Characterisation Based on Full Scale
Dynamic Measurements).
L’objectif de la méthode ISABELE étant d’aboutir à un indicateur de performance thermique qui serait à
terme opposable, tout l’enjeux consiste à décrire, maîtriser et quantifier toutes les sources d’erreurs ainsi
que de construire un estimateur pertinent de l’incertitude qui en découle sur l’indicateur Htr identifié.
Cette estimation de l’incertitude est en effet particulièrement complexe et doit tenir compte des erreurs
liées au protocole, aux mesures, au modèle thermique ainsi qu’à la méthode d’identification utilisée. Un
point clé est d’appréhender l’ensemble des incertitudes, mais aussi les erreurs systématiques (biais)
impliquées dans le processus :
On notera parmi les points de difficulté l’évaluation de l’erreur systématique (biais) liée au niveau de
représentation du modèle thermique choisi. En effet, le niveau de ce biais est un paramètre structurant
le champ d'application de la méthode ISABELE en terme de typologie constructive de bâtiment testé
(ITI, ITE, inertie...) mais aussi de durée d’essai et de type de sollicitation intérieure à utiliser. Des
questions demeurent de plus à ce jour ouvertes sur le besoin ou non de prise en compte de l’impact du
séchage des parois et des dalles sur l’erreur de mesure.
La méthode ISABELE rentre en 2016 dans une phase opérationnelle, dont l’objectif est de tester le
déploiement sur des maisons individuelles neuves, en intégrant en particulier les contraintes
opérationnelles, qu’elles soient d’ordre techniques, économiques ou bien encore organisationnelles. Les
méthodes devront être reproductibles, simples, à faible incertitude et appropriables par des
professionnels,
Des perspectives d'évolution de la méthode sont également en cours d’étude, pour envisager de
généraliser l’approche à d'autres typologies de bâtiments comme le collectif ou le tertiaire.
Références :
P. Boisson et R. Bouchié, «ISABELE method: In-Situ Assessment of the Building EnveLope
pErformances,» in 9th International Conference on System Simulation in Buildings - SSB2014, Liège,
Belgium, 2014. pp. 302-320 (P17). http://orbi.ulg.ac.be/handle/2268/183783
P. Schetelat et R. Bouchié, «ISABELE: a Method for Performance Assessment at Reception Stage using
Bayesian Calibration,» in 9th International Conference on System Simulation in Buildings - SSB2014,
Liège, Belgium, 2014. pp. 594-608 (P34). http://orbi.ulg.ac.be/handle/2268/183783
Bouchié, R., Abele, C., Derouineau, S., & Millet, J.-R. Conception et validation d’un capteur de
mesurage de la température extérieure équivalente d’une paroi opaque d’un bâtiment. In IBPSA France.
Arras, 2014.
http://ibpsa.fr/index.php?option=com_jdownloads&Itemid=53&view=finish&cid=323&catid=52
R. Bouchié, F. Alzetto, A. Brun, P. Boisson et S. Thebault, «Short Methodologies for In Situ Assessment
of the Intrinsic Thermal Performance of the Building Envelope,» in Sustainable Places, Nice, 2014.
http://sustainable-places.eu/wp-content/uploads/2014/10/Bouchie.pptx
S. Thebault et R. Bouchié, «Estimating infiltration losses for in-situ measurements of the building
envelope thermal performance,» in 6th International Building Physics Conference (IBPC 2015), Torino,
2015.
R. Bouchié et S. Thebault, «Reducing time duration of full-scale thermal transmission coefficient
measurements (Htr) on constructed building envelopes: first analytical criteria to define physical
limitations due to thermal storage» in 8th Expert Meeting of the International Energy Agency Annex 58
(IEA), Prague, May 2015.
L’AVIS de l’expert
La mesure de la performance énergétique des bâtiments permettra dans un avenir proche d’aboutir à
des indicateurs de performance opposables, qu’on se situe dans une démarche volontaire (labels) ou
règlementaire. Dans tous les cas, les notions d’incertitude sur les indicateurs issus de la mesure sont
cruciales, pour discriminer les malfaçons manifestes d’un bruit de mesure et quantifier ainsi sereinement
leur impact sur les performances thermiques. Toutefois, les indicateurs obtenus sont rarement issus de
mesurages directs, mais peuvent être prédits par des modèles physiques (ex : débits d’infiltrations d’air)
ou même issus d’une identification d’un paramètre intrinsèque d’un modèle thermique. Ce dernier cas
est courant pour la détermination des performances de transmission thermique. Or, si l’incertitude des
capteurs utilisés pour les mesures n’est pas à négliger, d’autres sources d’erreur potentiellement plus
impactantes sont possibles. Ainsi si l’indicateur issu de la mesure est identifié via un modèle thermique,
les méthodes de propagations d’incertitudes des mesures « classiques » (Monte-Carlo…) sont à adapter
ou à repenser. De plus, le modèle utilisé étant par définition imparfait, il est nécessaire d’estimer
l’incertitude due à cette imperfection. Enfin, les biais résultant d’une période d’identification limitée au
regard de certains phénomènes physiques doivent être évalués.
L’objectif n’est en aucun cas d’aboutir à une sur-qualité de l’indicateur issu de la mesure, mais bien de
converger vers un optimum coût / précision, en limitant le cas échéant le champ d’application des
mesures pour garder la maîtrise de l’incertitude.
Enfin, un travail sur l’ergonomie, la facilité de déploiement et le coût des protocoles d’essai devra être
mené de manière à favoriser l’appropriation des méthodes développées, mais aussi de la signification
des résultats obtenus, par l’ensemble de la filiaire.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
CEREMA Centre Est
Établissement Public
Nom
l’expert :
de
Fonction :
Cédric LENTILLON
Adeline
BAILLY
Sylvain BERTHAULT
Directeur de
(Chef
de
usages
performances
bâtiments)
-
Projet
l’unité
et
des
PROMEVENT : Amélioration des protocoles de mesures des systèmes de ventilation
résidentiels
Les dernières évolutions des réglementations thermiques et des labels
Effinergie ont participé à l’émergence d’une nouvelle génération de
bâtiments en France. Plus économes en énergie et plus étanches, ils
mettent en avant une problématique qui était jusqu'à présent souvent
oubliée : comment ventiler correctement un bâtiment afin d'assurer un air
intérieur satisfaisant et une bonne conservation du bâti tout en maintenant
des performances énergétiques élevées ?
Ces objectifs a priori antagonistes concernant la qualité de l'air et les
dépenses énergétiques ont fait émerger des systèmes mécaniques de
ventilation sophistiqués. Ceux-ci parviennent à atteindre le double objectif
sanitaire et énergétique à la condition d'une mise en œuvre rigoureuse et
d'un fonctionnement optimal conservé dans le temps.
Dans ce contexte, la justification des performances à la réception et en cours d'utilisation devient
incontournable. Cette nécessité est intégrée dans la RT 2012 par la justification obligatoire de
l'étanchéité à l'air du bâti, ou encore par les vérifications imposées sur les systèmes de ventilation dans
le cadre du label Effinergie+. Les conséquences financières et organisationnelles de la généralisation de
ces vérifications imposent que les protocoles soient fiables et partagés. Actuellement, plusieurs
protocoles de diagnostic des installations de ventilation mécanique sont utilisés en France, en s'appuyant
sur différents documents de référence (référentiels de label, normes, guides et autres méthodes).
PROMEVENT propose d’étudier puis d’évaluer la fiabilité des méthodes de mesure (en laboratoire et insitu) afin d’établir un protocole unique, dont la précision sera suffisante pour assurer le bon
fonctionnement des systèmes diagnostiqués.
PROMEVENT est un projet multi-partenarial proposé à l'appel à projet
ADEME « Vers des bâtiments responsables à horizon 2020 ». Il est
financé par l'ADEME et le Ministère de l'Écologie, du Développement
Durable et de l'Énergie.
PROMEVENT propose d'améliorer la fiabilité des protocoles
d’évaluation des performances des systèmes de ventilation (y compris
mesure de débit en sortie de bouches et de la perméabilité à l'air des
réseaux de ventilation). A l'issue des travaux de ce projet, des
recommandations et de nouveaux protocoles de mesures pour les
systèmes de ventilation double flux en maison individuelle et simple flux
hygro dans les logements collectifs seront proposés à l'ensemble de la
filière aéraulique.
Ce programme est décomposé en trois phases principales dont les
objectifs opérationnels peuvent être résumés ainsi :
 Caractériser les protocoles existants (fiabilité, facilité de mise
en œuvre, coût) ;

Élaborer de nouveaux protocoles de mesures ;
 Caractériser les nouveaux protocoles (fiabilité, facilité de mise
en œuvre, coût).
La première étape de PROMEVENT (phase 1) consiste en l’analyse des différents protocoles et
matériels utilisés en France et à l’étranger pour caractériser les performances des systèmes de
ventilation dans les bâtiments résidentiels, ainsi que les questionnements qui se posent sur la précision
de ces méthodes. Cette étude a permis d’élaborer un programme de campagnes de mesures (phase 2)
qui visent à caractériser la fiabilité des protocoles, en laboratoire et sur des maisons individuelles et des
bâtiments de logements collectifs. L’analyse des résultats de ces premières campagnes a conduit à
l’élaboration d’un nouveau protocole (phase 3), avec une fiabilité renforcée.
Une deuxième campagne in-situ (phase
4) est en préparation afin d’évaluer la
pertinence
des
modifications,
la
faisabilité technique et financière. Enfin,
l’ensemble de l’expérience acquise
pendant ce projet sera valorisé (phase
5) d’une part par la rédaction d’un avantprojet de norme sur les protocoles de
mesure de la ventilation, et fera l’objet
d’un guide à destination de l’ensemble
des acteurs concernés par les
diagnostics des systèmes de ventilation.
Un
groupe
reflet,
constitué
de
représentants de l’ensemble de la filière ventilation, est consulté pour valider les différents résultats et
livrables du projet.
PREMIERS RESULATS
En amont du projet PROMEVENT, une étude a été réalisée par le Cerema, dont les principaux objectifs
étaient de :

Quantifier l’impact sur le résultat de la mesure d’étanchéité à l’air du réseau de la position de
l’appareil de mesure, de la localisation des fuites et des pertes de charge dans le réseau ;

Évaluer la fiabilité de la mesure de débit au droit des bouches aérauliques avec un « cône pour
anémomètre à fil chaud » ;

Quantifier l’impact de l’étanchéité à l’air sur le débit mesuré aux bouches et sur les
consommations des ventilateurs ;

Quantifier l’impact de chaque composant du réseau sur le débit de fuite.
Cette étude a tout d’abord mis en avant que seule une mise en oeuvre très attentive de l’ensemble des
constituants du réseau permet d’atteindre la classe d’étanchéité B (classe C atteinte avec colmatage).
Cette expérimentation a de plus permis de constater le non-respect des débits réglementaires pour un
débit de fuite équivalent à 1,5 fois le débit de la classe A, qui n’ont été atteint qu’après modification de la
pression de consigne, ce qui induit, dans ce cas précis, une surconsommation de 40% du ventilateur
(Microwatt). D’autre part, sur ce réseau, la position de l’appareil de mesure, la position des registres et la
répartition des fuites n’ont pas influé de manière significative sur la valeur de perméabilité à l’air du
réseau.
Les partenaires du projet ont analysés dans la phase d’ étude bibliographique:

16 protocoles de diagnostics,

La littérature internationale concernant les incertitudes de mesure pour la ventilation. français et
étrangers ;

Les principaux matériels de mesures utilisés pour les mesures de débits et pression aux
bouches, et la perméabilité à l’air des réseaux ;
La disparité des pratiques, la quantité et la diversité des modèles et des technologies des matériels pour
la mesure aux bouches de ventilation imposent la rédaction d’un protocole permettant d’identifier, en
fonction de l ’objectif du diagnostic, le type de contrôle à effectuer, le type de matériel à utiliser, et de
quantifier l’incertitude des résultats obtenus. Les matériels de mesure de la perméabilité à l’air des
réseaux sont encore peu nombreux et présentent la même technologie. Cette bibliographie a conduit à
des propositions pour structurer les travaux à venir dans les prochaines étapes du projet :

Intégrer les corrections des débits de fuite aux conditions normales de température et de
pression.

Cadrer le choix de la section testée lors d’une mesure de perméabilité à l’air des réseaux ;

Encourager le développement de bouches avec prise de pression intégrée ;

Conduire des études de répétabilité et de reproductibilité sur site ;

Évaluer l’incertitude des mesures aux terminaux par couple type de bouche / type de matériel ;
La campagne en laboratoire avait pour objectif, outre d’étalonner sur un même banc d’essai l’ensemble
des matériels utilisés pendant le projet, d’évaluer la sensibilité des matériels de mesure en fonction des
conditions d’essai. La première partie des essais, réalisée au CETIAT, a permis d’évaluer l’impact lors de
mesure aux bouches :

Des conditions de raccord de la bouche (coude, conduit écrasé) ;

De la position de l’appareil par rapport au centre de la bouche ;

De la géométrie de la bouche (grille fixe et unidirectionnelle en extraction, omni-directionnelle et
orientable en soufflage) ;
La seconde série de tests, réalisés sur le réseau expérimental du Cerema (Autun), a permis d’évaluer la
fiabilité de la mesure de perméabilité des réseaux en fonction :

De l’existence d’une perturbation aéraulique à la sortie du ventilateur (étranglement du tube de
prise de pression, obstacle).

De l’intégration de plénums dans la partie de réseau soumise à l’essai ;

De l’intégration du caisson dans la partie de réseau soumise à l’essai ;

Du positionnement de la prise de pression dans le réseau ;
Ces paramètres ont été évalués pour différents caissons, plénums, conditions d ’obturation du réseau et
niveau d’étanchéité à l’air du réseau.
L’ensemble des résultats sont analysés et comparés à ceux de la campagne in-situ, afin de pouvoir
proposer des règles d’étalonnage du matériel, des exigences et des bonnes pratiques. Pour chaque type
de mesure, le résultat sera alors exprimé avec une incertitude évaluée.
Durant la phase de campagne in-situ, quatre équipes de mesureurs du projet ont réalisé des diagnostics
des systèmes de ventilation de 10 maisons individuelles et 2 bâtiments de logements collectifs,
représentant un total de 34 logements. Sur certains d’entre eux, plusieurs équipes sont intervenues pour
mener des études de sensibilité concernant :

Le diagnostic visuel : évaluer la robustesse, l’utilité et la complétude des différentes checklists ;

Les mesures de débit et pression aux bouches : évaluer l’incertitude de la mesure et identifier les
paramètres qui impactent de façon non négligeable sur le résultat ;

Les mesures d’étanchéité des réseaux : identifier les parties de réseaux à prendre en compte
dans paramètres qui impactent de façon non négligeable sur le résultat ;
Les données récoltées pendant cette campagne sont analysées afin d’évaluer la répétabilité et la
reproductibilité des protocoles mis en oeuvre, en fonction du type de matériel utilisé et du type de bouche
rencontré. Elles permettent également d’évaluer l’impact du positionnement de l’appareil pour les
mesures aux bouches (centrage et étanchéité du cône, enfoncement du la partie de réseau soumise à
l’essai, et évaluer leur impact le résultat de la mesure de perméabilité à l’air (utilisation d’adhésif ou de
vessie) et de la méthode de la mesure (mesure par tronçons par exemple).
Une analyse complète a abouti à la rédaction d’un nouveau protocole, avec plusieurs niveaux de
diagnostics qui intègrent des contrôles de bon achèvement et des contrôles fonctionnels sur les
différentes parties du système de ventilation
(ventilateur, réseaux, bouches, entrées d’air, passage de transit, etc.), des mesures fonctionnelles et des
mesures spécifiques. Les incertitudes associées à chacune de ces mesures ont pu être calculées grâce
aux ordres de grandeurs estimés à partir des données de la campagne in-situ ainsi que celles de la
campagne en laboratoire. Enfin, des points de vigilance, des outils pratiques et des conseils sont
capitalisés et feront l’objet d’un guide à destination des diagnostiqueurs.
PERSPECTIVES
Le projet dans ces premiers résultats a montré également un niveau de compréhension et d’utilisation
des données d’étalonnage relativement faible. Une sensibilisation des professionnels de la mesure
semble nécessaire.
Les résultats de PROMEVENT alimentent la révision en cours des normes relatives au diagnostic des
systèmes de ventilation.
Le périmètre de travail concerne aujourd’hui le secteur résidentiel, un projet similaire devrait être lancé
par les partenaires dans le secteur tertiaire.
Newsletters du projet :
Newsletter n°1 septembre 2014
Newslettre n°2 octobre 2015
Articles :
Jobert, R, Detailed analysis of regulatory compliance controls dwellings ventilation systems : AIVC, 34th
AIVC International Conference, 10 p. (Proceedings Athens Conference, 2013).
Jobert R, Les installations de ventilation mécanique, un enjeu pour la performance énergétique et la
qualité sanitaire des logements : Congrès scientifique et technique EcoBAT , Actes de la Conférence, 11
p. (Paris, 2014).
Berthault, S., Leprince, V. 2014. Ductwork airtightness: reliability of measurements and impact on
ventilation airflow rate and fan energy consumption. 35th AIVC Conference, Poznan, 2014.
Berthault, S., Boithias F., Leprince V., Perméabilité à l’air des réseaux de ventilation simple flux dans les
bâtiments d’habitation collectifs. Rapport UJF – Bâtiment Durable, 2014, 178p.
Bailly, A., Lentillon, C. 2014. PROMEVENT: IMPROVEMENT OF PROTOCOLS MEASUREMENTS
USED TO CHARACTERIZE VENTILATION SYSTEMS PERFORMANCE. 35th AIVC Conference,
Poznan, 2014 & AIVC Workshop, Bruxelles, 2014.
Bailly, A., Berthault, S. 2016. RELIABILITY of VENTILATION SYSTEM INSPECTION for DWELLINGS:
COMPARISONS of MEASUREMENTS and CONTROLS PROTOCOLS TESTED DURING ON-SITE
CAMPAIGN of the PROMEVENT PROJECT. To be presented to CLIMA2016, RHEVA, Aalborg, 2016 &
37th AIVC - ASHRAE- IAQ joint Conference, Alexandria, 2014.
L’AVIS de l’expert
Le projet PROMEVENT s’appuie au sein du CEREMA Centre Est sur une communauté d’experts réunis
au sein du Pôle de Compétences et d’innovation sur la Qualité de l’enveloppe et le renouvellement d’air
(PCI QERA) sur les sites de l’Isle d’Abeau et d’Autun. Ces compétences pointues ont permis de
développer plusieurs projets autour des questions de la perméabilité à l’air, de la ventilation et de la
qualité de l’air (VIAQQUALITE, DURABILIT’AIR...). La poursuite d’un nouveau projet PROMEVENT pour
le secteur non-résidentiel permettra de consolider également les performances énergétiques dans le
secteur tertiaire tout en maintenant des conditions de renouvellement d’air évaluées.
La caractérisation et l’évaluation du fonctionnement des dispositifs de ventilation est aujourd’hui un sujet
que nous investissons avec nos partenaires. Nous avons déposé un projet pour les dispositifs de
ventilation naturelle en janvier 2016 pour établir un protocole d’évaluation du fonctionnement de ce type
de dispositif et des impacts que la qualité de l’air dans les écoles.
Face aux premiers retours instrumentés, l’intégration des usagers et la question de la robustesse à
l’usage des performances énergétiques sont des sujets qui méritent des approfondissements dans une
démarche pragmatique.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
FRANCK BOUTTÉ CONSULTANTS
Nom
l’expert :
PME - BET
Fonction :
de François-Xavier
PARENT
Ingénieur – Chef de
projets
CONCILIER RÉNOVATION DU PATRIMOINE ET MESURE DE LA PERFORMANCE
La rénovation du Campus Universitaire Bordeaux 1 a donné lieu à la conception d’un dispositif
innovant de façades bioclimatiques, instrumentées pour le suivi de la performance.
Présentation du projet
L’opération du Campus de l’Université de Bordeaux 1 sur le domaine universitaire de Talence Pessac
Gradignan est exemplaire en termes de recherche du meilleur équilibre entre performance dans un
sens contemporain et valorisation du déjà-là bâti.
Plutôt qu’une réponse normative qui conduirait à isoler par l’extérieur l’ensemble des bâtiments, ou de
demi-mesure qui consisterait à les isoler par l’intérieur, en faisant fi dans les deux cas de leur matérialité
et de leurs qualités originelles, le parti-pris développé repose sur un principe de façade bioclimatique
pour les bâtiments « lames » (6 bâtiments). Cette réponse est née de la spécificité architecturale de ces
bâtiments (de grands volumes imposants, d’une épaisseur assez fine, exposant leurs façades
principales au nord et au sud) et de la faculté de conserver l’identité et l’image du bâti tout en
transfigurant les lieux à l’intérieur.
Néanmoins, ces bâtiments lames restent globalement mal vécus par leurs habitants, qui souffrent des
conditions de confort actuel induites à la fois par une grande fragilité de l’enveloppe tant en période
hivernale où les calories fuient littéralement, qu’en période estivale où les occupants se trouvent très
directement frappés par les rayons du soleil. Notre principe de rénovation prend acte de cet état de fait
et ne dissocie pas ambiances et performances : il s’agit bien, par l’opération de requalification du
campus, d’améliorer avant tout le confort des occupants.
Le principe de façade bioclimatique est un principe évolutif au cours de l’année : il est adaptatif et
évolue avec le climat. De ce fait, il peut être schématiquement caractérisé par 2 types de
fonctionnement : saison de chauffe (hiver et mi-saison froide) / hors saison de chauffe (été, mi-saison
chaude).
En hiver, la double-peau vitrée crée un « coussin d’air chaud » autour du bâtiment, elle isole les
espaces intérieurs et assure le confort thermiques des occupants.
En été, la double-peau est ouverte par l’intermédiaire de ventelles mobiles situées en parties hautes et
basses de la façade afin de crée un mouvement de ventilation naturelle tout autour du volume existant
qui participe au « rafraîchissement » passif de celui-ci. Des protections solaires asservies sur
l’ensoleillement viennent compléter le dispositif.
Bâtiment initial
Bâtiment rénové
Méthodes et moyens de mesure de la performance
En phase de conception :
Les bâtiments ont été modélisés à l’aide d’un outil de simulation thermique dynamique afin de calculer
les consommations de chauffage et les températures intérieures du bâtiment projeté. Plusieurs
variantes portant sur l’enveloppe et les systèmes ont ainsi été étudiées. En outre, des études de
sensibilités sur les paramètres d’usage et la performance de l’enveloppe ont été réalisées afin d’estimer
les écarts possibles en phase exploitation.
Modèle numérique 3D pour le calcul en STD et ex. de résultats de T°C calculée dans la double-peau pour un jour
d’hiver peu ensoleillé et très ensoleillé (gain par rapport à la T°C extérieur compris entre 5 et 15°C)
Les gains énergétiques attendus représentent une réduction d’un facteur 4 des consommations de
chauffage par rapport à l’état existant.
En phase de réalisation :
Outre les contrôles habituels de fin de chantier sur la mise en œuvre et la performance des systèmes,
des mesures de perméabilité à l’air ont été menées sur différents éléments du bâtiment : façade
rénovée, façade bioclimatique, bâtiment rénové dans son ensemble. Ces tests permettent de connaître
précisément les valeurs réelles des éléments mis en œuvre et d’ajuster ainsi les calculs énergétiques
en STD en prévision de la phase d’exploitation. Les mesures réalisées permettent d’obtenir une
réduction par 3 de la valeur de la perméabilité à l’air du bâtiment par rapport à l’état initial.
Test à la fumée pour
l’identification
des
fuites sur la façade ou
les ventelles
Pose des ventilateurs pour le test sur le bâtiment entier
Pose
d’une
membrane
étanche sur la façade
existante pour la mesure de
la perméabilité à l’air de la
façade
bioclimatique
uniquement
En phase d’exploitation :
Le bâtiment est instrumenté par des
capteurs (sondes de T°C intérieure,
sondes
de
T°C/vitesse
d’air/hygrométrie dans la doublepeau, sonde d’ensoleillement et
station météo en toiture), des
compteurs (calorimètre sur le réseau
de
chauffage,
débitmètre
et
électrique sur les CTA) et est munie
d’une GTB. Celle-ci est connectée à
une interface de supervision à
laquelle ont accès l’exploitant et
l’Université.
L’exploitant
peut
contrôler en temps réel les T°C
atteintes dans le bâtiment et les
doubles-peau et décider d’actionner
l’ouverture ou la fermeture des
ventelles par exemple. En cas de
dysfonctionnement
et/ou
de
dépassement d’un seuil prédéfini,
des alarmes alertent l’exploitant.
Extrait de l’interface de suivi du fonctionnement des ventelles en
phase d’exploitation
Conclusions/perspectives
En termes d'évolution, les perspectives des façades bioclimatiques sont grandes. Elles peuvent être
utilisées pour valoriser le patrimoine, éviter des démolitions, elles offrent également la possibilité de
faire des rénovations en milieux occupés.
Les difficultés rencontrées portent sur la méconnaissance de l’état initial. Des mesures et relevés in-situ
avant de lancer les études sont en ce sens utiles (mesure de la perméabilité à l’air par exemple). Le
second frein est celui lié à l’innovation et à l’intégration de la performance dans les études
réglementaires. Pour celui-ci nous avons porté auprès du ministère et de la DHUP un dossier pour une
demande de Titre V Opération (attestation obtenue) en vue de l’obtention du label BBC. A ce jour il reste
à étudier le fonctionnement de ces façades bioclimatiques sur plusieurs saisons afin de mesurer les
performances associées.
Aujourd’hui les premiers bâtiments concernés sont en exploitation depuis moins d’1 an et encore en
phase de réglage. Les premiers résultats sont néanmoins encourageants et en phase avec les calculs
numériques. Une analyse approfondie des relevés in situ permettra prochainement de comparer ces
valeurs à celles obtenus par le calcul théorique et de procéder au recalage de celui-ci afin d’identifier
les écarts éventuels entre le modèle numérique et le bâtiment réel. Il s’agira de définir ensuite les
méthodologies et actions nécessaires pour lever les écarts constatés le cas échéant.
De façon plus étendue, le sujet de la mesure des usages reste selon nous le point le plus délicat à
intégrer dans la mesure de la performance énergétique.
L’AVIS de l’expert
Les connaissances techniques et les outils à notre disposition aujourd’hui permettent d’appréhender de
manière fine le comportement d’un bâtiment. L’estimation des consommations énergétiques projetées
dans le cadre d’un bâtiment neuf ou d’une rénovation est ainsi de plus en plus fiable. Cette fiabilité
permet de sécuriser les investissements, souvent conséquents, pour mener des politiques de réductions
des consommations d’énergie à grande échelle. Aujourd’hui l’enjeu réside plutôt semble-t-il dans la
définition des usages et leur suivi et interprétation en phase d’exploitation.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Nom de l’expert :
H3C énergies – PME spécialisée
dans l’efficacité énergétique
Thibaut VITTE (H3C
énergies)
Laurent MORA (I2M)
I2M - Laboratoire de recherche
CNRS UMR 5295
Fonction :
Directeur Expertise
et
Qualité
(H3C
énergies)
Maître
de
conférences (I2M)
Evaluation des systèmes innovants intégrés à des bâtiments performants
Ces dernières années ont vu se développer de nombreux bâtiments démonstrateurs à très haute
efficacité énergétique destinés notamment à communiquer sur la thématique de la préservation
de l’environnement et à cet effet de nombreux systèmes innovants (puits canadiens, froid solaire,
pieux géothermiques, cogénération, …) y étaient associés. Si l’intérêt de ces systèmes vus
indépendamment ne fait généralement guère de doute, leur efficacité une fois intégrés au sein
des bâtiments est parfois beaucoup plus contestable et le couplage de différentes solutions
n’entraine pas en général l’addition de leurs efficacités respectives.
Ces bâtiments innovant sont appelés à devenir la norme dès 2020 avec la généralisation des
« bâtiments à énergie positive » inscrite dans la loi Grenelle I et dans la directive européenne sur
la performance énergétique des bâtiments. Or nous ne disposons pas encore de retours
d’expérience suffisants pour analyser la performance des systèmes dans leur intégration finale,
ainsi que de méthodes éprouvées garantissant cette performance.
COMIS se propose de monitorer des bâtiments performants, dans le but de pouvoir analyser, par
système et par usages rendus la performance intrinsèque du bâtiment. A cet effet nous
développons une approche de définition d’indicateurs clés, et sélectionnons les technologies de
monitoring pouvant s’appliquer de manière quasi systématique.
En parallèle, nous développons les modèles de connaissances nécessaires à la modélisation du
fonctionnement des systèmes étudiés, le but étant de pouvoir comparer les performances
simulées avec la réalité rencontrée sur le terrain, et d’expliquer ainsi les écarts que l’on peut
retrouver entre les prévisions de consommation faites par les bureaux d’étude en phase
conception et le suivi énergétique en fin de compte réalisé.
Parce qu’une chaîne de mesure comprend également le traitement des données, nous explorons
les algorithmes de correction à mêmes de fiabiliser le suivi de nombreux points de mesure.
Enfin, nous synthétiserons ces travaux et les retours d’expérience obtenus dans ces bâtiments
performants à travers des recommandations pour une méthode de commissionnement étendu,
de la conception à l’exploitation, et fournissant les outils adéquats pour concevoir et réaliser un
plan de comptage pertinent.
Les premiers audits réalisés sur les bâtiments très performants nous indiquent que les
dysfonctionnements (et donc les surconsommations) sont en majorité dus à :

Une technicité des installations qui n’est pas totalement maîtrisée par les entreprises lors
de la phase travaux et qui donnent lieu à des malfaçons ou des détériorations qui ne sont
pas détectées ou corrigées.
Il est donc nécessaire de développer, pour la phase de travaux, les mesures et vérifications
permettant d’éviter cet état de fait.

Une technicité des installations qui n’est pas totalement maîtrisée par les entreprises
d’exploitation maintenance
Il est donc nécessaire de développer, pour toute la durée de l’exploitation du bâtiment, les
indicateurs permettant de juger aussi bien la performance globale du bâtiment, mais aussi des
indicateurs permettant à l’exploitant de conduire au mieux les installations.

Une régulation des systèmes complexe et qui pourrait être mieux maîtrisée
La régulation de ces bâtiments, multi énergies, doit être fiable, évolutive et la mise au point
dynamique doit être accompagnée au mieux par des mesures ad hoc.
Les premiers travaux de COMIS ont moins d’un an et vont se poursuivre encore 2 ans et demie.
Les efforts en cours portent sur le développement des modèles de connaissance, tout en
commençant l’instrumentation des bâtiments. De nombreux apports sont encore attendus.
Ces travaux doivent servir pour la construction future des bâtiments à énergie positive, norme en
2020. L’objectif est de faciliter cette transition par l’apport de méthodes et de référentiels
permettant la diminution, voire la suppression de l’écart entre les prévisions et la réalité. Tout cela
nécessite bien entendu une chaîne de mesure complète. Notre objectif est de la préconiser au
plus juste, c'est-à-dire remplissant ces objectifs, mais ne mettant pas en péril l’équation
économique des projets de construction. C’est ici que prennent toute leur place les nouvelles
technologies de compteurs et capteurs, de protocole de communication permettant de baisser
les coûts.
1.
Spitz C, Wurtz E, Mora L, Jay A, Practical application of uncertainty analysis and
sensitivity analysis on an experimental house, Energy and Buildings, Volume 55,
December 2012, Pages 459–470
2.
S. Bontemps, A. Kaemmerlen, G. Blatman, L. Mora, Reliability of dynamic simulation
models for building energy in the context of low-energy buildings, BS2013, Chambéry,
France, 2013, pp. 1952–1959.
L’AVIS de l’expert
En définitive, pourquoi mesure-t-on la performance énergétique des bâtiments ?
Pour s’assurer que l’énergie consommée (ou les économies réalisées) correspondent à ce que
les bâtiments et leurs systèmes toutes choses égales par ailleurs sont supposés consommer.
Que cela soit dans le cadre d’un contrat de performance, du respect d’une norme énergétique,
du contrôle des coûts d’exploitation d’un parc immobilier, ou d’un exploitant pilotant ses
installations, la problématique peut toujours se résumer à cette simple question.
Mesurer un flux énergétique, électrique ou autres, n’est pas compliqué, et de moins en moins
onéreux. Mais ça n’est pas suffisant, car cela ne correspond qu’à une partie de la question, il
nous faut maintenant qualifier cette consommation !
Et c’est pour qualifier celle-ci que la chaîne de mesure se complexifie (sous comptage, capteurs
de température, d’ensoleillement, compteurs de chaleur,…) et/ou que l’ingénierie de la mesure et
vérification prennent leur place. Tout ceci grève fortement le financement des opérations
d’amélioration de la performance, si l’on veut contrôler celle-ci.
L’effort de recherche et développement doit donc se porter évidemment sur l’abaissement des
coûts de la chaîne de mesure, et plus particulièrement sur l’intégration des différents capteurs au
sein d’une même chaîne.
Mais il doit porter également sur le développement de connaissances, permettant de qualifier une
consommation comme normale ou anormale, et de diagnostiquer un défaut sous-jacent. Ces
algorithmes, ou modèles experts étant fiables, précis et exploités par les femmes et les hommes
du métier permettront de réveiller les données de consommation dormant nos systèmes
informatiques.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Centre d’Etudes et de Recherche
en Thermique, Environnement et
Systèmes (CERTES)
Nom de l’expert :
Laurent IBOS
Fonction :
Maître de
Conférences HDR
Université Paris-Est Créteil
Laboratoire de recherche
universitaire
Possibilités offertes par la thermographie infrarouge pour la mesure de la performance
énergétique de bâtiments
Contexte et enjeux :
La nouvelle réglementation thermique a fixé de nouvelles exigences en termes d’isolation thermique de
bâtiments et de contrôle des travaux réalisés. Par ailleurs, le nombre de bâtiments non isolés ou mal
isolés reste très important et ce pour de longues années encore. Le gisement d’économie d’énergie lié
à l’insuffisante isolation des bâtiments reste donc élevé.
Le besoin en méthodes de contrôle in-situ de l’isolation de l’enveloppe de bâtiments est donc plus que
jamais d’actualité. La thermographie infrarouge est l’outil le mieux adapté à la visualisation qualitative
des déperditions de bâtiments. Par ailleurs, les évolutions récentes des matériels ont permis de rendre
accessibles à de nombreux professionnels des caméras possédant des caractéristiques suffisantes en
termes de résolutions spatiale et thermique pour l’inspection de bâtiments, tout en garantissant une
excellente portabilité et un coût d’acquisition modéré.
Si la thermographie excelle à révéler la présence d’irrégularités thermiques, de défauts d’isolation
d’infiltrations d’air, de zones humides, etc, le passage à des données quantitatives telles que la
résistance thermique de parois est plus difficile [1].
Description des travaux études réalisés – Résultats marquants obtenus
Cette communication étudie les possibilités de détermination de la résistance thermique d’une paroi par
thermographie. Deux approches sont considérées : l’approche passive et l’approche active.
La communication proposée sera centrée sur une comparaison de résultats issus de travaux de
recherche ayant conduit à un diagnostic thermique de l’enveloppe de bâtiments par thermographie
infrarouge : bilan des résultats de la littérature et résultats des travaux de recherches menés au
CERTES, Université Paris-Est [2-6]. Le but est de préciser les avantages et inconvénients des
approches passive et active et de définir les imites de ces méthodes à partir d’estimations d’incertitudes
de mesure.
La première méthode consiste à observer une scène thermique et à enregistrer une image thermique
de cette scène ou bien une séquence d'images consécutives, le thermographe se contentant d'observer
la scène avec la caméra.
La deuxième approche consiste à chauffer la paroi sur une de ses faces et à mesurer l’élévation de
température produite à l’aide de la caméra. Au bout d’un temps suffisamment long, on atteint une
température d’équilibre correspondant à une élévation de température depuis l’état initial.
L’approche passive permet d’accéder à des étendues spatiales importantes de paroi mais elle nécessite
des durées de mesure élevées (3-4 jours) [7], les facteurs d’influence sont nombreux (environnement
radiatif, émissivité, données météorologiques) [8] et son utilisation requiert l’existence d’un gradient de
température suffisant entre intérieur et extérieur [7]. L’approche active permet d’obtenir des durées de
mesure faibles (de l’ordre d’1h30), les facteurs d’influence sont aisément maîtrisables, son utilisation
est possible toute l’année mais l’étendue spatiale de mesure est restreinte (de l’ordre de 1m 2) et elle
nécessite l’installation de matériel supplémentaire assurant la sollicitation thermique de la paroi à
diagnostiquer [3].
Pour les deux approches, la détermination de la résistance thermique passe par une estimation de
paramètres à l’aide d’une méthode inverse en comparant les données expérimentales aux simulations
d’un modèle thermique de transfert de chaleur dans la paroi. Ce modèle peut être analytique ou
numérique [3,5,7].
L’approche passive a été testée sur plusieurs bâtiments dont un groupe scolaire situé à Noisiel (77) et
la plateforme PANISSE [9], site d’observation de l’OSU Efluve, géré par le CERTES, qui est un
immeuble d’habitation occupé situé à Villemomble (93). A partir d’un suivi effectué par caméra thermique
sur plusieurs jours, l’enregistrement de paramètres météorologiques et une modélisation des transferts
thermiques dans la paroi analysée, il a été possible d’estimer la résistance thermique en utilisant une
méthode inverse. Un exemple de calage entre mesure de température de surface et sortie du modèle
thermique est présentée sur la figure 1 pour le cas d’une façade sud d’une salle de classe du groupe
scolaire du Bois de la grange à Noisiel. Il s’agissait dans ce cas d’une structure de type double paroi
avec une résistance thermique de 1.4 m 2.K/W. Dans ce cas, l’utilisation de données sur sept jours
consécutifs a permis une estimation de la résistance à 10% près [1,4].
(a)
15
T=T int-T ext (°C)
10
5
0
-5
gradient mesuré
gradient estimé
-10
0
1
2
3
4
t (jours)
5
6
7
Figure 1 : exemple de calage mesure-modèle obtenu à partir de mesures par thermographie passive
et exemple d’image thermique de la paroi analysée [1,4]
L’approche active a conduit au développement d’un prototype de mesure de résistance thermique de
parois (dispositif NADIIAH) développé dans le cadre de projets ANR et ADEME. Il a été montré qu’une
erreur relative de 20% maximum pouvait être obtenue sur l’estimation de la résistance thermique de
parois, dans le cas d’une isolation rapportée intérieure en une durée maximale de 2h [1,3]. Ceci est
illustré sur la figure 2.
Conclusions/perspectives :
Les résultats des travaux de recherche présentés dans cette communication montrent qu’une estimation
de la résistance thermique de parois de bâtiments par thermographie est réalisable dans certaines
situations. Ceci est montré dans quelques cas d’étude (isolation rapportée en laboratoire par approche
active, double paroi sur site par approche passive). La nécessité de disposer de ce type de moyens de
mesure et/ou d’analyse est de plus en plus urgente et actuellement aucune solution n’est totalement
satisfaisante.
Les résultats obtenus montrent qu’il faut considérer les approches passive et active comme
complémentaires et non concurrentes, chacune des techniques possédant ses avantages et
inconvénients propres.
Nos travaux actuels se focalisent sur les possibilités d’application des protocoles et dispositifs
prototypes développés à des situations de terrain, ce qui nécessite de nombreux essais de qualification
et une collaboration étroite avec des professionnels proches des utilisateurs finaux.
50
Polystyréne expansé
Laine de roche
Mousse de polyuréthane
40
30
20mm
R/R (%)
20
40mm
60mm
10
100mm
0
-10
-20
60mm
-30
-40
-50
0.5
1.0
1.5
2.0
2.5
-1
RM (m².K.W )
3.0
3.5
Figure 2 : erreurs relatives obtenues par thermographie active sur des parois incluant une isolation
rapportée intérieure (test de différents isolants et niveaux d’isolation) ; mesures effectuées à l’aide du
dispositif NADIIAH visible sur la partie droite [1,3]
Références
[1] IBOS, L., FEUILLET, V., LARBI YOUCEF, M., MONCHAU, J.-P., MAZIOUD, A., CANDAU, Y.,
Estimation de résistance thermique de parois par thermographie active et passive : comparaison,
Conférence Thermogram’2013, Châlons en Champagne, France, 2013.
[2] DATCU S., IBOS L., CANDAU Y., MATTEÏ S., Contribution to improvement of building wall surface
temperature measurements by infrared thermography, Infrared Physics and Technology, 46, 451-467,
2005
[3] LARBI YOUCEF, M., FEUILLET, V., IBOS, L., CANDAU, Y., BALCON, P., Quantitative diagnosis of
insulated building walls of restored old constructions using active infrared thermography, QIRT Journal,
8 (1), 65–87, 2011
[4] LARBI YOUCEF, M., IBOS, L., FEUILLET, V., BALCON, P., CANDAU, Y., FILLOUX, A., In-situ
quantitative diagnosis of insulated building walls using passive infrared thermography, 11th International
Conference on Quantitative Infrared Thermography, Naples (Italie), 11-14 Juin 2012, Actes du QIRT
2012
[5] MONCHAU, J-P., IBOS, L., FEUILLET, V., Diagnosis of insulated building walls using passive
infrared thermography and numerical simulation, 7th EWSHM, Nantes, 2014.
[6] MONCHAU, J.-P., FEUILLET, V., IBOS, L., CANDAU, Y., Comparaison de méthodes de mesure de
résistance thermique in-situ de parois de bâtiment : essais sur un immeuble d’habitation occupé,
Congrès français de thermique 2015, La Rochelle, Mai 2015.
[7] LARBI YOUCEF, M., FEUILLET, V., IBOS, L., CANDAU, Y., BALCON, P., FILLOUX, A.,
Comparaison entre simulations numériques et relevés de terrain sur un bâtiment, Thermogram’2011,
Chalons-en-champagne, Décembre 2011
[8] IBOS, L., Déperditions thermiques de parois. Grandeurs d’influence. Limites d’évaluation par
thermographie, Thermogram’2007, Chalon en Champagne
[9] http://osu-efluve.u-pec.fr/recherche/observations/
L’AVIS de l’expert
La Mesure de la Performance Energétique des Bâtiments est importante d’une part pour réaliser un
diagnostic quantitatif de bâtiments existants et d’autre part pour garantir l’atteinte des objectifs fixés lors
de travaux de rénovation ou bien lors de construction de nouveaux bâtiments. Ceci concerne à la fois
les bâtiments d’habitation et les locaux tertiaires. Je limiterai mon analyse au diagnostic de la
performance énergétique de l’enveloppe, qui est le sujet de mes recherches universitaires.
Actuellement, il n’existe pas de méthode universelle conduisant à un diagnostic précis du niveau
d’isolation dans toutes les situations. L’effort de développement de nouveaux outils de mesure doit
porter sur plusieurs points : pouvoir quantifier le niveau d’isolation global d’un bâtiment ou local au
niveau d’une paroi. Les outils à développer doivent pouvoir être utilisés dans différents cas : diagnostic
de l’existant, auto-contrôle sur chantier, diagnostic à la livraison des travaux (neuf ou rénovation), suivi
de la performance de l’enveloppe au cours du temps. L’applicabilité aux divers modes constructifs doit
par ailleurs être garantie.
Ainsi, ces outils seront destinés à des acteurs divers : bureaux d’études, diagnostiqueurs, artisans… Il
est donc probablement nécessaire de mettre en place un panel d’outils adaptés à chaque situation et
chaque acteur. Il sera en outre nécessaire d’accompagner les utilisateurs finaux par des formations à
l’usage de ces outils de manière à limiter les erreurs de diagnostic. Un des points important à considérer
concerne donc les conditions d’usage de ces outils, notamment les conditions climatiques, et leur
incidence sur le résultat de la mesure et l’incertitude associée.
La mise en place de méthodes de mesure robustes et simples d’usage ne pourra se faire sans une
collaboration étroite entre des laboratoires de recherche et/ou centres techniques, des fabricants de
matériaux d’isolation, des professionnels de la construction et des bureaux d’étude.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
THEMACS Ingénierie
Nom de
l’expert :
Fonction
:
PME
Jean-Pierre
MONCHAU
Président
.
Analyse des méthodes de mesure de résistance thermique in-situ de parois de bâtiment : essais
sur un immeuble d’habitation occupé.
Contexte et enjeux : La réglementation thermique actuellement en vigueur en France [1] fixe de hautes
exigences en termes d’isolation thermique de bâtiments. Le nombre de bâtiments peu isolés est très
important. Le gisement d’économie d’énergie lié à l’insuffisante isolation des bâtiments est ainsi très
élevé. De plus, tout bâtiment neuf devra être à énergie positive à l’horizon 2020. Dans ce contexte, il est
indispensable de pouvoir contrôler les performances thermiques d’un bâtiment pendant sa construction, à
sa livraison, au cours de son utilisation ou avant sa rénovation. Seule la mesure de résistance thermique
permet de répondre à ce besoin de contrôle des parois opaques. En effet les méthodes plus globales
(bâtiments en relaxation, co-heating…) ne sont pas utilisables à toutes les étapes de la vie d’un bâtiment.
Actuellement, des méthodes de mesure de la résistance thermique de parois existent, soit à l’état de
mesure de laboratoire ou exploratoires [2], soit dans le cadre de normes internationales [3] ou de projets
de norme [4,5].
Description des études réalisées : Notre étude consiste à comparer quatre méthodes d’évaluation de la
résistance thermique in-situ des parois de bâtiment : valeurs mesurées, incertitudes associées, durées de
mesure. L’une des méthodes considérée est normalisée [3] et utilise des fluxmètres. Les trois autres
méthodes utilisent la thermographie infrarouge. Parmi ces dernières, une méthode fait l’objet d’un projet
de norme internationale [4,5]. La méthode du Seid [6] consiste à comparer la température de surface de la
paroi et de la paroi artificiellement modifiée. La dernière méthode a été mise au point au CERTES [7].
Les quatre méthodes ont été testées sur la plateforme PANISSE, Site d’Observation de l’OSU EFLUVE
[8]. Les résultats présentés montrent de fortes disparités dans les valeurs obtenues. Cela s’explique
notamment par la faiblesse du modèle 1D pour ce cas d’étude.
Principes généraux de la méthode de détermination de la résistance thermique d’une paroi
opaque :
En régime stationnaire la résistance thermique R d’une paroi de bâtiment est définie ainsi :
𝑅=
𝑇𝑆𝑖 −𝑇𝑆𝑒
𝑞
(1)
Tsi et Tse les températures de surface intérieure et extérieure, q la densité de flux thermique.
Cette grandeur permet de caractériser et comparer les différents isolants utilisés dans le
domaine du bâtiment. Pour calculer la résistance thermique d’une paroi opaque, on doit donc
mesurer la température des surfaces intérieure et extérieure ainsi que le flux thermique. Ce
dernier peut être directement mesuré comme dans la méthode fluxmétrique (ISO-9869-1) ou
déduit d’une autre mesure. La méthode préconisée dans la norme ISO9869-2 consiste à
déterminer le coefficient d’échange hi sur la surface du mur intérieur et en déduire le flux en
fonction des températures de surface et d’environnement. On peut aussi déterminer le flux en
interposant sur le mur une résistance thermique additionnelle connue ; c’est la méthode du Seid
[6]. La dernière méthode utilisée est celle développée au CERTES [7]. Elle utilise une méthode
inverse pour déterminer la résistance thermique à partir d’images thermiques enregistrées sur
plusieurs jours.
Les méthodes in-situ ne peuvent être mises en œuvre en régime permanent étant donné que
les conditions climatiques extérieures ne peuvent pas être contrôlées. Pour permettre de calculer
la résistance thermique en régime non permanent, on doit faire un bilan sur plusieurs jours.
Toutes les méthodes et normes de mesure imposent une durée de mesure supérieure à 3 jours et
multiple de 24h. Cela permet de limiter l’impact de la variation d’énergie stockée dans le mur
entre le début et la fin de la mesure.
Le calcul de R peut s’effectuer de deux manières :
- en utilisant les moyennes des grandeurs physiques ;
- en utilisant une approche dynamique par identification.
Les mesures de la résistance thermique de la paroi opaque étudiée sont présentées dans le
tableau 1. On appelle valeur attendue, la valeur calculée connaissant la composition du mur.
La méthode ISO-9869-1 a donné des valeurs variant de 1,84 à 3,8 K.m2.W-1 en fonction des
dispositifs expérimentaux utilisés et de leur emplacement. Ces écarts sont supérieurs aux
incertitudes attendues (la norme annonce des incertitudes minimales de 28%). La méthode ISO9869-2 permet de mesurer le U moyen d’une paroi sur l’ensemble de la surface étudiée.
Cependant l’incertitude sur la mesure de h ne permet pas d’obtenir des mesures précises pour des
murs correctement isolés. Les niveaux d’incertitudes dépendent de la différence de température
entre l’intérieur et l’extérieur et sont de 100% dans notre étude.
R
Incertitude
Durée de mesure
K.m2.W-1
K.m2.W-1
Jours
Valeur
ISO9869-1 ISO9869-2
attendue
3.8
2.8
2.1
1
1.3
5
3
Méthode
Seid
1.6
0.7
1
Méthode
IR passive
4.5
0.7
7
Tableau 1 : Tableau récapitulatif des mesures et incertitudes de la mesure de R
Conclusions/perspectives : Les fortes disparités dans les valeurs obtenues mettent en évidence que
la condition d’un flux thermique en 1D n’est pas valable. Il est donc plus utile de déterminer le
coefficient U moyen pour une paroi, prenant en compte les effets de bord. Seules les méthodes
thermographiques permettent cela. Les méthodes normalisées étudiées ici ne sont pas adaptées pour
mesurer des résistances thermiques compatibles avec la règlementation actuelle [1] mais plutôt
adaptées au diagnostic de bâtiments anciens. La méthode du Seid mériterait d’être approfondie étant
donnée sa simplicité et la courte durée de mesure pour des murs faiblement isolés. Les mesures faites
sur l’enveloppe extérieure donnent des résultats en cohérence avec les matériaux installés, mais cette
méthode requiert une instrumentation beaucoup plus lourde.
Il est donc nécessaire de développer une instrumentation simple et prenant en compte avec une plus
grande efficacité les paramètres environnementaux pour rendre la mesure fiable pour tous les types
de modes constructifs.
[1] Réglementation Thermique 2012. 2012. Ed. Centre Scientifique et Technique du Bâtiment
[2] Albatici R., Tonelli A. M. 2010. Infrared thermovision technique for the assessment of thermal
transmittance value of opaque building elements on site, Energy and Buildings 42, 2177- 2183 (2010)
[3] ISO-9869-1
[4] Kato S., Kuroki K., Hagihara S., Method of in-situ measurement of thermal insulation performance of
building elements using infrared camera, 6th International Conference on Indoor Air Quality, Ventilation &
Energy Conservation in Buildings (IAQVEC), Sendai (Japon) (2007)
[5] Projet de norme ISO-9869-2
[6] Pajani D., Surface équivalente d’irrégularité ou de défaut (Seid) et mesure du “U” par la méthode du
Seid, Actes de la conférence Thermogram’2011, Châlons en Champagne (2011)
[7] Monchau J-P., Ibos, L., Feuillet V., Diagnosis of insulated building walls using passive infrared
thermography and numerical simulation, 7th European Workshop on Structural Health Monitoring
(EWSHM), Nantes (2014)
[8] http://osu-efluve.u-pec.fr/recherche/observations/
L’AVIS de l’expert
Depuis près de 20 ans, les règlementations thermiques ont imposé des niveaux d’exigence de plus en
plus sévère dans la conception des bâtiments en termes d’isolation et de confort thermique. La difficulté
de mesurer la performance thermique des bâtiments a imposé des règles de conception mais jamais
d’obligation de résultats. Pour permettre de mesurer la performance thermique d’un bâtiment il faut donc
des outils de mesure qui restent à développer ou valider.
Certaines sont déjà à l’étude comme la méthode QUB utilisée par Saint-Gobain Recherche ou la
méthode ISABELE (In-Situ Assessment of the Building EnveLope pErformance). Ces méthodes
permettent de connaître les performances énergétiques de l’enveloppe dans son ensemble. Il manque
actuellement des outils pour estimer la performance thermique d’éléments pris séparément. Ces outils
seront nécessaires pour orienter les rénovations et permettre de contrôler la mise en œuvre de
dispositifs d’isolation de plus en plus performants.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
CERQUAL
Qualitel Certification
Nom de l’expert :
Francis
TIFFANNEAU
PME
Organisme Certificateur
Direction des Etudes et Recherches
Fonction :
Responsable
d’activité
Energétique,
Diagnostiqueur
Thermographie IR
Mesure de la Performance énergétique des logements
Contexte et Enjeux : Comment valider qu’un logement répond aux critères techniques permettant
d’obtenir le niveau de performance énergétique souhaité ? Comment être sûr à chaque étape de la
construction, et lors de la livraison de l’ouvrage, que les choix constructifs et d’équipements sont
pertinents pour un résultat performant en termes de maîtrise de l’énergie ? Pour répondre à ces
questions et définir les bonnes pratiques pour les « mesureurs » de la performance énergétique, un
programme de recherche en résidentiel a été établie en 2012 par l’Association QUALITEL et sa filiale
CERQUAL.
L’objet du programme a été structuré autour des deux grands axes suivants :
- une meilleure cohérence entre la performance énergétique définie par les études thermiques
à la conception, et la réalisation en cours / fin de chantier avant livraison d’un bâtiment, par
l’amélioration des vérifications in situ sur ce thème,
- une réflexion et une recherche pour s’assurer que le bâtiment une fois construit, correspond
bien à la performance mesurée en exploitation,
Les différents travaux de recherche de CERQUAL basés sur une « approche réelle terrain » sur la
mesure de la performance énergétique, ont été organisés en 3 parties :
Partie 1 :
- Recensement des composants du logement (enveloppe et systèmes) participant à la
performance énergétique : modes de vérifications visuels, ou mesures in situ en cours de
chantier ou à la réception,
- Recensement des méthodes de mesures utilisées ponctuellement pour la qualité de
l’enveloppe et des systèmes : mesures des vitrages, mesure du coefficient U des parois
opaques, mesure de perméabilité à l’air des bâtiments, détection poires à fumées et
anémomètre à fil chaud pour les fuites, l’utilisation de la caméra à thermographie infrarouge,
la perméabilité à l’air des réseaux de ventilation mécanique contrôlée,
- Définition d’une méthodologie de contrôle de la ventilation par les mesures débit / pression
aux bouches d’extraction et aux moteurs d’extraction pour les vérificateurs en contrôle
approfondi,
Nota : Par ces mesures et points de contrôles, l’objectif est d’approcher la performance
intrinsèque du bâti.
Partie 2 bibliographique comprenant :
- Recherche bibliographique sur le thème des méthodes de suivi des consommations
énergétiques en France et dans les autres pays européens,
- Analyse des recherches, études actuelles sur le thème du suivi des consommations
énergétiques et de la garantie de performance énergétique, auprès de différents organismes,
-
Rencontres avec les industriels concernées et impliqués dans le suivi des consommations
énergétiques et Gestion Technique des Bâtiments, analyse des offres des industriels, analyse
du contenu du contrat de performance énergétique proposé par certains industriels,
Partie 3 :
- Définition d’une méthodologie simplifiée de suivi des consommations énergétiques dans le
secteur résidentiel après la livraison en partenariat avec le cabinet ENERTECH,
- Suivant une vingtaine de configurations d’installations (individuelles ou collectives) retenues,
définition du type d’instrumentation à mettre en place pour les cinq usages prises en compte
dans le calcul réglementaire,
- Les différents type de suivis des consommations énergétiques (analyse type « suivi Bureau
d’études », analyse type « Expérimentation », analyse type Gestion technique Bâtiment,
analyse type protocole IPMVP, et analyse Garantie de performance énergétique GRE.
Qu’en est-il des bénéficiaires ?
Etude de suivi des consommations énergétiques sur des opérations neuves et rénovés dans le cadre
d’opérations certifiées BBC 2005 Effinergie et Effinergie Rénovation avec suivi d’instrumentation sur
deux ans : Programme d’ Etudes CERQUAL « Bien vivre dans un logement BBC »:
- Equipe CERQUAL /Jean Carrassus /Chantal Lemonier et Tribu énergie pour 6 résidences
labellisées neuves en logements collectifs (x 3 logements),
- Equipe CERQUAL / CEREMA Ouest pour 2 résidences labellisées neuves en maisons
individuelles et logements collectifs (x 2 logements),
- Equipe CERQUAL / ENERTECH pour 2 opérations en logements collectifs rénovés (x 3
logements) et 1 opération de maisons individuelles rénovés (x 3 logements).
Pour ces différents études intrumentées, l’objectif était bien de situer les consommations réelles des
logements en comparaison des calculs théoriques effectués en phase conception, d’analyser les écarts
éventuels constatés entre les performances mesurées et de juger de la perception et des usages des
occupants dans les logements BBC.
La méthode adoptée pour ces diverses études a été basée sur une approche deux dimensions
sociologique, et technique :
- Analyse des dossiers techniques ayant servis à la certification des opérations concernées,
- Thermographie infrarouge sur les différents bâtiments,
- Enquête sur site occupé par une sociologue (entretien questionnaire : vécu et représentation des
occupants du logement BBC et de ses équipements, comportements et parcours résidentiel des
occupants, l’appropriation du logement , la définition du confort d’hiver et d’été, du bruit pour l’occupant,
des recueils de données sur la gestion du chauffage, et les profils d’eau chaude sanitaire),
- Instrumentation et mesures sur 2 années consécutives sur un échantillon de logements : comptage des
consommations liées au chauffage, à la production d’eau chaude sanitaire, aux usages électriques des
services généraux, à la ventilation, aux autres usages électriques privatifs et analyse des températures
et hygrométrie intérieure, débit de ventilation et taux de CO2 de l’air intérieur),
- traitement des données récoltés par l’énergéticien et analyse des écarts et dysfonctionnements
éventuels.
En terme d’analyse et de conclusions des différentes opérations mesurées :
1/ Comparaison des consommations réelles sur les postes réglementaires par rapport au calcul
conventionnel corrigé climat :
- on constate une certaine hétérogénité des résultats suivants les études. Les consommations sont
dépendantes des localisations, du nombre d’occupants, des scénario d’occupation, des niveaux
d’équipements, des habitudes ou cultures en matière de ventilation (ouverture des fenêtres du logement)
- des valeurs de consommations réelles mesurées des 5 usages au dessous des valeurs
conventionnelles pour des opérations de maisons individuelles,
- quelques écarts d’oublis de prise en compte de ponts thermiques de parois isolés par l’extérieur et de
ponts thermiques structurels dans les études réglementaires,
- des écarts sur la mise en œuvre et le réglage des installations,
2/ La perméabilité à l’air du bâtiment :
- En habitat neuf, des enveloppes de bonne qualité suffisamment étanches à l’air, quelques points
faibles sur les portes palières sur circulation commune et porte de distribution maison garage,
- Des enveloppes insuffisamment étanches à l’air pour la rénovation souvent liées à la liaison dormant
des menuiseries conservées avec rajouts de nouveaux ouvrants pour les mesuiseries,
3/ L’observation des températures ambiantes et les conditions d’occupation :
- La température moyenne mesurée pendant la saison de chauffage est le plus souvent au dessus des
19°C conventionnels et réglementaires (hors correction spatio-temporelles), elle varie principalement
entre 19°C à 22,5°C. Cette tendance est observée pour chacune des opérations de logements collectifs
équipées de chauffage collectif,
- Des températures moyennes mesurées plus faibles en maisons individuelles de 18 à 20°C, en
chauffage individuel, s’expliquant par le fait que les usagers payent directement leur énergie de
chauffage et agissent eux mêmes sur la gestion de leur chauffage,
4/ Les installations de chauffage :
- Pour des niveaux BBC neufs, des chaufferies gaz avec chaudières à condensation souvent
surdimensionnées pour répondre aux besoins d’eau chaude sanitaire, et induisant un fonctionnement
très loin de la puissance nominale en mode chauffage,
- Des régulations terminales mal réglées : têtes non bridés en position maximale dans la majorité des
cas, conduisant à des températures supérieures à 19°C,
- En chauffage collectif rénové, les nouvelles lois d’eau sont trop élévée ce qui donne accès à une
surpuissance potentielle en cas de dysfonctionnement de la régulation terminale des têtes
thermostatiques sur les radiateurs,
- Des chaufferies existantes conservées en l’état lors de rénovation sur l’enveloppe du bâtiment sans
aucune modification sur la conduite de l’installation,
- Des auxiliaires de chauffage en rénovation non optimisés et non asservis aux besoins.
5/ Les installations de production d’eau chaude sanitaire :
- Des consommations relevées très liées au profil de puisage, et à l’utilisation faite par le consommateur,
- En opérations neuves ou rénovés, des pertes de stockage et de bouclage des systèmes collectifs
souvent très élévées, representant plus de 50% de la consommation de l’usage eau chaude sanitaire,
- Des installations solaires qui souffrent de divers dysfonctionnements de conception, de mise en œuvre,
voire des défauts de maintenance,
6/ Les installations de ventilation mécanique contrôlée :
- Des débits de renouvellement d’air inférieurs ou supérieures aux exigences réglementaires pour des
opérations en ventilation mécanique contrôlée simple flux hygroréglable,
- des consommations des auxilaires de ventilation faibles du fait des choix de systèmes de ventilation
hygroréglable.
7/ Les consommations électriques des parties privatives :
- Des consommations électriques des parties privatives des logements collectifs mesurées sont de
l’ordre de grandeur normalement constatées de 2000 kWh élec/ logement / an. Celles des maisons
instrumentées (petit échantillon) sont par contre 75% plus élevée.
Commissionnement, mise en service : Point faible de la performance énergétique, pour certaines
installations collectives, il conviendrait de bien développer et de définir les procédures de
commissionnement à mettre en place sur les opérations (contrôles à la conception, validation des
études d’exécution, suivi de la qualité de réalisation, mise au point et réglages des installations, mise en
place de la maintenance et prise en main des installations). Ces points permettront, d’avoir une bonne
évolution dans le temps des installations de performance énergétique des bâtiments.
Références Etudes :
Programme de recherche QUALITEL 2012 « mesure de la performance énergétique des logements
neufs »
Etudes sur le suivi des consommations énergétiques de logements certifiés :
- Etude bien vivre BBC1 CERQUAL / CARASSUS / TRIBU Energie Décembre 2013,
- Etude bien vivre BBC 2 CERQUAL / CEREMA Décembre 2014,
- Etude CERQUAL bien vivre BBC3 Rénovation avec Cabinet SIDLER Décembre 2015,
Publication :
- Cahier n°2 – Le moniteur n°5743 du 20 décembre 2013 « Mesure de la performance énergétique des
logements neufs » (Phase 1 du programme de recherche QUALITEL : recensement des composants,
vérifications visuelles, méthodes de mesure, et autocontrôle).
L’AVIS de l’expert
Aujourd’hui, les enjeux de la mesure de la performance énergétique pour les bâtiments résidentiels, sont
les suivants :
- s’assurer que les bâtiments une fois construits et occupés, répondent pleinement aux objectifs de
performance énergétique fixés, tout en apportant un confort auprès de l’usager final du logement,
- s’assurer d’une bonne mise en œuvre passant par la qualité intrinsèque de l’enveloppe du bâtiment, et
de la qualité des systèmes par des contrôles visuels et des contrôles par mesures adaptées au terrain et
à moindre coût,
- utiliser des méthodologies de mesure adaptées à chaque secteur de construction neuf et
rénovation (mesures de U parois opaques, mesure de U fénêtres, mesure de perméabilité du bâtiment,
mesure VMC débits / pressions, mesure de thermographie infrarouge, etc.),
- afin de s’assurer de plus en plus de la qualité de mise en œuvre de l’enveloppe des bâtiments, de la
qualité des installations de chauffage, de refroidissement, de production d’eau chaude sanitaire, de
ventilation, de production d’énergie renouvelable (etc.), des outils d’autocontrôles adapter aux pratiques
des entreprises doivent être disponibles,
- impliquer le gestionnaire du bâtiment et les occupants finaux au cœur du sujet de la performance
énergétique,
- anticiper les besoins des occupants des logements, et leur fournir des outils adaptés pour la bonne
compréhension du fonctionnement des équipements du bâtiment.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
SIRTEME
Nom de l’expert :
Rémi PELINI
Bureaux de mesure de l’étanchéité
à l’air des bâtiments et eds réseaux
aérauliques
Fonction :
Ingénieur climatique
Opérateur de
mesure de
l’étanchéité à l’air
des bâtiments et des
réseaux aérauliques
Infiltrométrie des bâtiments et des réseaux aérauliques
Solutions et offres disponibles sur le marché
Contexte et enjeux :
L’étanchéité à l’air des bâtiments est clairement indissociable de la performance énergétique d’un
bâtiment.
Avant tout pour les constructions neuves RT2012 pour lesquelles les débits d’infiltrations d’air prennent
une part très importante dans les déperditions thermiques globales, donc dans les besoins de chauffage
du bâti. Les Réglementations Thermiques successives renforçant au fur et à mesure les exigences en
matière d’isolation thermique, de traitement des ponts thermiques et de performance des équipements
climatiques, le niveau d’étanchéité à l’air devient à présent primordial pour atteindre l’objectif ambitieu de
50 kWhep/(m².an).
Les différents enjeux du traitement de l’étanchéité à l’air d’un point de vue de la performance
énergétique sont notamment les suivants :
-
Réduction des fuites de chaleur pour une baisse significative des besoins de chauffage.
-
Réduction des fuites d’air chargées en vapeur d’eau pouvant créer des problématiques de
consensation dans les parois et la dégration prématurée de l’isolation thermique.
Outre les économies d’énergie engendrées par la mise en œuvre d’une bonne étanchéité à l’air, la
réduction des infiltrations d’air parasites permet également une meilleure maitrise du renouvellement
d’air des bâtiments. La circulation aéraulique respecte en effet le principe de balayage du système de
ventilation : entrées d’air dans les locaux à polution non spécifique (pièces principales en habitat) et
extractions d’air dans les locaux à polution spécifique (pièces humides dans l’habitat).
Egalement au cœur des thématiques actuelles, la qualité de l’air intérieur est renforcée avec la
suppression de circulations d’air par des endroits pouvant amener dans les locaux des éléments
indésirés : fibre de laine de verre des doublages intérieurs, poussières diverses en gaines techniques ou
dans les coffres de volet roulant, etc.
L’infiltrométrie des bâtiments a surtout la particularité d’être à ce jour la seule mesure physique,
réalisée à réception d’un bâtiment neuf, qui valide une donnée de l’étude thermique réglementaire. Elle
représente une exigence de moyens de la RT2012. Le respect du garde-fou sur l’indicateur Q4Pa-surf
relatif à l’étanchéité à l’air de l’enveloppe du bâtiment, via la réussite au test, est du coup une condition
sinéquanone à la délivrance de l’attestation de prise en compte de la RT2012 à l’achèvement des
travaux.
Quant à l’infiltrométrie des réseaux de ventilation, elle est à ce jour une exigence réglementaire depuis
fin 2014 à partir du moment où l’étude thermique tient compte d’une classe d’étanchéité à l’air plus
performante que la classe par défaut (classe usuellement prise en compte dans une étude thermique).
Les enjeux principaux de l’étanchéité à l’air d’un réseau de ventilation, couplé ou non à du traitement
d’air, sont notamment :
-
La réduction du débit de renouvellement d’air
-
Le gain sur la puissance des ventilateurs
Description de la technique de mesure de l’étanchiété à l’air des bâtiments :
L’infiltrométrie consiste en la mesure du coefficient Q4Pa-surf
représentant le débit de fuite d’air à 4 Pa, ramenée à la
surface déperditive hors plancher bas (définition
conventionnelle). La méthodologie de mesure est décrite
dans la norme NF EN 13829 et très prochainement dans la
norme ISO 9972, puis complétée par le guide d’application
français GA P50-784. Le débit de fuite d’air à 4 Pa s’estime
par extrapolation sur une droite de regression linéaire
(tracée sur une échelle bi-logarithmique) de plusieurs
valeurs mesurées de débit de fuite à des pressions
différentes entre l’intérieur et l’extérieur du bâtiment. En
effet, la séquence de mesure normée ne permet pas de
mesurer directement le débit à 4 Pa, mais à 10 Pa
minimum.
3
Débit [m /h]
Pression [Pa]
La mise en pression est assurée par une ventilateur placée sur une bache maintenue par un cadre sur
un des ouvrants du bâtiment (dispositif appelé « porte soufflante »). L’opérateur de mesure impose une
valeur de pression par un outil informatique, agissant ainsi directement sur la vitesse du ventilateur au
niveau d’un variateur. Une fois la pression souhaitée stabilisée, la mesure du débit de fuite d’air s’opère
par le biais d’un anémomètre à sonde de Pitot situé au sein du ventilateur. Le ventilateur possède
plusieurs anneaux caractérisant pour chacun d’eux une section de passage d’air dans le ventilateur.
Chaque anneau possède une formule de conversion entre la pression dynamique et le débit de fuite
d’air.
Description de la technique de mesure de l’étanchéité à l’air des réseaux de ventilation :
L’infiltrométrie des réseaux de ventilation consiste à déterminer la classe d’étanchéité à l’air (classes
possibles : A, B, C et D) caractérisée par un coefficient de perméabilité à l’air maximum correspondant à
un débit de fuite d’air à une pression donnée (variant en fonction de la nature du bâtiment) rapportée à la
surface développée du réseau. La méthodologie de ce test est décrite dans les normes FD E51-767, NF
EN 12237, NF EN 1507 et NF EN 12599.
L’esprit de cet essai de perméabilité à l’air est le même que celui précédemment décrit, par la mise en
place d’un ventilateur relié au réseau permettant une mise en pression et la mesure du débit de fuite
d’air. Les capteurs existants peuvent être des débitmètres massiques ou des anémomètre à sonde de
Pitot.
Conclusions/perspectives :
Le traitement de l’étanchéité à l’air des bâtiments et des réseaux aérauliques par l’emploi de solutions
techniques adaptées sur chantier devra devenir incontournable du fait des exigences futurs sur les
résultats du coefficient Q4Pa-surf et de la classe d’étanchéité à l’air des réseaux, ces derniers certainement
renforcées dans les prochaines Réglementations Thermiques. Les labels de performance énergétique
actuels tenant compte du moteur de calcul RT et préfigurant les Réglementations Thermiques suivantes,
comme Effinergie+ ou BEPOS-Effinergie, tiennent déjà compte d’indicateurs aux valeurs très
ambitieuses.
Pour toutes ces raisons, Le Ministère en charge de la Construction, Effinergie, Qualibat, le CETIAT et
les acteurs historiques de la perméabilité à l’air en France continuent de travailler conjointement pour
faire améliorer les normes existantes relatives à la mesure de l’étanchéité à l’air des bâtiments et des
réseaux aérauliques (mise à jour fin 2015 de la norme ISO 9972 et du GA P50-784 pour l’enveloppe du
bâtiment et du FD E51-767 pour les réseaux aérauliques) et des protocoles de contrôle existant.
Ce développement constant concerne également les règles d’étalonnage des matériels de mesure, afin
de fiabiliser les instruments de mesure actuels dans les plages de fonctionnement utilisés en France, la
majorité des matériels de mesure provenant historiquement des Etats-unis ou du Canada.
Références :
Travaillant initialement sur l’étanchéité à l’air des bâtiments depuis 2006, SIRTEME a étendu notre
domaine d’expertise à l’étanchéité à l’air des réseaux aérauliques en 2010. Composé de 4 opérateurs de
mesure qualifiés QUALIBAT (plus de 5000 mesures depuis 2006) et 2 formateurs des opérateurs de
mesure (25% des mesureurs qualifiés formés), nous possédons et maitrisons l’ensemble des outils de
mesure disponibles sur le marché français, toutes marques confondues, et adaptés à toute volumétrie.
Nous avons participé pour le compte d’un industriel au développement d’un matériel d’infiltrométrie
permettant aussi bien l’obtention de mesure fiable répondant aux normes existantes que la réponse aux
contraintes des mesureurs sur le terrain (optimisation de la compacité, du poids et de la robustesse).
Nous sommes également représentant du syndicat SYNEOLE à la Commission « Etalonnage des
matériels de mesure » auprès des fabricants et des distributeurs de matériels et participons activement à
l’évolution des guides méthodologiques et des référentiels dédiés à l’étanchéité à l’air au sein de
différentes Commissions regroupant notamment le Ministère en charge de la Construction, l’association
Effinergie ou QUALIBAT.
L’AVIS de l’expert
Le principal enjeu de la mesure de la performance énergétique des bâtiments serait de crédibiliser les
exigences théoriques ambitieuses annoncées en matière de performance énergétique : RT2012,
éventuellement des exigences futures en matière de rénovation thermique de l’habitat et du nonrésidentiel.
Un axe de recherche et développement en matière de mesure de la performance énergétique des
bâtiments serait l‘établissement à terme d’une méthodologie commune (par un guide de bonnes
pratiques ou des normes mentionnées dans des textes de lois) à la mesure de la performance
é,ergétique après travaux, puis durant la vie des bâtiments. Ceci afin d’homogénéiser les pratiques
existantes et d’aboutir à des indicateurs simple et en nombre restreint.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Cerema (Centre d’études
des
risques,
de
environnement de la mobilité
et de l’aménagement)
Nom
l’expert :
Fonction :
EPA
de
Myriam
HUMBERT
Directrice
projet R&I
énergétique
bâtiment
Olivier
BONNEAU
de
en
du
Chargé d’études
bâtiment durable
Méthode d’évaluation de la transmission thermique de l’enveloppe à partir de la mesure
en continu
Contexte et enjeux
L’Ademe et la Direction de l’Habitat de l‘Urbanisme et des Paysages ont confié au Cerema le suivi et
l'instrumentation de la performance énergétique de plus de 150 bâtiments, dans le cadre du programme
démonstrateur PREBAT. Ces bâtiments répondant aux exigences du label basse consommation de la
RT-2005 avaient pour vocation de démontrer la faisabilité de telles opérations et d'anticiper les
exigences de la réglementation thermique RT 2012.
Dans le cadre de ces suivis, le Cerema a développé différents outils d'analyse et a dû développer une
méthodologie commune d'instrumentation permettant d'aboutir à des résultats homogènes en termes
d'indicateurs de suivis. Les bâtiments suivis sont d'une grande diversité en termes d'usage (habitation
individuelle, habitat collectif, tertiaires...), de nature de travaux (neuf et rénovation, de morphologie et de
techniques constructives utilisées pour la réalisation de l'enveloppe, et font appel à un panel large de
systèmes différents pour le chauffage, la ventilation, la production d'eau chaude sanitaire.
Méthode développée
Dans le cadre de cette communication, il est proposé de présenter plus particulièrement la méthode
d’appréciation de la transmission thermique de l’enveloppe (Ubât) ainsi que le retour d’expérience sur
cette méthode - sa précision et ses résultats- sur les opérations prébats.
La méthode utilisée est basée sur le bilan thermique hebdomadaire de l’enveloppe du bâtiment pour
lesquels tous les flux sont mesurés ou estimés à partir de la mesure, sauf la transmission thermique de
l’enveloppe [1].
Les apports solaires, les apports internes, les déperditions liées à la ventilation et à l’étanchéité de l'air
et les apports du système de chauffage sont estimés heure par heure à partir des mesures. La
transmission thermique de l’enveloppe est alors déduite du bilan thermique. Cela peut se traduire par
l’équation suivante pour chaque heure, en négligeant le stockage.
Qapp.chauf + Qapp.int + Qapp.sol +Q pert.ventil +Q pert.permea +U bât (T i −T e )× Aenv =0
avec
•
•
•
•
•
•
app.chauf
la production de chauffage délivrée en zone chauffée au bâtiment
Q
app.int
les apports internes du bâtiment
Q
app.sol
les apports solaires reçus au sein du bâtiment
Q
pert.ventil
les pertes liées au renouvellement de l’air par ventilation
Q
pert.permea
les pertes liées au renouvellement de l’air dû aux défauts d’étanchéité à l’air du
Q
bâtiment
Aenv la surface déperditive de l’enveloppe du bâtiment, et
T i la température intérieure et
extérieure horaire
Pour s’affranchir de l’inertie, le bilan thermique est effectué sur une semaine telle que :
• une semaine en régime permanent (avec occupation la semaine précédente) ;
• une des semaines les plus froides, pour que ce soient les déperditions qui régissent le bilan et
pour négliger l'éventuelle ouverture des fenêtres par les occupants.
Il est à noter toutefois que le coefficient Ubât reconstitué traduit la performance de l'enveloppe modulo
les actions de l'occupant non prises en compte.
Les méthodes de reconstitution des différents flux d’après la mesures sont présentées ci-après.
Mesure des besoins en chauffage
Dans cette approche, il est nécessaire de mesurer la production de chauffage (en sortie de
chaudière)réellement apportée à l’entrée de l’espace chauffé. Dans les bâtiments collectifs, lorsque les
points de comptage installés ne permettent pas de les mesurer, les pertes réseau hors volume chauffé
sont évalués de manière forfaitaire.
Détermination des apports solaires
Les apports solaires globaux sont estimés à partir :
• de la mesure de rayonnement global
horizontal et diffus de la station météo ;
• et du calcul de la « surface d'ouverture
équivalente horizontale » en prenant en
compte les surfaces vitrées et opaques de
chaque façade, leur facteur solaire, leur
orientation et la présence de masques (ici
les balcons).
La gestion des protections solaires ou volets peut
aussi être pris en compte (ouvert ou fermé/heure).
La connaissance de la géométrie des façades et Illustration 1: méthode de mesure et d'estimation des
des masques et de la gestion des occultations a un apports solaires
impact significatif sur la quantité d’apports solaires
reçus dans le bilan thermique.
Mesure des apports internes
Les gains internes dus à l’occupation et aux
équipements sont estimés à partir d’un scénario
d’occupation établi à partir d’une enquête sur site et
de la mesure des consommations d'électricité
spécifique.
Pour des bâtiments de logements collectifs, lorsque
l’on ne dispose pas d’enquêtes, grâce au
foisonnement, il est possible d’estimer les apports
d’occupation à partir d’un scénario moyen à ajuster
selon la population (40 % d’occupation en journée,
95 % de nuit). Pour des maisons individuelles, on peut
analyser conjointement l’ECS et la consommation
d’éclairage pour repérer des jours d’absence / ou de
Illustration 2: Exemple d'apports internes
présence (cf. graphique)
hebdomadaire calculé pour un bâtiment de 16
Si l’on n’a pas de mesure électricité spécifique, pour
logement collectifs
un bâtiment de logement collectif on peut s’appuyer
sur les consommations statistiques d’Enertech.
Mesure des déperditions aérauliques
Dans les suivis prébat sont instrumentés les consommations horaires des ventilateurs (VMC simple flux
ou double flux). Pour les simples flux, les débits de ventilation sont alors déduits des consommations du
ventilateur à partir de ses caractéristiques puissance/débit avec l’équation suivante :
P ventilateur =0,34×Débit×(T entrant −T sortant )/1000
Pour les double flux on prend en compte l’efficacité de l’échangeur, qui peut être instrumenté à partir des
températures entrantes/sortantes.
La méthode donnerait de meilleurs résultats si l’on instrumentait les débits (sur deux ou trois mois).
Mesure des déperditions par défaut d'étanchéité à l'air
Les déperditions liées à l’étanchéité à l'air du bâtiment sont normalement calculées selon les règles Th-
CE à partir de la mesure d'étanchéité à l'air du bâtiment (à réception) et de la vitesse du vent (station
météo la plus proche ou locale située sur site).
Mesure de la température
La température de l’air intérieur prise en compte est la moyenne des températures d'air intérieure
mesurées dans les logements, pondérées par leurs volumes respectifs. La température d'air extérieur
prise en compte est celle mesurée pendant la période sur la station météo installée sur l’opération
suivie.
Bilan thermique
On déduit le coefficient Ubât de transmission thermique du bâtiment en choisissant la semaine la plus
froide (dans l’exemple de l’illustration ci-dessous, la semaine 11), en s’assurant que le bâtiment a bien
été occupé la semaine précédente. Pour s’assurer de la cohérence du résultat, on trace la
consommation mesurée et la consommation estimée avec le Ubât retenu : si les deux courbes
présentent la même dynamique lors des semaines les plus froides, notre estimation des différents flux
est cohérente (cf. Illustration 5). Il arrive que les deux courbes présente une dynamique différente : cela
peut provenir soit d’une absence de mesure de la vitesse du vent (remplacée par des données
statistiques) soit que les besoins de chauffages sont faibles par rapport aux autres flux (cas des
bâtiments passifs ou climat trop cléments) auquel cas la méthode n’est plus applicable.
Illustration 3: Bilans hebdomadaires pour un
bâtiment R+4 de 16 logement de 1978 réhabilité
Illustration 4: Détermination du Ubât pour un bâtiment R+4 de
16 logement de 1978 réhabilité
Résultats [2][4]
50 % des opérations ont une isolation de
l’enveloppe moins performante de plus de 10 %
à la cible.
Cela est dû en général à des ponts thermiques
non pris en compte dans le calcul ou sousestimés :
• pont thermique avec le plancher bas ou
RDC
• ponts thermiques avec les balcons,
llinteaux de fenêtres
• Liaisons fenêtres/mur et coffres de volet
roulants en réhabilitation
• Ponts thermiques intégrés dû à la
fixation du bardage
• Liaison isolation intérieure (ponctuel)
Illustration 5: Ubât théorique et expérimentaux – suivis prébat
Une des causes probables observées est 2013-2015
également dégradation de l’isolation thermique
par l’extérieur par la pluie.
Enfin dans certains cas le mauvais Ubât était dû à une ouverture importante des fenêtres. En effet celleci est négligée dans notre méthode, et donc le Ubât évalué traduit aussi la performance de l’enveloppe y
compris pertes par ouverture de fenêtres.
Conclusions/ perspectives
D’après les retours d’expérience issus des suivis des bâtiments démonstrateurs PREBAT instrumentés
par le Cerema, la méthode de caractérisation de performance de l’enveloppe donne de bons résultats
sur une certaine typologie de bâtiment : bâtiment chauffé (non refroidi en hiver) avec des besoins
suffisaient important (pas le bâtiment passif), conditions intérieures relativement homogènes, et
occupations facilement appréhendable (soit par enquêtes pour les maisons individuelles, petit tertiaire
ou enseignement, soit par approche statistiques pour du collectif ou bureau).
Selon la typologie des bâtiments (importance des apports solaires, apports internes ou à la ventilation)
l’instrumentation peut être simplifiée comme le montre le test effectué dans le cadre de l’atelier de
recherche GPE de la FBE [5], en n’instrumentant pas les consommations électriques et le rayonnement
solaire. Par contre, pour fiabiliser la méthode une instrumentation courte (de 2 mois) des débits de
ventilation devrait être explorée, sachant qu’une instrumentation longue de cette grandeur est instable.
Enfin, la méthode peut s’avérer délicate à mettre en œuvre dans les cas suivants : les hivers doux
observés récemment ont offert peu de semaines complètes avec un gradient de températures important
entre l’extérieur et l’intérieur des bâtiments, diminuant significativement la part des déperditions
imputables à l’enveloppe.
Références
[1]J. Berger, S. Tasca-Guernouti , M. Humbert, Experimental method to determine the energy enveloppe
performance of Buildings, 10th International Conference for Enhanced Building Operations, ICEBO Kuwait oct 2010
[2]Bâtiments démonstrateurs du programme PREBAT Enseignements opérationnels tirés de 32 constructions et
rénovations à basse consommation d’énergie évaluées de 2012 à 2014
http://www.territoiresville.cerema.fr/IMG/pdf/Prebat_Capitalisation_2012_2014_Rapport_Vpubliee_Juin2015_Web150728_cle2f7692.pdf
[3] Suivis de Performance Energétique PREBAT (Régions Auvergne, Limousin)
[4]Bâtiments démonstrateurs à basse consommation d’énergie - Enseignements opérationnels tirés de 60
constructions et rénovations du programme PREBAT 2012 – 2015 - collection « Connaissances » du Cerema
[5]Tâche 5.3 Test du dispositif de M&V : Synthèse sur les dispositifs testés et proposition d'amélioration
L’AVIS de l’expert
La généralisation de la construction de bâtiments basse consommation à travers la RT 2012 et
l’anticipation de bâtiments encore moins consommateurs d’énergie a déplacé le curseur de performance
d’objectifs de moyens vers des objectifs de résultats.
Les retours d’expérience issus des suivis de performance énergétique du programme PREBAT révèlent
que des facteurs jusqu’alors marginaux sur la performance énergétique deviennent déterminants : action
de l’occupant, gestion active des systèmes.
La mesure de la performance énergétique est aujourd’hui essentielle à plusieurs titres : elle permet
d’identifier les causes d’écart de performance : réglages des systèmes, pertes de distributions,
fonctionnement non optimisé (chauffage en inoccupation, des organes de chauffage qui fonctionnent en
été, etc...).
Aujourd’hui l’enjeu est de transposer les données issues de la mesure en indicateurs intelligibles pour
des gestionnaires de bâtiments qui n’ont pas nécessairement des compétences poussées en gestion
technique des bâtiments.
La formation des acteurs de terrain (chauffagistes, électriciens) semble également essentielle pour
fiabiliser les données de mesure, la métrologie n’étant pas de leur domaine de formation initiale, les
installations et paramétrages n’ont pas toujours été opérationnels.
En outre, il appartient aux industriels du comptage de proposer des dispositifs permettant d’effectuer des
suivis de consommation plus précis, afin de pouvoir évaluer en temps réel la performance de certaines
installations : la plupart des compteurs du marché offrent encore aujourd’hui une scrutation adaptée à de
la facturation mensuelle, mais pas à du suivi d’installations en temps réel.
Enfin concernant plus particulièrement la méthode de mesure de la performance thermique de
l’enveloppe : celle utilisée dans les suivi prébat nécessite de l’expertise de l’opérateur, pour repérer la
typologie de bâtiment sur lequel la méthode est applicable et quelles simplifications de mesure sont
possibles. En outre, la méthode nécessite des mesures longues (au moins 2 mois en saison de chauffe)
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
ELECTRICITE DE FRANCE
Nom de l’expert :
Cedric
TEUILLIERES
EDF R&D
Fonction :
Chef de projet
Centre des Renardières
MESURES IN SITU DES PERFORMANCES DES APPAREILS DE PRODUCTION
THERMODYNAMIQUE
CEDRIC TEUILLIÈRES(*), ODILE CAURET (*), DOMINIQUE MARCHIO(**), PHILIPPE RIVIERE(**)
(*)
EDF R&D, DEPARTEMENT ENERBAT
(**) MINES PARISTECH, CES
CONTEXTE
Dans un contexte règlementaire exigeant (Règlementation Thermique des bâtiments, Directive Européenne), les
systèmes de production thermodynamiques (pompe à chaleur, chauffe-eau thermodynamique, climatiseur…) sont
considérés comme des solutions prometteuses pour la réduction des consommations et des émissions de gaz à
effet de serre (GES).
Des données fiables sur les performances des machines testées en laboratoire sont disponibles dans des
conditions de fonctionnement normatives [1]. Sur la base de ces informations, une norme européenne [2] définit
une méthode de calcul de la performance saisonnière.
Or les résultats in situ obtenus par une instrumentation lourde montrent des coefficients de performances annuelles
éloignés de la valeur issue du calcul saisonnier [2]. En effet, la performance réelle du système ne dépend pas
seulement de l’efficacité « intrinsèque » de la machine thermodynamique mais également des conditions
climatiques, du besoin (température de confort, niveau d’isolation du bâtiment), de la qualité d’installation, du bon
dimensionnement de la machine, du paramétrage adapté au site, de la régulation, etc. Enfin la performance peut
se dégrader au fil des années d’utilisation en l’absence de maintenance appropriée.
Il ne suffit donc pas d’installer un produit efficace au régime nominal pour assurer la performance et il est nécessaire
de disposer d’une méthode fiable et simple de mise en œuvre permettant de mesurer ses performances in situ.
METHODOLOGIE
Il est relativement facile de mesurer in situ la performance annuelle des systèmes thermodynamiques fonctionnant
sur l’eau via une méthode « intrusive » basée sur une mesure des énergies fournies au circuit d’eau de chauffage
ou d’eau chaude sanitaire. En revanche, on ne dispose pas, pour les systèmes fonctionnant sur l’air (PAC ou
climatiseur air/air), de méthode in situ fiable et simple d'implantation permettant de déterminer et comprendre le
coefficient de performance annuel.
EDF et le CES ont développé et étudié deux méthodes de mesure des performances in-situ, l’une basée sur une
mesure de la puissance calorifique sur l’air et la deuxième basée sur des mesures non intrusives sur le fluide
frigorigène pour les pompes à chaleur air/air de circuit simple ou à injection intermédiaire [3] à [6].
Méthode externe in-situ
La méthode externe in-situ utilise les mesures sur l’air et a pour principe de déterminer le débit d’air, traversant
l’unité intérieure, à partir du champ de vitesse mesuré via un positionnement approprié d’anémomètres à fils chaud
(figure 1). Le champ de vitesse est généralement décomposé en plusieurs zones avec différents niveaux de vitesse
(figure 2). Les anémomètres sont installés de telle sorte que la vitesse moyenne locale de chaque zone soit
mesurée. La vitesse moyenne globale est obtenue en moyennant les vitesses moyennes locales au prorata des
surfaces concernées. Finalement, le débit volume est déduit en multipliant la vitesse moyenne globale par la surface
de passage de l’air.
Figure 1 : Mise en place des anémomètres à fils chaud sur
l’unité intérieure
Figure 2 : Mesure du champ de vitesses et distribution des fils
chaud
Méthode interne in-situ
La méthode "interne" réalisable in-situ [3] est basée sur la détermination des propriétés du fluide frigorigène, le
débit masse du fluide frigorigène étant déterminé via un bilan d’énergie au compresseur. L’instrumentation
nécessaire se limite principalement à l’installation de capteurs de température de surface à des emplacements bien
définis sur le circuit de la pompe à chaleur. Ces différentes mesures de températures permettent de calculer les
pressions ainsi que les variations d’enthalpie dans le système. Elles servent également à identifier des conditions
de fonctionnement non standard de la pompe à chaleur comme les dégivrages et les phases transitoires
(arrêt/démarrage compresseur). On notera que certaines informations peuvent être disponibles dans la pompe à
chaleur par les prises de pression (haute et basse) notamment.
Le débit du fluide frigorigène est déterminé à partir du bilan thermique du compresseur en conditions stationnaires.
En complément des mesures de températures, le calcul du débit masse nécessite une mesure de la puissance
électrique du compresseur et une évaluation des pertes thermiques du compresseur vers l’environnement pour
boucler le bilan. Une fois le débit masse déterminé, il est possible de calculer la puissance thermique échangée au
condenseur et d’en déduire le coefficient de performance (COP).
[1] 𝑃𝑐𝑜𝑚 = 𝑚̇𝑚 [(1 − 𝐶𝑔)(ℎ𝑟,𝑐𝑜𝑚,𝑠𝑜 − ℎ𝑟,𝑐𝑜𝑚,𝑒𝑛 ) +̇ 𝐶𝑔(ℎℎ,𝑐𝑜𝑚,𝑠𝑜 − ℎℎ,𝑐𝑜𝑚,𝑠𝑜 )] + 𝑄̇𝑝𝑒𝑟𝑡𝑒𝑠
[2] 𝑄̇ = 𝑚̇𝑚 [(1 − 𝐶𝑔)(ℎ𝑟,𝑐𝑜𝑛,𝑒𝑛 − ℎ𝑟,𝑐𝑜𝑛,𝑠𝑜 ) + 𝐶𝑔∆ℎℎ 𝑇𝑐𝑜𝑛,𝑠𝑜→𝑇𝑐𝑜𝑛,𝑒𝑛 ]
Electric power
o
𝑃𝑐𝑜𝑚
[3] 𝐶𝑂𝑃 =
Ou :
𝑄̇
P
m
Heat losses
̇ 𝑝𝑒𝑟𝑡𝑒𝑠
𝑄Q
𝑃𝑃𝐴𝐶
𝑷 est la puissance électrique, en W
𝑪𝒈 est la concentration massique de l’huile
𝒉 est l’enthalpie massique du réfrigérant et de l’huile, en J/kg
𝒎̇ est le débit masse, en kg/s
𝑸̇ représente une puissance thermique, en W
𝑸̇𝒑𝒆𝒓𝒕𝒆𝒔 représente les échanges thermiques (pertes) du compresseur vers
l’environnement, en W
Les indices r, h, m, com, con, PAC, en, so représentent respectivement le
fluide frigorigène, l’huile, le mélange du fluide et de l’huile, le compresseur, le
condenseur, la pompe à chaleur (compresseur + auxiliaires), l’entrée et la
sortie.
Refrigerant
𝑃𝑐𝑜𝑚 = 𝑚̇𝑚 ∆ℎ +̇ 𝑄̇𝑝𝑒𝑟𝑡𝑒𝑠
̇
Débit masse 𝑚̇𝑚
Ces mesures instantanées sont intégrées au cours du temps pour fournir des coefficients saisonnier et annuel.
Concernant l’évaluation de la concentration massique de l’huile, la méthode n’intègre pas de dispositif de mesure.
Pour l’évaluation expérimentale de la méthode, la concentration a été fixée à 2% (étude bibliographique).
Les pertes thermiques du compresseur vers l’environnement sont calculées à partir de corrélations adaptées à la
géométrie du compresseur, à la présence ou non d’isolant et utilisant les températures de paroi du compresseur
(𝑇𝑐𝑜𝑚 ) et de l’air ambiant (𝑇𝑎𝑚𝑏 ).
[4] 𝑄̇𝑝𝑒𝑟𝑡𝑒𝑠 = 𝑎(𝑇𝑐𝑜𝑚 − 𝑇𝑎𝑚𝑏 ) + 𝑏(𝑇 4 𝑐𝑜𝑚 − 𝑇 4 𝑎𝑚𝑏 )
Le premier terme de l’équation [4] représente l’échange convectif et le deuxième, l’échange par rayonnement. Les
pertes par conduction ne sont pas prises en compte (supports et jonctions). L'amélioration de l'estimation des pertes
fait l'objet de recherches en cours.
VALIDATION
Les deux méthodes de mesure exposées ici ont été évaluées expérimentalement en laboratoire en les comparant
à des mesures intrusives de précision réalisées, en parallèle, sur le circuit frigorifique (référence).
Il a été établi que la méthode de mesure sur l’air avait une précision acceptable (12%) en conditions de
fonctionnement stable mais que l’installation des capteurs de mesure n’était pas aisée et même inadaptée aux
essais in situ. Cette méthode exige une expertise de l’installateur car il n’y a pas de solution commune pour
toutes les PAC air/air du marché vue la variété des modèles d’unités intérieures en termes de géométrie et de type
de ventilateur.
La méthode interne, sur le fluide frigorigène, a été validée en conditions de fonctionnement stabilisées. En
tenant compte de toutes les incertitudes de mesure et des hypothèses utilisées, l’incertitude relative du
coefficient de performance, en conditions stabilisées, varie entre 7% et 9%. Il a été identifié que les variables
qui impactent le plus le calcul (sensibilité) sont la concentration de l’huile (40%) et l’estimation des pertes thermiques
du compresseur (40%).
Un algorithme de traitement de données utilisant la méthode interne a été développé et a permis de valider
la méthode en conditions dynamiques. Cet algorithme détecte toutes les phases de fonctionnement de la PAC
notamment les phases de dégivrage, les phases transitoires et standards de chauffage.
Si la puissance calorifique est mesurée précisément en phase stabilisée, les erreurs sont plus importantes en
phases transitoires. Il est important de noter que la précision de la méthode dépend de l’occurrence de ces
évènements. Une évaluation in-situ a été réalisée sur une machine du commerce pendant plusieurs jours. Les
résultats mettent en évidence des erreurs, ramenées à l’ensemble de l’essai et relatives aux évènements
transitoires, de ±1% compte tenu de leurs faibles occurrences.
PERSPECTIVES
La méthode de mesure de performances interne décrite ici semble pouvoir être étendue à l’ensemble des systèmes
de production thermodynamique (pompe à chaleur, chauffe-eau thermodynamique, climatiseur, chiller,
préchauffage d'air neuf). Des études complémentaires ont permis de valider la conformité de la méthode sur des
architectures de systèmes plus complexes tels que les systèmes à injection intermédiaire [7]. Elle représente la
seule méthode envisageable pour les systèmes sur l’air et constitue même une alternative économique sérieuse
pour les systèmes à eau.
Mais la précision de cette méthode reste sensible à certaines variables comme la concentration d’huile utilisée, le
calcul des pertes thermiques du compresseur. EDF et le CES mènent actuellement des recherches sur la
fiabilisation de la méthode de mesure de performances in situ par l’amélioration de l’évaluation des pertes
thermiques du compresseur. Le développement d’une méthode de détection de défauts expliquant notamment la
baisse des performances est aussi à l'étude.
L’intégration de ces fonctionnalités permettra d’augmenter l’efficacité énergétique des machines
thermodynamiques en limitant la durée des dysfonctionnements avant intervention. Elles permettront également
d’améliorer la confiance des utilisateurs et des pouvoirs publics dans la performance des produits et d’anticiper de
possibles évolutions règlementaires sur la garantie de performance qui, à terme, pourraient rendre nécessaire la
mesure embarquée.
REFERENCES
[1] EN14511. (2008, Janvier). Norme EN 14511: Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec
compresseur entraîné par moteur électrique pour le chauffage et la réfrigération des locaux.
[2] EN14825. (2012, Mai). Norme EN 14825: Air conditioners, liquid chilling packages and heat pumps, with electrically
driven compressors, for space heating and cooling. Testing and rating at part load conditions and calculation of seasonal
performance.
[3] Tran. (2012). Méthodes de mesure in situ des performances annuelles des pompes à chaleur air/air résidentielles.
Paris: Thesis, Mines ParisTech.
[4] Tran, C. T., Rivière, P., Marchio, D., & Arzano-Daurelle, C. (2011b). Methodes de mesure des performances
saisonnieres in situ des pompes a chaleur air/air. Revue Générale du Froid & du Conditionnement d'Air 1116 .
[5] Tran, C. T., Rivière, P., Marchio, D., & Arzano-Daurelle, C. (2012a). Refrigerant-based measurement method of heat
pump seasonal performances. International Journal of Refrigeration 35 , 1583-1594
[6] Tran, C. T., Rivière, P., Marchio, D., & Arzano-Daurelle, C. (2013). In situ measurement methods of air to air heat pump
performance, International Journal of Refrigeration, Volume 36, Issue 5, August 2013, Pages 1442-1455.
[7]
Goossens, M., Rivière, P., Teuillieres, C., & Marchio, D. (2015). Experimental validation of on-field measurement
method for a heat pump system with internal heat exchanger. The 24th IIR International Congress of Refrigeration, ICR 2015.
L’AVIS de l’expert
Le contexte règlementaire impose des exigences fortes sur la performance des bâtiments et des systèmes
(chauffage, production d’eau chaude sanitaire,…). Il est logique d'imaginer que des déclarations préalables de
performance ne seront plus suffisantes dans l'avenir, soit pour des raisons réglementaires soit par une plus grande
implication des usagers dans leur facture énergétique. La mesure de la performance énergétique des bâtiments
doit nécessairement passer par une mesure de la performances des systèmes. Il existe dans certains cas de
grandes différences de performance entre la valeur issue d’un mesure in-situ et la valeur normative. En effet,
l’évaluation règlementaire n’intègre pas les effets liés au dimensionnement de la machine, à la qualité de
l’installation, au paramétrage, la régulation, etc. Un enjeu important pour la MPEB est de réussir à s’intégrer
simplement au bâtiment et d'être accessible en temps réel à l'image des nombreuses applications pour appareils
mobiles qui se développent. Pour les systèmes et plus particulièrement pour les appareils de production
thermodynamique, cela permettra d’améliorer la confiance des utilisateurs (particulier, promoteurs, etc) et des
pouvoirs publics dans la performance des produits.
Séminaire Expert
sur la Mesure de la Performance Energétique des
Bâtiments
3ème session :
La mesure de la performance énergétique effective des bâtiments
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Bureau Veritas
Nom de l’expert :
Grand groupe
Fonction :
Hicham LAHMIDI
Energy Product
Manager
Commissioning continu : un moyen de mesure et de vérification tout au long de la durée
de vie du bâtiment
En phase travaux, le commissioning est défini comme un processus intensif d’assurance de la qualité
qui commence dès la programmation et qui se poursuit pendant les étapes clés de conception, de
construction, de mise en service, d’occupation et d’exploitation durant la première année. En phase
exploitation, ce processus appelé « rétro commissioning », vise à corriger les anomalies de
fonctionnement.
Généralement, il n’intègre pas la mesure de la performance énergétique.
Dans le cadre de la généralisation des constructions à énergie positive et de la mise en place de contrat
de performance énergétique par les entreprises ESCO, une nouvelle approche de commissioning
continu est à mettre en place. Elle vise à intégrer à ce processus le protocole de mesure et de
vérification continue de la performance énergétique ; Ainsi, en plus de la qualité d’exécution et de
gestion de l’actif, le contrôle et le maintien de performance énergétique seront entrepris.
Référence : Mills, Evan. (2009). Monitoring Based Commissioning: Benchmarking Analysis of 24
UC/CSU/IOU Projects.
Lawrence Berkeley National Laboratory: Lawrence Berkeley National Laboratory. LBNL Paper LBNL1972E.
L’AVIS de l’expert
Merci de rédiger ~½ page sur votre vision de ce que sont aujourdh’ui les enjeux de la MPEB,
Préciser dans la mesure du possible de quelle manière ces enjeux peuvent se traduire en questions
posées à la recherche et en propositions d’actions concrètes à mener.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
MANASLU Ing / CMDL
Nom
de David CORGIER
l’expert :
PME
Fonction :
Directeur Général
La solution "bâtiment virtuel" : une réponse aux enjeux de la performance énergétique
du bâtiment
Contexte et enjeux :
Les retours d’expérience démontrent ainsi que les méthodes et les outils utilisés à ce jour dans les
projets de bâtiment, en rénovation comme en construction ne sont pas adaptés à l’atteinte de cibles
ambitieuses de performances énergétiques en exploitation. Ainsi, il est généralement observé que les
bâtiments BBC Effinergie et RT2012 surconsomment tous très largement par rapport aux estimations,
voir sont au même niveau que les bâtiments construits à l’époque de la RT2005. La littérature démontre
l’inadéquation entre les pratiques actuelles de calcul (exemple Présentation de M. LACROIX, BouyguesConstruction Dans le cadre de la matinée technique IFPEB – CSTB du 28 novembre 2012), que ce soit
l’outil réglementaire ou la STD (Simulation Thermique Dynamique), et les attentes du secteur du
bâtiment pour être en mesure de prévoir les consommations en exploitation des bâtiments.
Le principal inconvénient des outils et logiciels de simulation thermique existants réside dans la non
prise en compte de l’ensemble de la chaîne de valeur du bâtiment, de la structure avec son enveloppe
thermique à ses équipements puis son exploitation in vivo.
Par exemple, la modélisation thermique des bâtiments intégrant en détail les ponts thermiques, avec les
systèmes énergétiques et leurs lois de contrôle commande n’est à ce jour pas pratiquée par les Bureau
d’Etudes Techniques intervenant dans le secteur du bâtiment
L’enjeux principal est que le secteur du bâtiment, y compris l’ingénierie classique comme les BET, doit
évoluer pour adapter les méthodologies de conception, le suivi d’exécution et d’exploitation pour mieux
estimer les consommations énergétiques et les garantir par la suite.
Le second enjeux est que le secteur, pour évoluer, doit disposer d’outils fiables de calcul énergétique
dynamique, avec le personnel technique suffisamment formé et qualifié pour l’exploiter, afin de mieux
aider à la décision les MO, entreprises et exploitants pour être en mesure de s’engager sur la Garantie
de Résultats Energétiques sur l’usage (GRE).
Travaux réalisés et résultats marquants :
Pour répondre à ces enjeux, MANASLU Ing a développé depuis 2009 une approche innovante unique
de suivi de projet de bâtiment pour le volet énergétique du type commissionnement « enveloppe +
équipement » avec l’expérimentation d’une solution logicielle unique dite du « Bâtiment Virtuel ». Celle-ci
consiste en un outil innovant de calcul dit de « Simulation Énergétique Dynamique », avec une réelle
interaction entre les phénomènes thermiques, mécaniques, énergétiques, leurs impacts sur le bâtiment
et les lois régissant ces phénomènes. Cet outil développé dans le cadre de travaux de R&D est exploité
en vue de d’expérimenter différentes solutions techniques et méthodologiques pour répondre aux
objectifs de projets ambitieux de bâtiments. In fine, la démarche proposée intègre une campagne de
mesure, dite de monitoring sur 2 années à minima, pour vérifier l’atteinte des objectifs, recaler les
modèles énergétiques et expliquer les différences entre les calculs initiaux et les consommations réelles.
Cette démarche a été clairement identifiée comme cadre méthodologique de référence pour la garantie
de performance énergétique des bâtiments par des acteurs Nationaux comme le CSTB et Institut
Français pour la Performance Energétique du Bâtiment en 2012 (cf. Matinée technique IFPEB - 28
novembre 2012 / Mieux comprendre les notions de consommations règlementaires, prévisionnelles et
réelles CSTB-IFPEB).
Cependant, la problématique de la méthodologie globale pour disposer d’un calcul de SED fiable de
l’amont à l’exploitation, reste le point crucial à adresser avec tout particulièrement :
• La représentativité des hypothèses de calcul (usages, mais aussi techniques comme performances de
l’enveloppe, des équipements, etc..),
• La fiabilité du calcul en intégrant en dynamique les performances des équipements (éclairage
dynamique, ventilation, production, pompes, émetteur..) et du contrôle commande,
Par conséquent, l’innovation de la démarche proposée porte non seulement sur la création ou
l’exploitation d’outils logiciels, mais aussi sur le développement d’une méthodologie nouvelle permettant
à terme d’être en mesure d’optimiser l’ensemble des équipements et systèmes d’un bâtiment, de la
phase de conception à l’exploitation.
Ceci se traduit par la mise en œuvre concrète dans nos projets d’une séquence de travaux décrits cidessous :
- Mise au point en phase de conception un modèle énergétique du bâtiment afin de disposer d’un outil
d’aide à la décision se basant sur la SED (simulation énergétique dynamique) pour garantir l’atteinte de
la cible énergétique du projet,
- Intégration au modèle thermique du bâtiment de l’impact des ponts thermiques de manière
représentative en fonction de calculs de ponts thermiques effectués en 2 D et 3D, avec une précision
maximale (5 à 10%),
- Spécification d’un système d’instrumentation adapté à l’excitation du modèle énergétique globale
(station météorologique, système de comptage pour les équipements et tous les autres postes de
consommation, etc..) afin de disposer de toutes les hypothèses environnementales avec une précision
ad hoc,
- Evaluation de l’impact du choix de technologies innovantes ou non en réalisant des simulations
énergétiques dynamiques comparatives (équipements électriques, thermiques, hydrauliques etc..), pour
garantir l’atteinte de la cible visée du projet,
- Réalisation d’essais de vérification et caractérisation en statique (test d’étanchéité à l’air, ..) et
dynamiques (essais de commissionnement des analyses fonctionnelles des automatismes installés)
pour vérifier la conformité entre le modèle énergétique initialement bâti et la réalisation concrète,
- Remise à jour le modèle énergétique du bâtiment en fonction des évolutions constatées lors de la
phase d’essais statiques et dynamiques précédente pour disposer d’un modèle fiable et représentatif de
la réalité,
- Vérification (commissionnement) des instruments de mesure pour vérifier leur adéquation avec les
attentes et disposer de données fiables (vérification de 100% des capteurs et des signaux transmis),
- Analyse les données de mesures transmises sur la base de données des données mesurées et
transmises en vue de leur traitement automatique avec correction de toutes les erreurs (horodatage,
unités, correction des absences de signaux, etc…),
- Campagne de simulation avec le modèle thermique sur les besoins de chauffage et de froid sur les
premières semaines de monitoring pour recalage du modèle des bâtiments (analyse au pas horaire voir
moins avec précision de l’ordre de 5 % sur les besoins de chauffage),
- Campagnes saisonnières de simulation énergétique dynamique pour analyser les performances en
exploitation des équipements du bâtiment et éventuellement recaler les modèles numériques (CTA,
génération de chaleur et de froid, éclairage, etc....)
- Etudes d’analyse des performances pour expliciter le décalage de performance sir la cible visées tous
postes est ou n’est pas atteinte. Détermination de l’impact de des facteurs intrinsèques (performances
du bâti et des équipements) et exogènes (usages, conditions climatiques, etc..)
- Génération les indicateurs de performances en vue de les transmettre à l’exploitant sous forme de
formules de calculs spécifiques générés à partir de la base de données de mesures et du modèle
énergétique dynamique, avec comme objectif que l’exploitant soit en autonomie totale après 2 années
d’expérimentation,
Mesures in vivo
Prévisions à 1% des
consommations pour
des conditions
extérieures données
Modèle énergétique
bâtiment et
systèmes
Outil Bâtiment
Virtuel*
Comparaison: Simulation - Mesures (W1004)
22
20
Simu
Mesures
18
Pwr_chauffage (kW)
16
14
12
10
8
6
4
2
0
0
5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 105 110 115 120 125 130 135 140 145 150 155 160 165
*
Temps (h)
Simulation, recalage et
aide au pilotage
Processus de calibration du modèle énergétique dynamique en exploitation
Cette méthodologie a été expérimentée sur 2 bâtiments instrumentés de taille modeste pour la mise au
point des outils de simulation et des points de contrôle de la conception à la livraison des bâtiments. Le
rapprochement des consommations prévisionnelles et réelles a ainsi été vérifié avec succès. Elle est en
cours de finalisation sur 2 projets de plus grande dimension (3 000 et 12 000 m²).
Conclusion / perspective :
La méthodologie développée et mise en application a été validée dans le cadre d’opérations pilotes
bénéficiant d’une instrumentation exhaustive avec un processus de traitement lourd et consommateur de
temps. La généralisation de cette pratique nécessite de passer certains obstacles :
 Allégement de l’instrumentation (obstacle économique),
 Automatisation du traitement des données (obstacle économique),
 Mise au point d’outils de diagnostics de dérive automatiques en exploitation (obstacle
économique et technique)
 Validité sur tout type de bâtiment quelque soit sa localisation (diversité des usages et des
conditions météorologiques / obstacle technique) et à plus grande échelle (taille de l’îlot comme
HIKARI),
Des travaux de développement sont en cours sur des opérations de plus grande taille pour répondre à
ces défis et disposer de bases de données et de retour d’expérience consolidant la démarche et
rationnalisant les investissements et le temps consacré.
Ces développements sont réalisés dans le cadre de projets aidés (ADEME APR) et sur fonds propres.
Référence :
 Bâtiment tertiaire neuf, siège du CAUE74 (700m² à Annecy) avec financement PREBAT ADEME
Rhône-Alpes,
 Bâtiment de logement passif neuf du Gite Les Hautes Molunes (220m² à La Pesse) avec
financement ADEME Franche-Comté,
 Ilot HIKARI à Lyon Confluence avec la cible BEPOS tous postes et un financement ADEME
APR / Projet HIKARI,
 Bâtiment de logements collectif rénové à Lyon La Mulatière (55 logements) avec ALLIADES
Habitat,
L’AVIS de l’expert
L’enjeu principal de la MPEB est de pouvoir orienter en priorité les choix de solutions techniques et
architecturales avec certitude pour disposer en exploitation de bâtiments performants et confortables au
niveau initialement prévu et spécifié.
C’est un gage pour l’atteinte concrète des cibles énergétiques utiles à la préservation de
l’environnement, et ce à coût maitrisés, mais également un outil indispensable pour guider les politiques
publiques d’aide à l’investissement, que ce soit dans le neuf comme dans la rénovation des bâtiments.
Enfin et surtout, c’est la pierre angulaire pour disposer d’un outil indiscutable d’évaluation de la
conformité des résultats obtenus dans le cadre d’engagement de performance énergétiqiue, permettant
ainsi de disposer de leviers tels que le tiers investissement.
Préciser dans la mesure du possible de quelle manière ces enjeux peuvent se traduire en questions
posées à la recherche et en propositions d’actions concrètes à mener.
Les actions concrètes à mener dans le cadre de projets de recherche est de travailler sur des axes
pragamatiques en exploitant au mieux les retours d’expériences de bâtiments instrumentés, réellement
en exploitation pour être au plus prêt du terrain et de la réalité du monde du bâtiment.
La prise en compte des contraintes de chantier, d’exploitation, mais aussi réglementaires et sociétales
(niveau de qualification des acteurs, compréhension des pratiques et des processus de décision etc..)
permettrait d’améliorer les chances de concrétisation des sujets étudiés en particulier sur les enjeux de
la MPEB.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Laboratoire
national
de
métrologie et d’essais (L.N.E.)
Nom de l’expert :
Alain KOENEN
EPIC
Fonction :
Référent technique
matériaux isolants
TITRE : Evaluation des différentes sources d’incertitudes sur les performances énergétiques
réelles des bâtiments.
Dans le contexte d’une mise en place de Garantie de Performance Energétique des bâtiments (GPE), la
prévision et la mesure de la consommation réelle d’un bâtiment deviennent des questions essentielles.
Différentes initiatives (projets FIABEX & ISTHME) ont vu le jour ces dernières années pour essayer de
mettre en regard les consommations conventionnelles calculées via le moteur de calcul ThBCE avec les
consommations observées in situ sur le bâtiment. Il apparaît que des écarts importants peuvent être
observés. La demande du marché et des pouvoirs publics de faire converger les calculs de
performances réalisées selon des méthodes conventionnelles et les valeurs réelles impliquent de
connaître avec un bon niveau de confiance les limites et les incertitudes liées aux différentes approches.
Des travaux sur la Garantie de Performance Energétique soutenus par la FBE (2012-2014) ont ainsi
permis d’identifier les principaux facteurs d’influence via la mise en œuvre d’études de sensibilité avec
l’objectif de comprendre ces écarts et de pouvoir les maitriser. La principale conclusion de cette étude
est qu’il s’avère primordial et urgent d’identifier les intervalles d’incertitudes associés aux résultats
enregistrés jusqu’alors, que ce soit dans le cadre des mesures in situ (lié à la stratégie de mesurage
mise en place et aux capteurs utilisés) ou de l’approche par simulation. Dans ce dernier cas, la question
de l’évaluation des incertitudes concerne aussi bien les données d’entrée qui alimentent les modèles
(propriétés thermiques et radiatives des matériaux, conditions environnementales, …) que la
propagation des incertitudes au sein même des codes de calculs utilisés.
Une approche métrologique et la mise en place des chaines de raccordement métrologique ad hoc
s’avèrent cruciale pour fiabiliser les données obtenues par la mesure (propriétés matériaux, conditions
environnementales, mesures in situ, …), alors que la mise en œuvre de méthodologies d’évaluation et
de propagation des incertitudes basées sur les préconisations du GUM (Guide to the expression of
uncertainty in measurement, 2008, http://www.bipm.org/fr/publications/guides) doit permettre une
détermination consolidée des intervalles de confiance associés aux différents résultats. La fiabilisation
de ces différents points est la clé pour conforter la prise de décision et déterminer qui du conventionnel
ou de la mesure génère l’incertitude la plus importante. Cela doit permettre in fine de faire évoluer les
méthodes de calcul, les stratégies de mesurage in situ ou les pratiques de mise en œuvre des produits.
Le LNE en tant que Laboratoire National de Métrologie français est un acteur majeur dans le domaine
de la qualité des mesures et de l’évaluation des incertitudes. Il a la charge de développer les
instrumentations, méthodes de mesure et étalons primaires de référence pour assurer la traçabilité
métrologique des résultats de mesure et améliorer ainsi la comparabilité de ces derniers. Dans le
domaine des propriétés thermiques et radiatives, le LNE a ainsi développé au cours des dernières
années différents bancs de mesure, qui constituent les références françaises :
- Plaque Chaude Gardée de référence qui a participé à la définition du Matériau de Référence
Certifié Europeen (IRMM 440 certifié en λ (mW/mK) et R (m 2K/W)) avec une incertitude de
l’ordre du pourcent et qui permet de proposer des matériaux de transfert utiles à l’étalonnage
d’instruments
- Banc primaire pour la mesure de l’émissivité spectrale de matériaux avec des incertitudes de
l’ordre de 0,01 à 0,05% en routine
- Vitrage de référence dont la concentration en Ar est certifiée pour l’étalonnage des Gas Glass.
Le LNE est par ailleurs un acteur clé en France sur le sujet de l’évaluation des incertitudes . Son service
de mathématiques et de statistiques développe les outils méthodologiques et appliqués qui permettent
d’associer un indicateur de qualité à toute mesure. Il participe notamment activement aux travaux
méthodologiques menés au niveau de la normalisation (AFNOR, ISO) et est partie prenante du Joint
Committee for Guides in Metrology (JCGM-WG1), groupe international hébergé par le Bureau
International des Poids et Mesures (BIPM) qui a en charge le développement et le maintien du guide
pour l’expression de l’incertitude de mesure (GUM) référence internationale sur le sujet. Le LNE
intervient notamment sur le sujet de l’analyse de sensibilité afin d’identifier les facteurs prépondérants
contribuant au budget d’incertitude d’un mesurage donné, sur la propagation des incertitudes dans des
codes complexes couteux, sur les incertitudes dans le cas de problèmes inverses (développement
d’outils mettant en œuvre l’approche Bayésienne ou encore les simulations de Monte Carlo, …), et enfin
sur le rôle de l’incertitude dans l’évaluation de conformité. Plusieurs outils logiciels ont été développés
(par exemple le logiciel LNE-MCM pour l’implémentation de la méthodologie d’évaluation des
incertitudes
via
simulation
Monte
Carlo
préconisée
par
le
GUM
S1,
http://www.lne.fr/fr/logiciels/MCM/logiciel-lne-mcm.asp). Dans ce cadre, le LNE a pu par exemple obtenir
des résultats significatifs en mesure de propriétés thermiques de matériaux en collaboration avec le NPL
(GB) et le CEA en proposant une méthode innovante d’estimation bayésienne de la diffusivité thermique
obtenue par des mesures en méthode Flash. La méthode et les résultats sont en cours de publication. Il
a également déterminé l’incertitude de mesure de la performance thermique de parois complètes à partir
de mesures à petite échelle en plaque chaude gardée. Ces informations permettent d’une part d’estimer
qu’elle serait la plus faible incertitude atteignable à partir de mesures in situ et d’autre part d’objectiver
les écarts entre les calculs conventionnels et la mesure.
Enfin le LNE développe depuis plusieurs années des travaux sur le sujet de la thermographie infra-rouge
(aérienne ou terrestre) comme moyen d’identification des déperditions thermiques des bâtiments. Il a
recours à la modélisation des singularités thermiques (ponts thermiques de liaison,…) comme outil
complémentaire d’interprétation des résultats. Il travaille actuellement à assurer la traçabilité des
résultats obtenues via un étalonnage périodique des scanners IR en température face à des corps noirs
raccordés aux unités SI et à évaluer les incertitudes de mesure de température de surface à partir de la
luminance de la scène mesurée par le capteur.
L’expertise du LNE sur le sujet de la qualité des mesures (données d’entrée pour les codes et
détermination in situ des performances) et des méthodologies d’évaluation des incertitudes (notamment
propagation dans des codes complexes) peut être appliquée au cas des performances énergétiques des
bâtiments et contribuer à améliorer la compréhension des écarts observés entre données simulées et
résultats de mesures in situ. Il propose de prendre en considération les différentes sources d’incertitude
entrant d’une part dans le calcul et d’autre part dans la mesure de la performance énergétique des
bâtiments pour expliciter l’incertitude globale et ses composantes afin de déterminer les risques liés à la
GPE. A cette fin, on doit disposer d’une large base de données des propriétés thermiques et radiatives
des matériaux avec leurs incertitudes et leurs sensibilités aux conditions environnementales, des
différentes techniques des mesures utilisées pour la performance énergétique, du cœur des moteurs de
calcul utilisé (RT2012, COMFIE).
[1] J. Hameury, B. Hay, J.R. Filtz : "Measurement of Infrared spectral directional hemispherical reflectance and
emissivity at BNM-LNE". International Journal of Thermophysics, Vol. 26, Num. 6, Pages 1973 – 1983, 2005.
[2] Hameury, J. Hay, B. Filtz, J. R. : "Measurement of Total Hemispherical Emissivity Using a Calorimetric
Technique". International Journal of Thermophysics, Vol. 28; NUMBER 5, pages 1607-1620, 2007.
[3] B. Hay, J. R. Filtz, J. Hameury, L. Rongione : “Uncertainty of Thermal Diffusivity Measurements by Laser Flash
Method”. International Journal of Thermophysics, Vol. 26, No. 6, 2005, DOI: 10.1007/s10765-005-8603-6.
[4] Filtz J.R, Le Sant V., Pierrard S, Chasseigne R, Mortelette R. : “Infrared thermography, a tool serving the societal
stakes: measured methods, traceability, pro and cons”. 17th International Congress of metrology, Sept. 2015.
[5] Le Sant V., Pierrard S., Ridoux P., Henry J.B. : « Analyse de singularités thermiques de bâtiments par
modélisation numérique ». Thermogram’2009, Congrès National de Thermographie.
|6] Filtz J. R and al. : “Building Energy Efficiency: One metrological support example to vocational education and
training”. 16th International Congress of metrology, Sept. 2013.
[7] Henry J.B., Pierrard S. : “Aerial infrared thermography of cities for energy leaks mapping”. Proceeding of the 33rd
symposium on Remote Sensing of the Environment, Stresa, Italy 2009.
[8] A. Koenen, Clark Stacey, Erik Rasmussen, Roland Schreiner, Grażyna Swołek : “Bilateral International
comparison of Guarded Hot Plate Facilities at low temperature on mineral wool insulation material”. ITCC 2014.
[9] A. Koenen, R.Zarr, William F. Guthrie : “Laboratory Comparison of Guarded Hot Plate Apparatus”. ITCC 2014.
[10] A. Koenen, D. Marquis : “Determination of pipe insulation material thermal resistance from thermal conductivity
of flat insulation product”. ITCC 2014.
[11] Allard A., Fischer N., Ebrard G., Hay B., Harris P., Wright L., Rochais D., Mattout J. : “A multi-thermogram
based Bayesian model for the determination of the thermal diffusivity of a material”. Metrologia ; vol 52 ; 2016.
[12] Allard A. et Fischer N., « Recommanded tools for sensitivity analysis associated to the evaluation of
measurement uncertainty ». Advanced Mathematical And Computational Tools In Metrology And Testing IX, 2015 ;
World Scientific, 84, 2012, 1–12.
|13] Fischer N., Le Sant V., Sangare N., Rochais D. Et Mattout J., “A Bayesian approach to the conditional
estimation of parameters and associated uncertainty: application to measurements of thermal diffusivity of materials”
, Advanced Mathematical and Computational tools for Metrology and Testing, Göteborg, Suède, Juin 2011.
[14] JRP Uncertainty (NEW04) : Novel mathematical and statistical approaches to uncertainty evaluation (20122015) https://www.ptb.de/emrp/new04-home.html.
[15] Une opération de thermographie aérienne pour mettre en place une OPAH, Témoignage de la communauté
d’agglomération du Soissonnais, LNE, 2011 https://www.lne.fr/publications/temoignages-clients/soissonnais.pdf
L’AVIS de l’expert
L’objectif de la RT2012 est la limitation de la consommation d'énergie primaire des bâtiments. Celle-ci,
est anticipée sur la base de données de simulation et des campagnes de mesurage sur le terrain doivent
permettre de quantifier les écarts au modèle. La mesure et la prédiction précise de la performance
énergétique des bâtiments permettront de la garantir. A cette fin une approche métrologique complète
doit être menée en suivant les recommandations et principes du GUM et ses documents associés. Il
sera ainsi possible de disposer de données plus fiables pour alimenter les codes de calculs (notamment
en ce qui concerne les propriétés des matériaux) et de propager de façon rigoureuse et à un coût
maitrisé les incertitudes de ces données d’entrée dans les outils de simulation dérivés de ThCE.
Une base de données des propriétés thermiques et radiatives des matériaux doit être créée avec leur
sensibilité aux conditions environnementales.
En outre pour la caractérisation des bâtiments par caméra infra rouge, le développement de méthode de
mesure fiable pour l’émissivité in-situ est nécessaire pour remonter aux températures de surface. Enfin
il est nécessaire de continuer les travaux de normalisation sur la détermination des performances
énergétiques du bâtiment ainsi que ceux sur l’évaluation de la transmittance thermique des parois.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
NOBATEK
Nom de l’expert :
Pascale BRASSIER
Centre de Ressources
Technologiques
Fonction :
Chef de Projet
Monitoring de
Bâtiments
La MPEB au service de la réduction du gap entre prédictions et performances réelles des
bâtiments en exploitation
Les campagnes de monitoring des performances énergétiques des bâtiments montrent habituellement
des écarts importants entre la demande énergétique prévue dans les simulations et la consommation
d'énergie réelle mesurée sur les bâtiments durant leur utilisation., alors que de nos jours, la plupart
des bâtiments nouvellement construits, notamment tertiaires, sont équipés de systèmes de gestion de
l’énergie automatisés (GTC), intégrant une couche plus ou moins développée de mesures, et
fournissant de grandes quantités de données.
Dans ce contexte de « gap » entre les mesures des performances réelles et des prédictions, plusieurs
paramètres entre en jeux, parmi lesquels :
-les hypothèses utilisées pour la simulation de fonctionnement des bâtiments (processus de
simplification et hypothèses imprécises dans les phases de conception),
-la qualité de la construction elle-même et les écueils rencontrés dans la mise en œuvre,
-la phase de commissioning et de réglages qui n’est pas réalisée ou alors de manière insuffisante
pour atteindre un fonctionnement optimisé des systèmes et du bâtiment,
-la phase d’exploitation du bâtiment qui fait intervenir l’impact important des usagers des bâtiments, la
complexité des systèmes qui rend leur gestion complexe et délicate et qui ne fonctionnent pas comme
prévus, et une mauvaise gestion du bâtiment par les usagers mais également par les gestionnaires
eux-mêmes qui ne détiennent pas tous outils pour intervenir au mieux.
Dans ce contexte, NOBATEK mène actuellement trois projets visant à développer des outils
permettant de fournir des services pour optimiser les performances des bâtiments. Chaque projet agit
à un niveau donné ou plutôt au cours d’une étape donnée de la vie d’un bâtiment et porte sur la
mesure appliquée soit aux bâtiments dans sa globalité soit sur des systèmes ou des éléments
constructifs. Ces trois projets s’articulent donc autour d’une boucle vertueuse autour de la
performance des bâtiments et incluent chacun des outils basés sur les mesures réalisées dans les
bâtiments. Cette stratégie vertueuse est issue des verrous et enjeux qui ont été observés pour la
mesure de la performance énergétique au cours des précédents projets menés chez NOBATEK.
-BUILT2SPEC (Tools for the 21st Century Construction site, projet européen H2020 lancé en Janvier
2015 pour une durée de 4 ans) : le projet développe des solutions technologiques innovantes pour
l'auto-inspection, les tests non destructifs, la gestion et le contrôle de la qualité sur chantier afin
d’améliorer les performances énergétiques des bâtiments en réduisant les erreurs de construction [1].
Les différents modules seront développés via une plateforme virtuelle de gestion accessible sur
smartphones ou tablettes, qui couplées à de nouveaux outils de mesure et de contrôle, plus mobiles
et simples à utiliser, faciliteront le management de chantier et le respect de la qualité. Grace à ce
système, entrepreneurs et opérateurs de la construction auront connaissance, sous le modèle du BIM,
des cahiers des charges, directives d'installation et informations sur les cadres réglementaires, etc.
Ces solutions seront ensuite mises à disposition et testées par des acteurs de la construction sur leurs
opérations de terrain pendant un an.
-Le projet SIBEX (Solutions Intelligentes pour le Bâtiment en EXploitation) porté par l’ITE INEF4
s’inscrit dans ce contexte d’évolution marquée des contraintes liées à la performance énergétique des
bâtiments et à la nécessité de suivre de manière fine et quantitative les consommations énergétiques
et usages du bâtiment. Si les moyens de mesures proposés aujourd’hui pour le bâtiment constituent
une offre pléthorique, des outils/méthodologies restent à développer pour permettre des mesures
simples, rapides et peu coûteuses fournissant de manière fiable et robuste des informations sur la
performance globale des bâtiments. Dans SIBEX, la technique de thermographie Infrarouge est testée
en mode quantitatif afin d’accéder à la performance du bâtiment sans l’usage. D’autre part, l’analyse
poussée et le traitement avancé des données récoltées et l’exploitation des résultats constituent un
point encore inexploré aujourd’hui. Les travaux menés (hors secteur bâtiment) sur le big data et la
business intelligence peuvent dans ce cadre être transposés au bâtiment. SIBEX vise ainsi à
développer des outils de traitement avancé des données qui permettront à terme le développement de
nouvelles solutions de pilotage intelligent du bâtiment (intelligence artificielle, outils prédictifs, autoapprentissage, outils innovants de restitution d’information aux usagers,…).
-En parallèle, le projet HIT2GAP (Highly Innovative building control Tools Tackling the energy
performance GAP, projet Européen H2020 lancé en septembre 2015 pour une durée de 4 ans) porté
par un consortium de 22 partenaires européens coordonné par NOBATEK tente de répondre à
l’initiative européenne autour du développement de nouveaux outils et méthodologies visant à réduire
le « gap » entre les performances énergétiques prédites et réelles au niveau des bâtiments ou
d’ensemble de bâtiments [2].
Le projet HIT2GAP développera une nouvelle génération d'outils de surveillance et de contrôle de la
construction sur la base de techniques avancées de traitement des données collectées sur le
bâtiment, permettant de nouvelles approches pour évaluer la performance énergétique, obtenir une
meilleure compréhension du comportement de la construction et donc une meilleure performance.
Partant des acquis solides au niveau recherche sur le traitement des données, HIT2GAP misera sur
des outils de mesure et de contrôle existants qui seront intégrés à une plateforme logicielle
révolutionnaire pour le secteur pour l'optimisation de la performance énergétique. La solution
proposée cumule trois champs d’innovation de rupture qui permettent une optimisation permanente :
 Intelligence : intégration des dernières technologies d’exploration de données pour la découverte
de connaissances (DMKD) comme une technique de base pour l'évaluation du comportement des
bâtiments et leur compréhension.
 Modularité ouverte : l’intégration de plusieurs types et générations de modules de traitement
(différents algorithmes) et d’affichage de données se pratiquant tel un smartphone en achetant des
applications spécifiques. Si une application de meilleure performance est développée vis-à-vis de sa
propre problématique, le gestionnaire du bâtiment n’aura qu’à la télécharger sur sa plateforme pour
l’appliquer à son bâtiment et remplacer le module précédemment utilisé.
Solutions actuelles
Solution HIT2GAP
Données temps réel
du bâtiment
Données temps réel
du bâtiment
Plateforme générique
+
Applications (traitement de
donnée, affichage, etc.)
From the user point
of view:
Solution boite
noire, tout-enun, 100%
propriétaire
= modulaire, transparent, évolutif
Services énergétiques
Services énergétiques
 Marché de la valeur ajoutée : au-delà de l’amélioration continue des performances pour les
bâtiments, cette architecture permet l’émergence d’un tout nouveau marché pour les
« développeurs de modules de traitement intelligent » (laboratoires, start-ups) qui, au travers de
« l’app store » d’HIT2GAP, pourront trouver naturellement leurs clients en se concentrant sur le
cœur de la valeur ajoutée de leur solution.
Entre autres, seront développés :
Une plateforme générique, modulaire et transparente dont une version initiale est issue du
projet SIBEX (INEF4) et qui se veut en ligne avec les nouvelles visions apparues récemment
autour des systèmes de gestion des bâtiments [3],
Des outils basés sur les techniques de fouille données (enrichissement sémantique),
Des outils de modélisation du comportement des usagers pour mieux prédire et optimiser
l’usage du bâtiment,
Des interfaces de visualisation des données ciblées pour les usagers de bâtiments (avec des
conseils et alertes pour la gestion de l’énergie),
- Des interfaces de visualisation des données techniques ciblées pour les gestionnaires de
bâtiments,
- Des outils permettant de faire un retour d’expérience sur des cas réels et améliorer les outils de
simulation actuels avec les enseignements tirés de ces cas réels.
Appliquer les solutions à des groupes de bâtiments permettra également de tester la demande
d'énergie par rapport à des modules de gestion de la production locale d’énergie.
Les travaux de HIT2GAP seront réalisés avec un souci permanent pour la mise sur le marché des
solutions développées dans le projet, avec des partenariats spécifiques sur l'intégration des outils dans
l'activité des entreprises fournissant des services énergétiques parmi les membres du consortium.
Références :
[1] http://built2spec-project.eu/
[2] http://www.hit2gap.eu/
[3] Jim Sinopoli, The Future Building Management System, Smart Buildings LLC, http://www.smartbuildings.com/uploads/1/1/4/3/11439474/2012julyfuture.pdf, 07-2012.
L’AVIS de l’expert
Le domaine de la mesure de la performance énergétique est en pleine explosion à l’heure actuelle,
porté par des start-up innovantes qui proposent de nouvelles solutions autour des moyens de mesure,
autour de la conception d’interfaces pour la rétrocession d’information vers l’usager ou le gestionnaire
énergétique et autour d’outils de traitement innovant de la donnée collectée. Face à cette évolution
marquée et rapide du secteur, il est important de formaliser une agrégation de l’information autour des
acteurs majeurs du domaine et mutualiser les informations disponibles afin de pouvoir identifier les
pistes d’innovations les plus intéressantes et pertinentes au regard des objectifs nationaux sur la
transition énergétique.
L’idée de disposer d’une plateforme ouverte permettant aux développeurs de tester leurs solutions sur
des sites pilotes réels et de les confronter aux besoins et exigences des donneurs d’ordre ou des
maîtres d’ouvrage permettrait de développer les bonnes pratiques et la mise en place d’une
communauté d’acteurs sur ce thème qui pourra permettre une montée en compétences et en qualité
de l’ensemble de la filière construction à travers la mise en place de méthodologies et solutions pour
une meilleure mesure de la performance énergétique. Cette approche peut être directement valorisée
pour la thématique de la garantie de performance qui impose un changement de paradigme (passage
d’un engagement de moyens à un engagement sur les résultats).
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Centre Scientifique et Technique
du Bâtiment
Nom de l’expert :
Pierre BOISSON
Centre scientifique et technique
Fonction :
Ingénieur recherche
et expertise
TITRE: Outil PICXAR – Platform for Initial Commissioning and Reporting
Contexte et enjeux :
PICXAR est une plateforme de commissionnement et de supervision pour l’aide à l’exploitation de
bâtiments. Il vise le secteur des bâtiments tertiaires et des logements collectifs, que ce soit en phase
réception, mise au point ou en phase exploitation. Il s’adresse aux acteurs de la filière tels que les
exploitants, les maitres d’ouvrage, les gestionnaires de patrimoine et les métiers de la GTB.
A travers cet outil, il s’agit de mettre à disposition de l’utilisateur des indicateurs sur la performance
effective des équipements techniques, basés sur des tests fonctionnels réalisés à partir de mesures.
PICXAR s’interconnecte directement avec des protocoles standards de GTB pour lire les points de
mesure nécessaires à l’exécution des fonctions de commissionnement. Les indicateurs de performances
énergétiques et de confort doivent permettre de d’apprécier les performances du bâtiment et le bon
fonctionnement/réglage des systèmes énergétiques, y compris les systèmes de GTB. PICXAR s’assure
donc que les données mesurées sont correctes et indique le cas échéant s’il y a des défauts.
D’un point de vue méthodologique, en fonction des équipements présents dans un bâtiment et des
indicateurs que l’on souhaite évaluer, l’outil décrit les points de mesure nécessaires, ce qui pourra
constituer un référentiel de mesure pour le commissionnement.
Description des travaux études réalisés – Résultats marquants obtenus :
Au stade de la R&D et d’un degré de TRL évalué à 3, l’outil PICXAR est à l’heure actuelle un prototype
disposant de fonctionnalités déjà testées. Il intègre des fonctions de contrôles pour les équipements
techniques (CVC), qu’il peut réaliser à partir de données de mesures. Ces données, standardisées,
peuvent soit être importées à partir d’une archive .csv, soit provenir d’un bâtiment instrumenté en
communiquant en temps réel sur le protocole de sa GTB. Aujourd’hui, PICXAR intègre des protocoles
de GTB standards : BACnet et OPC, mais il n’est pas du tout exclu qu’il puisse à terme échanger avec
d’autres protocoles de communication.
Le logiciel propose également de générer un rapport de commissionnement permettant d’appréhender la
performance globale et les actions à mener pour réduire la consommation énergétique du bâtiment.
Un exemple de procédure de tests fonctionnels implémentée est l’analyse de la loi de chauffe à l’aide
des mesures de températures de départ d’une chaudière (cf. figure 1). PICXAR évalue la qualité du
réglage de la loi d’eau en calculant la pente et le point pivot. Un indicateur et des critères de satisfaction
sont établis et des analyses peuvent être proposées pour affiner l’étude.
Un autre test de performance est l’évaluation de l’inconfort froid et de l’inconfort chaud en analysant les
températures ambiantes. La figure 2 illustre la proportion de points de mesure sur chaque créneau
horaire en dehors des plages de température de confort. Par exemple l’analyse temporelle mais
également spatiale de l’inconfort froid en hiver permet d’identifier les défauts de fonctionnement ou de
réglage (au moment des relances, au niveau de l’équilibrage hydraulique,…).
Figure 1 : analyse de la loi de chauffe
Figure 2 : évaluation de l’inconfort
Chaque test de performance fait l’objet d’une description des conditions du test (principe, points de
mesure nécessaires, etc.) et des critères d’évaluation de la fonction. Une fois étoffée, cette collection de
procédures de test peut constituer un référentiel pour le commissionnement.
L’ensemble des fonctions d’analyse envisagées dans PICXAR est illustré sur la carte mentale suivante.
Conclusions/perspectives :
L’outil PICXAR est encore en phase de développement et doit s’enrichir de nouvelles fonctionnalités et
de résultats issus de la R&D.
S’il existe d’autres outils sur le marché, l’originalité de PICXAR est de proposer un outil de
commissionnement clé en main pouvant s’interfacer de plusieurs manières en fonction du bâtiment et
des attentes de l’utilisateur : il peut constituer un outil d’aide à l’exploitation en interrogeant à distance et
en temps réel le bâtiment sur son protocole de communication, ou faisant une analyse en local
directement avec la GTB, ou encore de manière déconnectée à partir d’une base de données de mesure
importée.
L’outil développé jusqu’à présent est prévu pour réaliser un « initial commissioning », mais l’ambition est
qu’il s’adapte également à un fonctionnement en temps réel pour réaliser un « continuous
commissioning » pendant les différentes phases de la vie d’un bâtiment. De cette manière, il sera un
outil d’aide à l’exploitation en intégrant la détection de dérives et défaut et l’aide au diagnostic de ces
dérives/défauts.
En outre, PICXAR est une plateforme qui peut gérer l’analyse de plusieurs bâtiments. Ainsi pour un
gestionnaire ou un exploitant, on envisage de proposer la possibilité de réaliser du benchmark sur un
parc de bâtiments, de comparer les consommations annuelles et d’identifier des gisements d’économie
d’énergie.
En termes d’opportunités, PICXAR peut constituer un support à l’application de la norme ISO 50001 et
aux Contrats de Performance Energétique.
L’AVIS de l’expert
La recherche abordant la MPEB doit aujourd’hui encore progresser pour aboutir à des outils et
méthodes, reconnus et validés, sur lesquels s’appuyer pour contribuer à la maitrise et l’amélioration des
performances énergétiques des bâtiments.
Il s’agit notamment d’être capable de vérifier que le bâtiment construit ou rénové est conforme aux
prescriptions et bénéficie de la même performance intrinsèque que celle prévu en conception, en
particulier au moment de la réception. L’identification des caractéristiques thermiques des éléments
d’enveloppe du bâtiment est un des enjeux forts pour évaluer la mise en œuvre. L’élaboration de
méthodes opérationnelles et économiquement viables est une action que la recherche doit continuer de
mener.
Un point important est la prise en compte (et la réduction) des incertitudes dans les mesures, les calculs
et méthodes d’analyse. Afficher une grandeur seule n’est plus scientifiquement suffisant, que ce soit
pour une grandeur mesurée (incertitude de mesurage, de la chaine d’acquisition…) ou pour une
grandeur calculée (incertitudes des modèles et des hypothèses, des données théoriques des
produits…). Ceci est d’autant plus vrai lorsque l’on souhaite comparer une mesure à un calcul.
Si la garantie de performance énergétique intrinsèque est essentielle, la garantie de résultats en
exploitation l’est tout autant. Les retours d’expérience montrent que des efforts doivent être réalisés aux
étapes de réception, de mise au point et d’exploitation afin de rencontrer les objectifs fixés à la
conception. En particulier en ce qui concerne les systèmes énergétiques et de gestion-régulation, on
observe souvent les mêmes difficultés (longue période de mise au point, mauvais réglages, absence de
claquage des points de mesure de la GTB au moment de la réception, problèmes de traçabilité, etc.).
Ces enseignements poussent à recommander la mise en place de procédures qualité dites de
commissionnement. Les méthodologies existent, tentent à se diffuser mais ne sont pas toujours
appliquées.
L’enjeu consiste ici à formaliser des plans de mesure & vérification et des outils de commissionnement
adaptés (aux bâtiments tertiaires, aux parcs de bâtiments, à l’habitat…) qui permettent d’une manière
simple et relativement autonome de pouvoir suivre un bâtiment, vérifier qu’il se comporte correctement
et alerter dès qu’un dysfonctionnement ou une dérive des consommations est constaté. Le monde de la
recherche doit concourir à l’élaboration de ces référentiels pour la MPEB. L’aide à l’exploitation est en
effet une des clés pour réaliser des économies d’énergie, améliorer le confort des occupants et contrôler
l’état des bâtiments.
Enfin, il est souvent question de comparer les performances réelles et prévisionnelles en exploitation et
être capable d’expliquer les écarts, identifier les éventuels défauts à l’origine de ces écarts et de
quantifier leurs impacts. Un des enjeux de la MPEB est de disposer d’outils, méthodes et
instrumentation, à la fois fiables, robustes et adaptables, qui favorisent la mise en place de garanties de
performance et incitent les acteurs à s’engager dans une contractualisation des performances
énergétiques avec un risque maitrisé. On constate dans les CPE que l’implémentation du protocole
IPMVP et les lois d’ajustement restent relativement simples au regard de la complexité de la réalité du
terrain et des risques juridiqueset financiers. La description de l’application de l’IPMVP mériterait d’être
approfondie et déclinée suivant les spécificités des bâtiments afin qu’il soit plus facilement et plus
largement exploité.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Centre Scientifique et Technique
du Bâtiment
Nom de l’expert :
Guillaume
ANSANAY-ALEX
EPIC
(Centre
Technique)
Fonction :
Chef de projet
Scientifique
et
TITRE Mesurer pour prévoir : modélisation statistique des occupants et des effets de leurs activités
Différents facteurs jouent un rôle dans la consommation énergétique d’un bâtiment : ses
produits de construction et leurs modes d’assemblage, les équipements techniques installés
pour son fonctionnement (systèmes pour le chauffage, la ventilation et la climatisation, la
production auxiliaire d’électricité ou d’eau chaude), les équipements mobiliers utilisés par les
occupants, le climat, et enfin les choix et les comportements de ses usagers, entendus au sens
large comme tous les acteurs du cycle de vie d’un bâtiment. Alors que de grands progrès ont
été effectués dans la simulation des trois premiers facteurs, on a jusqu’à aujourd’hui
principalement compté sur l’utilisation de profils fixes pour représenter la présence de
l’occupant et les implications de cette présence.
Dans des bâtiments devenant de plus en plus performants sur le plan énergétique, l’impact du
comportement des occupants, et les consommations spécifiques prennent une part relative
sensiblement plus importante que par le passé. En 2014, les usages spécifiques
représentaient environ 52% de la consommation d’électricité des ménages (chiffres RTE, via
l’Ademe).
1/ Deux outils de modélisation de l’occupation
Le CSTB a développé deux outils pouvant être utilisés dans l’optique de caractériser
l’occupation :

L'outil QIRIEL est construit sur des bases de données nationales (recensement,
Enquête Nationale Logement) et permet la génération de logements, de ménages et de
leurs équipements spécifiques représentatifs d'une zone géographique, jusqu'à la
granularité de l'IRIS, brique de base de l'INSEE en matière de diffusion de données
infra-communales. Il implémente pour ce faire une structure de réseau bayésien et
permet d’échantillonner des populations d’occupants, des locaux et des équipements
représentatifs de territoires donnés ou de faire des prédictions par inférence statistique.

L'outil CRONIQ est également construit sur la base d'enquêtes nationales d'activité
(enquête Emploi du Temps de l'INSEE), et permet de générer, à partir des informations
fournies par QIRIEL (nombre de personnes, catégories socio-professionnelles et
équipements), des profils de présence, d'activité, d'apport interne et d'appels de
puissance des équipements en électricité spécifique. Pour rejouer des profils d'activité
issus des données d'enquêtes, CRONIQ implémente des chaînes de Markov
inhomogènes dont les noyaux de transition sont construits à l'aide de ces données. Les
appels de puissance sont générés soit à l'aide de modèles techno-explicites, soit tirés
des résultats de campagnes de mesures réalisées par le bureau d'études Enertech.
L’utilisation conjointe de QIRIEL et CRONIQ permet ainsi de générer des profils variés et
représentatifs de présence, d’activité, de gains internes et d’appels de puissance, en
fonction seulement de la localisation du bâtiment, ou plus spécifiquement si plus
d’informations sont connues, ce qui permet de déterminer des comportements médians,
et des bornes inférieures et supérieures vis-à-vis par exemple des consommations
d’énergie spécifique.
2/ Applications à l’optimisation du plan de mesures pour la maîtrise de la performance
Identifier les paramètres influents sur la performance énergétique liés à l’usage
Les simulations par CRONIQ d'échantillons de population générés par QIRIEL permettent, en
complément de la caractérisation des incertitudes relatives aux autres sources d'écarts entre
consommations prévues et réelles, de réaliser des analyses de sensibilité d’outils de simulation
énergétique dynamique.
Les résultats d’analyse de sensibilité d’un bâtiment permettent de lister et hiérarchiser les
paramètres pouvant faire varier sa performance, et en particulier les paramètres liés à l’usage.
On peut ainsi adapter le plan de mesure et de vérification pour mesurer à moindre coût les
grandeurs les plus pertinentes vis-à-vis de la performance.
Maîtriser les risques en prévoyant les bornes de l’impact de l’usage
Au moment de définir une cible de consommation, voire un engagement contractuel, on ne
connaît pas encore l’usage réel du bâtiment, mais on peut produire des prédictions de
performance basées sur des hypothèses d'usage tirées de connaissances sur des bâtiments
aux propriétés sociotechniques proches.
Disposer grâce à QIRIEL + CRONIQ de familles de profils d’occupation correspondant à des
usages variés permet de propager ces profils dans les outils d’estimation de consommations
d’énergie et d’en déduire une cible de consommation prenant en compte des facteurs
sociologiques. On maîtrise ainsi les risques en fonction des choix de mesures qui sont faits
pour évaluer l’usage.
L’AVIS de l’expert
Je vois trois actions à mener de front pour assurer la performance énergétique des bâtiments
en exploitation, qui sont toutes les trois directement ou indirectement dépendantes de la
mesure :
• Vérifier le bon fonctionnement des systèmes et la bonne application de la stratégie de
gestion. Ou plutôt, se donner les moyens d'être informé de tout écart anormal du
fonctionnement des systèmes et de la gestion au-delà d'une tolérance, pour intervenir au plus
tôt et rétablir le fonctionnement nominal.
• Comprendre l'occupation réelle du bâtiment et de ses systèmes, comment se répartissent
dans le temps les besoins de confort et d'énergie des occupants.
• Adapter la stratégie de gestion à l'occupation réelle du bâtiment
On est ainsi proches d’un cycle lean : build (concevoir une stratégie de gestion), measure
(remonter les informations de consommation, de confort et d’état des systèmes), learn
(comprendre l’usage et les leviers d’utilisation et de flexibilité du bâtiment) et d’une conception
itérative et agile de l’organisation et de la gestion du bâtiment, ou du Plan-Do-Check-Act de la
norme ISO 50001.
Ces trois actions reposent sur deux types d'outils :
• Une instrumentation optimisée pour fournir, à un coût d'installation et de maintenance
minimisé, les mesures identifiées comme les plus pertinentes pour suivre la performance du
bâtiment.
• Des indicateurs du bon fonctionnement permettant de détecter les fonctionnements
anormaux, et d'offrir une première qualification des alertes, pour aider au diagnostic par
l'exploitant.
Cette démarche de maîtrise des performances repose, bien sûr, sur l’existence et la formation
d’au moins une personne responsable du management de l’énergie.
Mais la maîtrise, ou l’augmentation de la performance énergétique ou environnementale d’un
bâtiment repose-t-elle uniquement sur l’ajout ou l’adaptation de solutions techniques, ou à
l’inverse sur la tentative d’adapter ou d’éviter certains comportements des utilisateurs finaux ?
Les indicateurs et les leçons tirées de l’observation de la vie du bâtiment et de ses usagers
peuvent certainement amener une réflexion plus globale . Comment, à partir d’observations
locales de plus en plus riches et de toutes les mesures qui vont émaner des bâtiments,
repenser la manière dont l’immeuble de logements, l’immeuble de bureaux sont habités ? Des
transformations d’occupation, d’organisation, de mobilité, de partage, peuvent-elles être
imaginées pour apporter à la fois un mieux-être, une meilleure efficacité et une meilleure
performance environnementale ?
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
CSTB
Nom
l’expert :
EPIC
Fonction :
de David DA SILVA
Ingénieur Recherche et
expertise
Module MIRACLE – l’utilisation de la simulation énergétique dynamique pour la GPE
La Garantie de Performance Energétique est un élément clé pour sécuriser l’ensemble de la filière en
garantissant à l’utilisateur final du bâtiment une consommation d’énergie annuelle réelle maitrisée dans
des conditions normales d’utilisation du bâtiment. L’acculturation de la filière est aujourd’hui en marche,
mais les marchés associés peinent à décoller. Parmi les verrous, il existe encore des verrous d’ordre
technique principalement liés à l’absence de bases scientifiques robustes permettant d’appréhender,
d’anticiper et maitriser les risques associés à la mise en place d’une garantie de performance. L’objectif
est de créer un module informatique suffisamment robuste pour permettre sa valorisation immédiate par
des bureaux d’études spécialisés.
Le module présenté vise l’accompagnement plan de mesure et vérification. De plus, ce module permet la
détermination de plusieurs indicateurs essentiels pour la prise de risque dans un calcul énergétique et à
la définition d’un contrat de GPE.
DA SILVA et LAHRECH (DA SILVA & LAHRECH, 2015) montrent que le comportement des occupants a
un impact dominant dans l’estimation de la consommation (occupation, température de consigne, apports
internes…). Ainsi nous avons imaginé un module flexible, qui peut s’adapter aux différentes phases de
construction du bâtiment.
La figure suivante présente le schéma global du module MIRACLE.
PRE ETUDE
ETUDES
CONSTRUCTION
RECEPTION
EXPLOITATION
EXPLOITATION
MISE EN SERVICE
1 - 2 ans
Qiriel
Profils
d’occupation
Croniq
Profils d’apports
internes
stochastiques
Analyse Sensibilité &
Incertitude
Moteur de calcul COMETH
Méthode de vérification :
Caractéristiques
Intrinsèques
(ex: méthode ISABELLE,…)
Mesure des
consommations
et des variables
d’ajustement
Variables
d’ajustement
(ex: météo,
consigne de
température…)
Vérification des
engagements
Définition du contrat de GPE
f (Var. Ajustement, incertitudes)
Figure 1 – Schéma module MIRACLE
Dans la phase de pré-étude et d’études l’utilisation des outils QIRIEL et CRONIQ, développés par le
CSTB, permet la caractérisation de la variabilité des paramètres liés à l’occupation et aux équipements
mobiliers électriques. De plus, les méthodes d’analyse de sensibilité et incertitude permettent d’une part
d’estimer le risque de l’opération et d’autre part de déterminer les possibles variables d’ajustement (ces
variables doivent être mesurables) pour la définition du contrat de garantie de performance énergétique.
L’analyse de sensibilité permet de définir les variables les plus impactantes sur la consommation
énergétique. Cependant cette analyse est très dépendante des informations disponibles du bâtiment et
de la mise en œuvre des différents éléments du bâtiment. A partir des informations recueillies et des
hypothèses prises, on peut définir les paramètres à étudier plus en détail, pour ainsi réaliser une étude
d’incertitude sur la consommation. Ci-dessous on présente les résultats d’une analyse de sensibilité et
incertitude (S&I) sur un logement collectif réalisée dans le cadre du projet GPE de la Fondation Bâtiment
énergie.
Figure 2 – Exemple d’analyse de sensibilité - Chauffage
L’analyse de sensibilité a été réalisée avec la méthode de Morris (Morris, 1991). On peut voir que les
variables les plus importantes sont : la perméabilité à l’air, le débit de ventilation, la température
extérieure, les apports internes et la consigne de température. On déduit (dans ce cas particulier) qu’une
mesure de perméabilité doit être réalisée pour réduire son impact sur l’étude de S&I. Les autres variables
sensibles échappent au contrôle du projet, car ce sont des variables dues à l’activité des occupants ou à
la météo. S’il a la possibilité de mesurer ces variables, on les compte parmi les paramètres d’ajustement.
Sinon, ces variables seront pris en compte dans l’étude d’incertitude.
Analyse d’incertitude
Figure 3 –Exemple d’analyse d’incertitude chauffage – MonteCarlo 1000 Tirages
La caractérisation des lois d’incertitude et des plages de variation de chaque paramètre est très
importante dans l’analyse d’incertitude car les résultats sont très sensibles aux plages choisis. Quelques
études existent sur la caractérisation des variables d’entrée (Macdonald, 2002), cependant un manque
de méthodes et des études existe aujourd’hui.
Une fois calculé l’incertitude de la consommation énergétique, on peut définir le contrat de garantie de
performance énergétique. La réception du bâtiment pourra être suivi d’une méthode de vérification des
caractéristiques intrinsèques (ex : méthode Isabelle…).
Après la mise en service et des possibles réglages du bâtiment, on peut comparer la consommation avec
le contrat de garantie de performance énergétique en prenant en compte les paramètres d’ajustement
mesurés.
Aujourd’hui cet outil a un niveau de maturité TRL 4. La validation de l’outil présenté est aujourd’hui en
cours. L’objectif final est de construire un module informatique à niveau de maturité (TRL 6) suffisant pour
permettre sa valorisation immédiate par des bureaux d’études spécialisés.
Grâce à sa flexibilité il pourra aussi être utilisé dans des études complémentaires comme l’audit, l’aide à
la conception ou l’exploitation du bâtiment.
BIBLIOGRAPHIE
DA SILVA, D. & LAHRECH, R., 2015. Uncertainty of building use in energy performance guarantee
context - A case study.
Macdonald, I. A., 2002. Quantifying the Effects of Uncertainty in building Simulation. s.l.:Department of
Mechanical Engineering, University of Strathclyde.
Morris, M., 1991. Factorial Sampling Plans for Preliminary Computational Experiments. Technometrics.
L’AVIS de l’expert
La Garantie de la performance énergétique doit permettre aux différents acteurs de lancer un projet avec
un « risque » maitrisé en termes de consommation énergétique. Le calcul des consommations réelles du
bâtiment à partir des modèles énergétiques devient ainsi essentiel. Le « risque » est introduit dans les
simulations via l’incertitude des données du bâtiment et des modèles. Cependant, la connaissance des
incertitudes liées à la mesure et aux données du bâtiment + systèmes + occupants reste aujourd’hui mal
connue. Les valeurs utilisées restent dans le domaine des « avis d’expert » sans une méthodologie
définie.
Le calcul nécessite d’une part l’utilisation des méthodes et des logiciels adaptés à la profession mais
aussi, d’un retour terrain très important.
Une autre problématique est liée aux mesures et/ou vérifications réalisées sur le terrain. Cette
problématique peut être décomposée en deux points :
1. Performance intrinsèque du bâtiment
2. Performance du bâtiment en exploitation
Le premier point vise à s’assurer de la conformité des matériaux utilisés et de leur mise en place. La
vérification des caractéristiques des bâtiments lors de l’achèvement des travaux nécessite des
méthodes robustes et de simple application. La possibilité d’obtenir des données précises sur les
différents composants du bâtiment permet une vérification des valeurs intrinsèques mais aussi de
réduire leur incertitude lors de leur utilisation dans un modèle pour le calcul des consommations.
Le deuxième point concerne l’utilisation du bâtiment dans son environnement avec ses systèmes et,
plus important, ses occupants. La mesure des consommations, mais aussi de tous les éléments
gravitant autour du bâtiment doivent être pris en compte (météo, consignes de température…) pour une
bonne analyse des résultats. Le rôle du commissionnement devient ainsi essentiel. Une fois de plus, ces
mesures sont très importantes car elles vont pouvoir alimenter le modèle énergétique pour pouvoir
confirmer les performances attendues.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Schneider Electric
Nom de l’expert : Patrick BEGUERY
Grand Groupe
Fonction :
Expert Simulation
Réduction de l’écart entre prévisions et perfomance réelle – projet TRIBUTE
Contexte et enjeux
Le projet européen FP7-TRIBUTE [TRIweb] a pour objectif de réduire l’écart entre les
performances énergétiques calculées et mesurées des bâtiments à travers l’amélioration de la
capacité prédictive des outils de simulation de la performance énergétique des bâtiments. La
démarche proposée par TRIBUTE pour améliorer la prédiction de la performance énergétique
des bâtiments comprend les étapes suivantes :
 Définir un modèle as-built. Pour un bâtiment neuf , il peut s’agir du modèle de
conception modifié lors de la phase de commissioning. En l’absence de modèle de
conception, le modèle as-built sera construit à partir d’un audit détaillé. L’outil de
simulation utilise est IDA-ICE, de la société EQUA [EQUAweb].
 Concentrer les données du bâtiments (données BMS, capteurs énergétiques, capteurs
d’ambiance, données météo) dans une base unique.
 Calibrer le modèle de simulation à partir des données. Cette calibration consiste en
diverses opérations : étude de sensibilité pour identifier les paramètres clés du bâtiment,
vérification de données BMS, insertion de signaux mesurés dans la simulation, calibration
manuelle, assistée ou automatique.
 Le modèle calibré peut ensuite être utilisé à diverses fins : suivi de la performance
énergétique, détection de fautes, aide au diagnostic, contrôle prédictif ou identification
automatique des solutions de rénovations les plus pertinentes.
Description des travaux réalisés – Résultats marquants.
Trois bâtiments tests ont été sélectionnés. Nous présentons dans la suite les travaux menés sur
un bâtiment de bureaux à La Rochelle.
La première étape a consistée à réaliser un audit détaillé du bâtiment et à développer le modèle
du bâtiment en IDA-ICE [DIA2015]. Plusieurs challenges ont été identifiés :

L’audit expert était très complet, mais il n’avait pas été realisé par des experts de l’outil
de simulation. Retrouver dans la masse de renseignements rassemblés les paramètres
nécessaires est long, conduit parfois à de mauvaises interprétations et nous avons du, à
la fin, revisiter le site pour compléter le modèle. Il serait souhaitable, pour rendre cette
étape plus efficace, de disposer d’un outil de recueil de données terrain adapté à la
programmation de l’outil de simulation (SimuWatt propose un outil pour Energy+).

La modélisation du bâtiment, en particulier de sa partie systèmes et contrôle, à donné
lieu à l’identification d’un certain nombre de défauts. Ce retro-commissioning est l’un
des avantages indirects évident du développement d’un modèle détaillé du
bâtiment. Cette étape de (retro)commissioning assisté par la simulation gagnerait pour
être efficace à disposer d’outils facilitant l’analyse, tel que PIA (voir par exemple
[SUN2015]).

Figure 1 : Modèle IDA-ICE du bâtiment Vaucanson, La Rochelle.
Enfin, la complexité du systèmes HVAC a été sur ce bâtiment le principal problème :
pompe à chaleur réversible sur nappe phréatique, réccupération en hiver de la châleur
produite par un datacenter avec réinjection forcée dans la bâtiment, réseau de
distribution complexe, pilotage manuelle de l’emission dans une partie des pièces…
Dans des approches simplifiées visant par exemple à prédire la consommation annuelle,
ou à étudier des options de rénnovation sur l’enveloppe par estimation du gain relatif,
un tel système serait typiquement modélisé de manière très simplifié. Mais pour analyser
plus finement la performance (détection de fautes, diagnostic, analyse fine des solutions
d’amélioration, y compris sur la partie HVAC, commande prédictive, etc.), un modèle
détaillé de cette HVAC spécifique est nécessaire. Le logiciel IDA-ICE permet le
développement de tel modèle détaillé, mais ce choix soulève deux nouveaux challenges :
le temps de développement d’un tel modèle (environ un mois dans notre cas) et
l’augmentatin significative du temps de simulation (ce dernier point pouvant être en
partie résolu par des approches de calcul parallèle sur lesquelles travaille EQUA).
Figure 2 : Architecture connexion IDA-ICE, plate-forme analytique et mesure.
Le premier développement logiciel a consisté en une toolbox Matlab permettant de modifier les
paramètres d’un modèle IDAICE, d’éxecuter des simulations et d’en exploiter les résutats. La
première application de cette toolbox a été l’automatisation d’études de sensibilité des
paramètres du modèle de bâtiment [OLI2015]. Ce type d’étude peut être menée à diverses
étapes du cycle de vie du bâtiment : définition du plan de mesure, identification des paramètres
clés pour la calibration, optimisation des actions de rénovation.
Conclusions et perspectives.
Sur la base des premiers travaux, le projet TRIBUTE développe de nouvelles applications
logicielles :

Aide à la calibration, par un ensemble de méthodes manuelles ou automatiques.

Suivi de la performance énergétique et analyse de défaut basés sur les capteurs seuls ou
sur une comparaison entre capteur et résultats de simulation.

Optimisation des flux d’énergie.

Estimation des solutions de rénovation (optimisation multi-objectifs).
Références
[COA2014] - Daniel Coakley, Paul Raftery & Marcus Keane. A review of methods to match building
energy simulation models to measured data, Renewable and Sustainable Energy Reviews, Volume
37 (2014) 123–141.
[DIA2015] - Thierno Diallo, Francis Allard, Patrick Béguery, Romain Brunet, Henri Obara, Franck
Bernier & Elisa Olivero (CSEM), Methodology to improve the energy performance prediction of
buildings-Case study, Proceedings of the 8th Mediterranean Congress of Heating, Ventilation and AirConditioning (Climamed 2015), Antibes Juan-les Pins, 2015.
[EQUAweb] - http://www.equa.se/en/.
[OLI2015] - Elisa Olivero, Emmanuel Onillon, Patrick Béguery, Romain Brunet, Sophie Marat and
Marc Azar, On Key Parameters Influencing Building Energy Performance, Proceedings of the 14th
International Conference of the International Building Performance Simulation Association, Hyderabad,
India, 2015.
[SUN2015] - Raghuram Sunnam, Annie Marston, Ben Burgoyne & Oliver Baumann, Utilizing sensor
trend data to overcome the challenges I ncalibrating a simulation model for measurement and
verificarion in a new construction project, Proceedings of Building Simulation 2015, Hyderabad,
2015.
[TRIweb] - http://www.tribute-fp7.eu/.
L’AVIS de l’expert
Les enjeux de la MPEB :
- Réconcilier performances prévues et performances observées, ce qui nécessite une
prévision plus juste au niveau de la conception, une mesure plus fine de la performance
réelle et des moyens permettant d’expliquer et corriger les écarts.
- Les outils de conception ne doivent pas seulement intégrer les caractéristiques physiques
de l’enveloppe et des équipements, mais également le contrôle de ces dernier et l’impact
des usages.
- Le bâtiment doit être instrumenté au plus juste en capteurs mesurant les consommations
énergétiques et les services rendus. L’accessibilité à des données propres, associées à
leur métadonnées, et un prérequis au déploiement de solutions analytiques de suivi de
la performance.
- Déterminer le bon niveau de détails de l’analyse de la performance. Les solutions
simples telles que la signature thermique du bâtiment sont faciles à déployer mais
possède un pouvoir explicatif très limitée. A l’inverse, les solutions utilisant des outils
de simulation détaillées peuvent être très puissantes mais leur mise en œuvre est
aujourd’hui trop laborieuse pour être systématisée.
- Pour assurer le suivi permanent de la performance, il faut des compétences IT pour la
gestion des données, des compétences logicielles pour l’utilisation des outils d’analyse
et une très bonne connaissance du bâtiment. Il est possible de rassembler ces
compétences pour un projet de recherche, ou pour une activité en mode start-up, mais
comment assurer leur déploiement concertée à large échelle.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
INSA Lyon
Centre d’energétique et de thermique de Lyon
(laboratoire de recherche académique)
Nom de
l’expert :
Fonction :
Christian GHIAUS
Professeur
universités
des
TITRE La base de comparaison = le verrou technologique des méthodes de mesure de
l’efficacité énergétique
Tout le monde s’accorde que le potentiel de l’amé ioration de l’efficacité énergé ique dans le bât ment
est important (une réduction de 20% - 50% de la consommation par ré abilitation et consommation nette
d’énergie é ale à zér pour les bât ments neufs dès 2020). Le problème majeur est que l’efficacité
énergétique des bâti ents ne peut pas ê re mesurée directement. Ce qu’on peut mesurer est la
consommation mais pas l’efficacité L’efficacité d’une solution peut être estimé en comparaison avec
les ré ultats qui auraient ét obtenus sans procé er à cette solution. Il s’agit donc d’une mesure
indirecte qui nécessite une base de ré éren e. Le verrou technologique à lever est d’obtenir, par des
mesures expérimentales et reproductibles, la base de ré éren e. Il est pré é able, mais pas obligatoire,
que la ré éren e soit donnée par un model du bâ iment ayant une structure obtenue à partir des
considérations physiques et des paramètres avec une distribution de probabilité connue ou, quand elle
n’est pas connue, identifiable expérimentalement. Les problèmes scientifiques à ré oudre sont reliés à
1. la construction du modèle :
- trouver la structure du modèle,
- définir les mét odes pour identifier expérimentalement ses paramètres physiques
2. l’exploitation du modèle : une fois le modèle physique disponible, il faut qu’on puisse lui
appliquer les bonnes entrées qui sont donné s par des mesures avec des capteurs distribué et
par les comportements des usagers.
Contexte
Conformément à la lé islation, l’évaluation de l’efficacité é ergé ique est demandée pour accorder le
permis de construire et elle est véri iée à l’achèvement des travaux. Mais il y a des verrous
technologiques importants qui bloquent l’application de cette procédure d’estimation-véri ication. L’ét de
thermique est faite par rapport à des scé arios d’usage type et ne repré ente pas la consommation
ré lle, qui dépend des conditions effectives d’usage. Comme actuellement il n’y a pas de moyen pour
mesurer les usages réels, l’attestation à l’achèvement des travaux a une partie formelle (par ex. bons
des livraisons) et une partie expérimentale : la mesure de permé bilité à l’air dans des conditions
standard. Il faut néanmoins noter que la permé bilité à l’air dépend beaucoup de l’usage (par ex.
l’ouverture des fenêtre ou changement de débits des ventilateurs). En ré umé, la procédure actuelle
fait une estimation dans des conditions « types » et ne vérifie pas le niveau effectif d’efficacité
énergétique.
En analysant la rentabilité des investissements europé ns consacré à l’efficacité é ergét que, la Cour
des Comptes Europé nne recommande à la Commission Europé nne le suivi régulier avec des
indicateurs de performance comparable entre eux et le recours à des critères transparents pour
sé ectionner les projets. Les é onomies d’é ergie ne peuvent pas être directement mesurée ét nt
donné qu’elles repré entent l’absence de la consommation. Elles sont estimé s par comparaison entre
la situation d’avant et d’après l’implé entation d’une solution d’efficacité é ergét que. Les conditions
sont reproductibles pour la simulation dans la phase de conception, mais elles ne sont plus
reproductibles pour la véri ication des performances effectives dans la phase d’exploitation. Dans le cas
de la réhabilitation, les conditions d’avant et d’après l’implé entation d’une mesure d’efficacité
é ergét que sont différent s.
Positionnement par rapport à l’état de l’art
Comme les conditions de mesure de la
consommation ne sont pas reproductibles
dans le temps, des ajustements adé uats
doivent être effectués pour tout changement
affectant la consommation d’é ergie. Le
verrou scientifique à lever pour rendre
applicable
l’évaluation
de
l’efficacité
é ergét que est la procé ure d’ajustement. Le
plus simple ajustement est pour la mét o en
utilisant les degré -jours unifié . Le modèle du
bâtiment utilisé dans ce cas est statique et
constitué uniquement par son coefficient global
de transfert de chaleur. L’avantage de la
mét ode est que ce coefficient peut être
déterminé dans la phase de conception et
mesuré
experimentalement
durant
l’exploitation. Le désavantage est que les
autres entrées du modèle, notamment les
usages et la ré ulation, ne sont pas prises en
compte.
Une autre approche est utilisé pour le
Diagnostique des Performances Energé iques
(DPE). Le principe est de cré r un modèle de
comportement thermique à partir de la
description du bâtiment en utilisant les plans
d’architecture (dans le cas de la conception)
ou par inspection in situ (dans le cas de l’audit
é ergét que d’un bât ment existent). Une fois
ce modèle construit, on lui applique des
entré s conventionnelles, on simule pour un an et on estime la consommation. Mais la différen e entre
les ré ultats de la simulation et les mesures est très importante. Les causes de ces différences sont
dues aux entrées et au modèle. Les erreurs dans les entré s proviennent de la différen e entre les
entré s ré lles et celles conventionnelles utilisé s en simulation. Les erreurs dans le modèle sont dues
aux valeurs considérées pour les paramètres mais surtout à l’usage du bâtiment (qu’il s’agit des actions
manuelles des usagères ou des actions automatiques de la GTB). En effet, différent paramètres sont
changé en temps ré l pendant l’exploitation par les occupants et/ou les systèmes de contrô ecommande (par exemple les gains par rayonnement solaire, les taux de ventilation, la vitesse de l’air, les
sources internes, etc.).
Les enjeux de la Mesure des Performances Energétiques des Bâtiments
1) Obtenir les modèles de référence à partir de mesures
- mesure des entrées qui ne sont pas disponibles actuellement : sources internes (occupants,
sources thermmiques autre qu’électriques), débits d’air ;
-
identification experimentale des paramètres physiques des modèles : définir les conditions
d’observabilité et mesurabilité ;
2) Obtenir les valeurs de référence en utilisant le modèle :
- mesure des entrées necessaire pour le modèle.
3) Méthodes pour l’estimation de l’érreure de mesure.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Association Régionale
Biomasse Normandie
Association loi 1901
Nom de l’expert :
Paul CALBERG-ELLEN
Fonction :
Chargé d’études
Analyse statistique de données de consommation d’énergie, pour le calcul de
l’économie d’énergie
Contexte et enjeux
La communication proposée fait état d’une analyse de quelques méthodes utilisées pour isoler, lors de
l’analyse des consommations d’énergie d’un bâtiment, ce qui a trait à l’efficacité énergétique de ce qui a
trait à l’usage, aux services rendus. Cette analyse est selon nous importante car un très grand nombre
de pratique dans le domaine du management énergétique s’attache plus au suivi de la performance
énergétique (en tant qu’évolution) qu’à la mesure de la performance énergétique à un instant t. C’est
typiquement le cas lorsque que l’on considère l’obligation de travaux dans le secteur tertiaire.
Les analyses présentées sont du ressort de la "mesure et vérification", définies comme "processus
permettant de déterminer et de valider de façon méthodique l’évolution de la performance énergétique à
l’intérieur d’un périmètre défini"» (AFNOR, 2016).
Description des travaux
L’étude réalisée porte sur un échantillon de 268 bâtiments. Les données relatives à ces bâtiments ont
été collectées auprès de différents organismes (maîtres d’ouvrage, bureaux d’études, syndicat
départemental d’énergie, etc). Elles incluent systématiquement les consommations mensuelles
d’énergie sur 12 mois minimum. La destination du bâtiment, sa localisation, le type d’usage associé aux
consommations d’énergie (chauffage / chauffage+ECS / etc) et quelques autres informations ont
également été recueillies.
A chaque bâtiment a été associée une série mensuelle de DJU, en fonction de sa localisation.
Un modèle de régression linéaire a ensuite été construit sur les 12 premières données disponibles pour
chaque bâtiment. Différents indicateurs de qualité des modèles ont été calculés et analysés.
Lorsqu’elles étaient disponibles, les données de consommation sur les 12 mois suivants immédiatement
les 12 mois utilisés pour construire le modèle de régression ont permis de calculer l’évolution de la
consommation d’énergie entre les deux périodes ainsi que l’incertitude élargie associée à cette
évolution. Cette évolution a été comparée à l’évolution donnée par l’utilisation d’une "règle de trois" sur
les DJU, cette "règle de trois" étant d’application très courante dans les milieux professionnels en lien
avec l’efficacité énergétique des bâtiments (exploitants, bureaux d’études, etc).
Nous avons ensuite cherché à mettre en perspective certains indicateurs définis dans des textes de
référence sur les opérations de mesure et vérification.
Résultats marquants obtenus
Calcul des économies d’énergie par utilisation d’une règle de trois sur les DJU
Des articles de Roger Cadiergues, au COSTIC, démontrait dans les années 50 à 80 la relation affine,
voire strictement proportionnelle, qui existait entre les consommations de chauffage des bâtiments et les
DJU - on rappelle au passage que le U, pour unifié, implique une température de référence de 18 °C
(Cadiergues, 1986). Ces démonstrations étaient à la fois théoriques et expérimentales. Elles étaient
assorties de commentaires précisant, comme il se doit, ce qui pourrait être appelé les limites de validité
de la technique des DJU. Roger Cadiergues soulignait ainsi en 1986 que "les interventions beaucoup
plus fréquentes sur les températures intérieures, l’accroissement d’importance des chaleurs gratuites, la
plus grande variabilité des durées de chauffe font que la définition des degrés-jours devient de plus en
plus conventionnelle (…)" (Cadiergues, 1986). Or les DJU sont très souvent utilisés aujourd’hui pour
évaluer l’évolution des consommations d’une année sur l’autre, grâce à une simple "règle de trois" dans
la formule :
𝐸𝑐𝑜𝑛𝑜𝑚𝑖𝑒 𝑒𝑛𝑡𝑟𝑒 𝑎𝑛𝑛é𝑒 (𝑁 + 1) 𝑒𝑡 𝑎𝑛𝑛𝑛é𝑒 𝑁 = 𝐸1
𝐷𝐽𝑈 𝑎𝑛𝑛é𝑒 (𝑁 + 1)
= 𝐶𝑜𝑛𝑠𝑜𝑚𝑚𝑎𝑡𝑖𝑜𝑛 𝑎𝑛𝑛é𝑒 𝑁 ×
− 𝐶𝑜𝑛𝑠𝑜𝑚𝑚𝑎𝑡𝑖𝑜𝑛 𝑎𝑛𝑛é𝑒 (𝑁 + 1)
𝐷𝐽𝑈 𝑎𝑛𝑛é𝑒 𝑁
Équation 1
Cette "règle de trois", très simple dans son application, correspond cependant à la considération
implicite que la relation entre la consommation et les DJU est strictement proportionnelle.
Sur notre échantillon de bâtiments, lors de la construction du modèle de régression linéaire, nous avons
calculé la "p-value" associée à la constante b du modèle consommation = a x DJU + b. Pour les
bâtiments dont on suit les consommations d’énergie dédiées au chauffage uniquement, dans 92 % des
cas on ne peut pas rejeter l’hypothèse que b=0 (au risque α = 10 %). Ce pourcentage est de 76 % pour
des consommations d’énergie correspondant au chauffage et à d’autres usages chaleur (ECS et cuisine)
et de 53 % lorsque l’on mesure des consommations d’électricité qui couvrent l’ensemble des usages.
Si l’on prend b=0 dans les cas où la statistique est favorable (p-value de b > 0,1), on constate que dans
environ 2/3 des cas, quel que soit l’usage de l’énergie considéré, le choix de b=0 permettra de réduire le
CV(RMSE), et donc l’incertitude associée aux calculs d’économie d’énergie. Mais dans 1/3 des cas, il
vaudra mieux opter pour un modèle avec b non-nul afin de réduire l’incertitude.
Comparons maintenant l’écart de consommation d’une année sur l’autre, en fonction du modèle retenu :
nous considérons ici que si l’on ne peut pas rejeter l’hypothèse que b = 0 et que le choix de b = 0 permet
de réduire l’incertitude par rapport à un modèle affine, la "règle de trois" est le bon modèle à appliquer.
Dans le cas contraire1 nous considérons que le modèle affine (b ≠ 0) donne des résultats plus "justes",
et nous souhaitons comparer les résultats obtenus par cette approche aux résultats obtenus par
l’approche "règle de trois".
L’équation utilisée pour calculer l’économie calculée selon le modèle affine est la suivante :
12
12
𝐸𝑐𝑜𝑛𝑜𝑚𝑖𝑒 𝑒𝑛𝑡𝑟𝑒 𝑎𝑛𝑛é𝑒 (𝑁 + 1) 𝑒𝑡 𝑎𝑛𝑛𝑛é𝑒 𝑁 = 𝐸2 = ∑ 𝑓(𝐷𝐽𝑈(𝑖)) − ∑ 𝐶𝑜𝑛𝑠𝑜𝑚𝑚𝑎𝑡𝑖𝑜𝑛 𝑚𝑜𝑖𝑠 𝑖
𝑖=1
𝑖=1
Équation 2
Avec consommation mois i = f(DJU(𝑖)) = a × DJU(𝑖) + b, et où i désigne les mois de l’année N+1.
Le Tableau 1 synthétise les résultats de cette comparaison, pour des sous-échantillons réalisés en
fonction de l’usage associé aux consommations analysées (chauffage / chauffage + autres usages
chaleur (cuisine et ECS) / Tous usages (électricité) / Usages divers hors chauffage). On y trouve
également une indication de la moyenne et de la médiane des valeurs absolues des économies
calculées sur les sous-échantillons.
Tableau 1 : Écarts entre les économies calculées selon un modèle de régression linéaire (« méthode
mensuelle »)
et selon un modèle strictement proportionnel (« méthode annuelle »)
1
Nous avons donc choisi de retenir des modèles affines (b ≠ 0) si b était statistiquement significatif (au risque α = 10
% - soit p-value de b <0,1) ou si b n’était pas statistiquement significatif mais que le choix de b ≠ 0 permettait de
réduire l’incertitude.
On constate que sur le sous-échantillon "chauffage", l’écart entre les économies calculées selon les
deux méthodes est de 1,4 %, pour des économies en moyenne de l’ordre de 11 % et en médiane de
l’ordre de 8 %. Cet écart est non négligeable, mais correspond "seulement" à une erreur de 10 à 20 %.
Sur les autres sous-échantillons en revanche, l’écart moyen est beaucoup plus important (erreur > 50 %).
Si les résultats sur le sous-échantillon "chauffage" semblent plutôt rassurants (pour les économies
déclarées dans la pratique usuelle…) en moyenne, ils cachent une dispersion qui peut conduire à
déclarer une économie de -2 % selon l’équation E1 alors que l’équation E2 donne une économie de
+2 %, ou de -8 % à la place de -3 %....
Lien entre incertitude de prédiction et CV(RMSE)
On peut montrer que la relation entre incertitude élargie et coefficient de variation de l’erreur-type du
modèle est donnée en première approximation, pour un modèle mono-paramétrique, par :
𝑈𝑒𝑙𝑎𝑟𝑔𝑖𝑒 ≈
𝑘
√𝑚
× 𝐶𝑉(𝑅𝑀𝑆𝐸)
Équation 3
Avec k le facteur d’élargissement et m le nombre de périodes dans la période de projection.
Sur l’ensemble de notre échantillon, l’approximation générée en pratique par cette formule est inférieure
à 4 % en valeur absolue, valeur atteinte pour des incertitudes élargies de l’ordre de 50 %.
La valeur du CV(RMSE), facilement accessible dès l’établissement du modèle, peut dès lors être
envisagée comme une lecture très rapide de l’incertitude associée au modèle lors des futurs calculs de
l’économie d’énergie. Cette analyse permet de considérer de manière plus dynamique la définition d’une
valeur repère pour le CV(RMSE) (voir discussion dans les paragraphes ci-dessous).
Analyse des indicateurs de qualité des modèles
On trouve dans les documents de référence (AFNOR, 2016) (Efficiency Valuation Organization, June
2014) des repères pour juger, à travers quelques indicateurs, de la qualité d’un modèle de régression
linéaire établi sur des consommations d’énergie.
Pour le CV(RMSE), la valeur de 20 % est citée comme une valeur-repère maximum.
Les cas présentant une valeur de CV(RMSE) inférieure à cette valeur seuil représentent de l’ordre de
30 % des cas, sur nos différents échantillons et sous-échantillons. L’application stricte de la valeur de
référence 20 % laisse donc de nombreux cas de côté. Mais on a vu plus haut quel était le sens de la
valeur CV(RMSE) : elle est directement liée à l’incertitude associée au résultat de calcul d’économie. Ce
seuil de 20% peut donc être modulé en fonction de l’objectif à atteindre en termes d’incertitudes, qui
dépend aussi du niveau de confiance retenu et du nombre de données dans la période de référence.
Concernant le R², la valeur citée comme valeur-seuil est de 75 %.
Sur notre échantillon complet (268 bâtiments), les R² supérieurs à 0,75 sont au nombre de 157, soit
58 % de l’échantillon. A l’autre bout de la chaîne, 41 bâtiments présentent des R² < 0,5. Sur les
échantillons restreints aux usages chauffage ou chauffage+autres usages chaleur, on constate que la
proportion des valeurs élevées de R² augmente légèrement, mais surtout que les valeurs R² < 0,5 sont
quasiment absentes.
Conclusion / perspectives
L’analyse de données de consommations mensuelles d’énergie sur 268 bâtiments a permis de mettre en
évidence que, dans un grand nombre de cas, le calcul d’économie d’énergie s’appuyant sur une "règle
de trois" sur les DJU génère des résultats significativement différents de l’utilisation d’une régression
linéaire. Cette conclusion est valable pour tout type de bâtiments et pour tous usages de l’énergie,
incluant même des usages dédiés au chauffage uniquement. Certains peuvent juger que la complexité
(toute relative) de la modélisation linéaire justifie dans certains cas le recours à des formules simplifiées
et conventionnelles. Mais il nous semble qu’a minima dans les cas d’obligations réglementaires et pour
déclarer des pénalités financières2, l’utilisation systématique d’une analyse statistique, pouvant être
souvent relativement simple, est nécessaire pour les calculs d’économie d’énergie. Cette utilisation des
notions simples d’analyse statistique devra permettre aux personnes réalisant des calculs d’économie
d’énergie de s’interroger sur le meilleur modèle à construire et de vérifier et de valider le modèle
sélectionné, même s’il peut parfois, au final, être aussi simple qu’une "règle de trois" sur les DJU.
Quelques autres points ont été abordés dans cet article. En particulier l’analyse des indicateurs de
qualité des modèles obtenus sur notre échantillon montre que, pour respecter les préconisations des
documents de référence en la matière, il est nécessaire, sur une proportion non négligeable de
bâtiments, d’établir des modèles plus "fins" que de simples régressions linéaires sur 12 mois consécutifs
utilisant comme seul régresseur les DJU. Cela peut nécessiter l’utilisation (et donc l’obtention)
d’informations supplémentaires sur les consommations d’énergie et sur d’autres variables explicatives
(occupation, durée de fonctionnement des différents régimes, etc.).
Le travail gagnerait selon nous à être approfondi sur plusieurs axes, tels que l’examen des hypothèses
« LINE » ou l’analyse des différences sur le résultat du calcul d’économie d’énergie et la réduction des
incertitudes engendrées par l’utilisation de modèles plus "fins" : modèles linéaires à plusieurs
paramètres, modèles linéaires par morceaux, utilisation de périodes de référence de plusieurs années,
etc. Il pourrait par la suite être prolongé par la mise à disposition d’outils permettant la montée en
compétences des personnes devant réaliser des calculs d’économies d’énergie.
Obligation d’audit pour les entreprises pouvant être levée par la mise en place d’une démarche répondant aux exigences de la
norme ISO50001, obligation de travaux dans les bâtiments tertiaires
2
CPE ou marchés d’exploitation avec intéressement
1
Bibliographie
1. AFNOR. FD X 30-148. Techniques de détermination des économies d'énergie et incertitudes
associées. 2016.
2. Cadiergues, Roger et Olive, G. Projet de normalisation d'une formule des degrés-jours. Promoclim E Études Thermiques et Aérauliques. Février 1979, Vol. TOME 10E, N°1.
3. Cadiergues, Roger. Consommation de chauffage : les températures extérieures. PROMOCLIM E.
Septembre 1986, Vol. Tome17, N°4.
4. Efficiency Valuation Organization. International Performance Measurement and Verification Protocol.
Statistics and Uncertainty for IPMVP. June 2014.
L’AVIS de l’expert
La performance énergétique des bâtiments et sa mesure sont des notions très relatives. Elles dépendent
d’un grand nombre de conventions. La discussion ci-dessus sur le calcul des économies d’énergie et sur
les écarts constatés selon la méthode de calcul choisie l’illustre. Mais l’on peut également citer par
exemple la réglementation thermique et - en partie, l’établissement des diagnostics de performance
énergétique : le choix s’est porté sur la considération d’indicateurs calculés indépendamment de
l’utilisation réelle du bâtiment, pour des raisons tout à fait compréhensibles. Or le poids de cet usage
devient très important dans les consommations des bâtiments performants de logements, et c’est déjà le
cas dans les bâtiments tertiaires - voir par exemple "Situation énergétique d’un échantillon d’immeubles
de bureaux du parc privé", Manexi, 2012.
Un enjeu très important pour la MPEB dans les années à venir est donc celui de la prise en compte de
l’utilisation du bâtiment, permettant d’une part de bien isoler l’amélioration de l’efficacité énergétique
d’une évolution de l’usage du bâtiment (restant encore à prouver que cette évolution de l’usage s’inscrit
tout de même dans une utilisation rationnelle des ressources),et d’autre part de pouvoir définir une
échelle
de
performance
adaptée
à
chaque
usage,
pour
fournir
aux
maîtres
d’ouvrage/exploitants/utilisateurs des repères pertinents.
Les mesures de performance intrinsèque tel que le niveau global d’isolation du bâtiment, etc sont une
façon de répondre à cet enjeu, en isolant certains des contributeurs de l’efficacité énergétique du
bâtiment. Le développement et la diffusion de méthodes statistiques ou de méthodes numériques,
vraisemblablement à plus long terme, pour le calcul des économies d’énergie peuvent également y
contribuer.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
CSTB
Nom de l’expert :
Rofaïda LAHRECH
Centre Scientifique et Technique
Fonction :
Ingénieur Etudes et
Recherches
TITRE
Méthodologie de comparaison calculs – mesures intégrant l’analyse de sensibilité et la
propagation d’incertitudes (ISTHME)
Contexte et enjeux :
Dans le contexte actuel d’objectifs ambitieux pour la réduction des consommations d’énergie et des
émissions de gaz à effet de serre pour le secteur bâtiment, une mutation profonde s’est engagée aussi
bien en construction neuve qu’en rénovation pour passer d’une exigence de moyens en phase
conception à une exigence de résultats tout au long de la vie des bâtiments. Les bâtiments doivent tenir
leurs promesses de performance visée entre le prévisionnel et le réel. Il est essentiel de réduire au
maximum le décalage aujourd’hui observé entre les consommations théoriques ‘prévisionnelles’ et les
consommations réelles : la haute performance énergétique ne pourra réellement percer que si les maitres
d’ouvrage ont la certitude d’obtenir les gains financiers prévisionnels dus aux réductions des
consommations d’énergie.
Dans ce contexte, la question de fiabilité de la méthode de calcul réglementaire basée sur le cœur de
calcul COMETH1 s’est posée. Il s’agit de savoir si le modèle COMETH permet de rapprocher les
performances calculées aux performances réelles quand on introduit en données d’entrée les
caractéristiques thermiques intrinsèques du bâtiment suivi, les scénarios d’usage et de comportement
issus des mesures et les données météo enregistrées sur le site. Les incertitudes, et sur les données
d'entrée de la méthode, et sur les résultats mesurés ne pouvant pas toujours être réduites à une valeur
très faible, l'étude de la concordance doit intégrer un aspect de comparaison entre les résultats observés
et les résultats calculés en tenant compte des incertitudes des données d’entrée de la méthode et des
incertitudes sur les données mesurées et celles observées.
Ainsi, une méthodologie de comparaisons calculs - mesures intégrant l’analyse de sensibilité et la
propagation d’incertitudes a été développée et appliquée à des bâtiments pour lesquels on dispose de
deux années de suivi (bâtiments du panel PREBAT). Cette méthodologie nommée ISTHME a été
construite pour permettre de comprendre les écarts calculs – mesures afin de répondre à la question
initialement posée sur l’évaluation de la pertinence du modèle COMETH, les propositions éventuelles
d’amélioration de certains algorithmes de COMETH, mais aussi pour tirer les enseignements sur les
suivis de bâtiments, sur l’utilisation de COMETH pour le calcul en phase conception d’un bâtiment et
l’aide à la mise en place d’un suivi de bâtiment ou d’un plan de mesures et vérification en phase
exploitation d’un bâtiment.
Description des travaux réalisés
La méthodologie de comparaison calculs mesures développée repose sur deux concepts fondamentaux :
Concept 1 : les comparaisons calculs - mesures se font non sur une valeur calculée et une valeur
mesurée de la variable d’intérêt (consommation de chauffage par exemple) mais sur une distribution
probable calculée et une distribution probable mesurée de la variable d’intérêt. Ainsi la prise en compte
des incertitudes des données et leurs propagations sur les résultats de calculs et/ ou des mesures est un
1
COMETH : cœur de calcul énergétique dynamique multi applicatifs, développé par le CSTB.
élément clé de la méthodologie de comparaison calculs – mesures.
Concept 2 : les comparaisons calculs – mesures se font d’une part sur une base annuelle et d’autre part
sur une base mensuelle en traitant chacun des 5 usages RT séparément, ceci pour ‘réduire les faux
positifs’ c’est-à-dire des compensations d’erreurs qui aboutiraient à un résultat global correct alors qu’il
pourrait être erroné dans ses détails.
La méthodologie se décompose en 3 étapes précédées d’une étape 0 qui permet de vérifier à dire
d’experts la fiabilité des résultats de mesures en distinguant les cinq postes et en traçant l’évolution
mensuelle de ces consommations mesurées.
La première étape consiste en une comparaison calculs- mesures sur une base mensuelle et par usage
mais sans prise en compte des incertitudes, ceci permet de détecter et de corriger les éventuelles erreurs
de modélisation ou de traitement des données mesurées.
La deuxième étape consiste à effectuer une analyse de sensibilité sur les données d’entrée de la
méthode de calcul en les prenant séparément et une étude de sensibilité en considérant des
groupements de variables (8 groupements de variables ont été définis) . Dans cette étape, les
incertitudes sur la consommation mensuelle et annuelle mesurées sont évaluées. Les lois de distribution
des incertitudes sur les données d’entrée sont soit uniforme, rectangle ou trapèze selon l’origine et les
sources des incertitudes.
A l’issue de cette étape, on calcule pour les 8 groupements de paramètres, l’incertitude ‘résultante’, ce
sont ces 8 groupements de paramètres qui seront traités en étape 3.
La troisième étape consiste à la comparaison calculs – mesures, avec incertitudes croisées (propagation
d’incertitudes, sur une base annuelle et également mensuelle.
A partir des paramètres les plus influents identifiés dans l’étape 2, on construit un plan d’expérience
factoriel fractionnaire qui permet de mettre en évidence parmi les facteurs étudiés, ceux qui ont une
influence sur la réponse, ainsi que d’éventuelles interactions entre les facteurs. Le plan fractionnaire
permet de réduire le nombre d’expériences à réaliser en négligeant les coefficients d’ordre élevé du
modèle, correspondant aux interactions de grand ordre (intégrant un grand nombre de facteurs).
Un méta modèle est alors établi sur la base de ces expériences sous la forme :
y= μ + ∑𝑖=1à 8 𝑎𝑖 ∗ 𝑥𝑖 + ∑ 𝑖=1à 8 𝑎𝑖𝑗 ∗ 𝑥𝑖 ∗ 𝑥𝑗
𝑗=1 à 8
la propagation d’incertitudes est alors effectuée sur le méta modèle
Résultats
La méthodologie a été appliquée sur un bâtiment de bureaux avec chauffage par PAC air-eau ; une
maison individuelle avec chauffage au gaz par chaudière à condensation et un bâtiment de logemnts
collectifs avec chauffage individuel au gaz.
Toutes les étapes de la méthodologie ont abouti et pour chacun des bâtiments, les analyses ont donné
lieu à des conclusions partielles ou des explications spécifiques au bâtiment concerné qui ne permettent
pas aujourd’hui une généralisation. Cependant, quelques premiers enseignements ont pu être tirés. Le
travail se poursuit sur 5 autres bâtiments du panel PREBAT.
Les graphiques ci-dessous pour le bâtiment de bureaux illustrent le type de résultats obtenus :
Comparatif mensuel des consommations
de chauffage sans incertitudes – Etape 1
Résultats de l’Analyse de sensibilité unitaire
sur les consommations de chauffage – Etape 2
Comparaison des consommations mensuelles
de chauffage avec incertitudes – Etape 3
Résultats de l’Analyse de sensibilité des
groupements de variables sur la
consommation de chauffage - Etape 2
Comparaison de la consommation annuelle de
chauffage avec incertitudes – Etape 3
Conclusions/perspectives :
L’analyse et le traitement des résultats sur ces trois bâtiments n’est pas à ce jour complètement finie,
d’autre part, le travail se poursuit sur 5 autres bâtiments du panel PREBAT.
Il en ressort en premiers enseignements qu’une attention particulière doit être faite quand il s’agit de
comparer des mesures à des résultats de calcul. L‘étape 1, a par exemple montré au regard des
comparaisons brutes des évolutions d’une grandeur donnée, qu’il fallait reconsidérer certaines valeurs
mesurées, elles ne correspondent en effet pas à l’unique grandeur sensée être mesurée. D’autre part,
pour ce e travail, des investigations complémentaires ont été faites auprès soit du bureau d’études qui a
travaillé sur la conception du bâtiment soit auprès du maître d’ouvrage pour apporter des éléments précis
complémentaires qui expliquent les premiers écarts observés entre le calcul et la mesure et améliorent
certaines données d’entrée du modèle ( exemple : débit de ventilation variable en réalité alors que
considéré constant dans le calcul, gestion spécifique des stores, gestion très minutieuse mais manuelle
de l’éclairage, etc.)
Références
Rapport : Développement d’une méthodologie de comparaison calculs-mesures intégrant l’analyse de
sensibilité et la propagation d’incertitudes- projet ISTHME, ESE/DE/PEB-2015.097RE, convention
ADEME n°1404C0002
L’AVIS de l’expert
Aujourd’hui, les enjeux de la mesure au service de la performance énergétique sont très forts, ils
présentent un apport considérable dans la compréhension de certains phénomènes observés, dans
l’amélioration des outils de calcul, dans la mise au point et le réglage d’équipements pour une utilisation
optimale et dans le suivi des dérives éventuelles de fonctionnement des installations énergétiques ou de
l’usage du bâtiment et le comportement de ses occupants :
-
Amélioration de la connaissance : cela peut concerner la connaissance de performance effective
des bâtiments et les éléments qui s’y attachent (usage et comportement de l’usager par
exemple, performance des systèmes, etc.), l’amélioration de méthodes et outils de l’évaluation
de la performance énergétique et leurs données d’entrée, ou d’autres thèmes encore. Que les
mesures concernent un grand échantillon pour des traitements statistiques ou un faible
échantillon pour des traitements spécifiques, une attention particulière sur les variables à
mesurer, les moyens de les mesurer est très importante. L’’enseignement du projet ISTHME
montre les difficultés éventuelles lors de l’exploitation des résultats de suivis : pertinence des
variables du suivi, méthode de suivi, éléments ‘perturbateurs‘ (exemple : consommations de
chauffage au gaz mesurées très faibles mais constat une fois le suivi réalisé de la présence de
poêles à bois, comportement très atypique des occupants tel que absences de longues durée,
etc.)
-
Aide au réglage des équipements, aide à la détection du dysfonctionnement de certaines
installations, aide à définition d’un plan de rénovation énergétique du bâtiment lors d’un audit
énergétique. Selon les cas, ces mesures sont ponctuelles ou sur des périodes plus longues.
Elles sont dans tous les cas bénéfiques et permettent dans certaines situations d’être
complémentaires à des méthodes de calcul ou servir à les ‘calibrer’.
-
Aide au suivi de la performance énergétique et aux corrections des dérives éventuelles,
nécessaire dans le cadre d’un contrat de garantie de performance ou pour des maîtres
d’ouvrage soucieux de la performance de leur bâtiment et sa pérennité dans le temps
A noter que les modèles de calculs avec AS et PI peuvent constituer une aide pour la définition des
mesures pour la performance énergétique des bâtiments
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Laboratoire de recherche
Nom de l’expert : Bruno PEUPORTIER
Fonction : Responsable scientifique
TITRE : Associer mesures et simulation énergétique dynamique pour évaluer la PEB
Contexte et enjeu
Les consommations de chaleur et d'électricité peuvent être mesurées, ainsi qu'une éventuelle
production (par exemple issue de sources renouvelables), mais la performance d'un bâtiment
implique de prendre en compte les usages et les comportements : la consommation mesurée
dépend du climat, de la performance de l'enveloppe et des équipements, mais aussi des
consignes de température et de la consommation d'eau chaude sanitaire par exemple. La
mesure de la performance nécessite alors des mesures concernant l'usage. Mais certains
aspects sont difficiles à mesurer, et certaines mesures présentent des incertitudes importantes.
La simulation énergétique peut alors compléter la mesure afin de mieux comprendre le
fonctionnement d'un bâtiment et d'évaluer sa performance de manière plus pertinente.
Travaux réalisés
Des outils de simulation énergétique dynamique ont été développés au CES (Centre Efficacité
énergétique des Systèmes) depuis de nombreuses années. La fiabilité de ces outils a été
évaluée dans le cadre de différents bancs d'essais logiciels, par exemple la procédure BesTest
de l'Agence Internationale de l'énergie (Munaretto, 2014) et par comparaison à des mesures, y
compris dans le cas de bâtiments passifs (cf. par exemple le projet ANR Fiabilité).
La technique de réduction de modèle mise en œuvre a permis de réaliser des simulations
multizones avec un faible temps de calcul, ce qui permet d'effectuer des analyses de
sensibilité et d'incertitude, ou d'appliquer des techniques de calibrage de modèle. Ces
techniques ont été mises en œuvre dans le projet de la FBE sur la Garantie de performance
énergétique (GPE), et dans le cadre des projets ANR Preccision et Omega.
Les outils mentionnés ci-dessus ont été utilisés dans plusieurs opérations expérimentales, en
particulier des projets de démonstration où la performance des bâtiments a été mesurée afin
d'évaluer l'intérêt de certaines technologies innovantes : par exemple dans le cadre des projets
européens REGEN LINK (réhabilitation d'un immeuble HLM à Montreuil, 93) et BestCert
(réhabilitation d'un lycée à Paris), de l'étude de techniques d'isolation transparente (maisons à
Mouzon, Ardennes), de ventilation naturelle (maison Air et Lumière à Verrières, 91).
Les résultats des travaux sont diffusés via un éditeur de logiciels (cf. www.izuba.fr) et des
activités d'enseignement (cf. par exemple le projet européen TREES).
Résultats obtenus
La communication se base sur des exemples concrets, en particulier la réhabilitation d'un
immeuble de logements à Feyzin (69) et l'étude d'une maison à énergie positive à Verrières
(91). L'objectif est d'élaborer un dispositif permettant la mesure et la vérification de la
performance des bâtiments. Il s'agit d'une contribution méthodologique, qui ne concerne pas
les techniques de métrologie mais plutôt la sélection et l'utilisation des mesures en lien avec
l'usage de la simulation numérique.
La procédure de garantie de performance énergétique étudiée (projet FBE) dans le cas de
l'immeuble de Feyzin (16 logements) inclut l'identification des paramètres les plus influents,
par la méthode de criblage de Morris, la propagation d'incertitudes par une méthode de type
Monte Carlo, et le développement de polynômes d'ajustement sur quelques variables
extrinsèques.
Des modèles stochastiques et statistiques ont été développés pour modéliser le comportement
des occupants : scénario de présence, consignes de température, consommations d'eau chaude
et d'électricité (électroménager, bureautique...) et apports internes correspondants, ouverture
des fenêtres et gestion des protections solaires, etc. (Vorger, 2014). Ces modèles peuvent
contribuer à améliorer la pertinence des outils de simulation, comme le montre l'application
au cas de Feyzin.
35%
Incertitude sur les consommations de chauffage et d'ECS
30%
25%
PDF
20%
15%
10%
5%
0%
kWh/m²
Modèle thermique
Occupation
Modèle thermique + Occupation
Mesures
L'application d'une procédure de calibrage bayésien permet de réduire les écarts entre les
calculs et les mesures. Le calibrage de modèle permet ainsi de mieux comprendre le
fonctionnement d'un bâtiment, et le modèle calibré peut être utilisé pour évaluer le bilan
énergétique, mais aussi le niveau de confort thermique. Cette méthode a été appliquée pour
valider des modèles (Recht, 2014), en particulier dans le cadre du projet ANR Fiabilité qui a
permis de mener des analyses de sensibilité et d'incertitudes concernant la simulation
thermique dynamique appliquée à la plate forme INCAS à Chambéry (73).
Dans le cas de la maison Air et Lumière construite à Verrières (91), des mesures ont été
effectuées afin d'évaluer le taux de renouvellement d'air et la performance du dispositif de
ventilation naturelle mis en œuvre en termes de confort d'été (Dupin et al., 2014). Les mesures
ont été comparées aux résultats d'un modèle aéraulique couplé à la simulation thermique.
Dans un projet de maisons à énergie positive, les mesures sont sélectionnées pour permettre
d'évaluer les consommations d'énergie (chauffage, eau chaude sanitaire, électricité) et la
production d'électricité photovoltaïque, mais aussi certaines variables extrinsèques concernant
le climat (température extérieure) et les usages (températures intérieures séjour et une
chambre, consommation d'eau chaude). Une performance correspondant à un bilan
énergétique positif sur l'année, dans des conditions climatiques et pour un usage donné, peut
être garantie : la vérification de la performance met alors en œuvre une procédure
d'ajustement sur les variables extrinsèques. Dans cet exemple, le nombre de mesures est
volontairement réduit afin de limiter les coûts : il s'agit de maisons individuelles. Des étude de
sensibilité pourraient être menées afin de savoir si les incertitudes pourraient être réduites
grâce à des mesures supplémentaires (par exemple le rayonnement solaire, l'ouverture des
fenêtres, le nombre d'habitants et le profil d'occupation etc.).
La performance des équipements, en particulier des systèmes thermodynamiques, varie au
cours du temps selon les conditions météorologiques et le taux de charge. Des activités
spécifiques ont alors concerné le développement de modèles appropriés et leur validation par
comparaison à des mesures pour étudier les interactions entre ces systèmes et l'enveloppe des
bâtiments.
Conclusions et perspectives
Les travaux en cours concernent la vérification de la performance, dans le cadre de processus
de GPE. Le principe proposé est d'élaborer des procédures d'ajustement concernant les
paramètres climatiques et d'usage, puis de comparer la consommation mesurée et ajustée au
niveau de consommation évalué avant travaux. Des procédures de calibrage de modèle
peuvent être appliquées dans le but de mieux comprendre les éventuels écarts entre simulation
et mesures. Des études de sensibilité pourront être menées afin de voir s'il est possible de
réduire le nombre, et donc le coût, des mesures à effectuer.
Références
Vorger E., Étude de l’influence du comportement des occupants sur la performance
énergétique des bâtiments, thèse de doctorat, Ecole des Mines de Paris, décembre 2014
Munaretto F., Étude de l’influence de l’inertie thermique sur les performances énergétiques
des bâtiments, thèse de doctorat, Ecole des Mines de Paris, février 2014
Projet FBE Garantie de performance énergétique, http://www.batimentenergie.org/doc/17/Prog-trav-final-site.pdf et http://www.batimentenergie.org/doc/17/synthese-seminaire-reduc2.pdf
Projet ANR Fiabilité, http://www.agence-nationale-recherche.fr/?Projet=ANR-10-HABI-0004
Projet ANR Preccision, http://www.agence-nationale-recherche.fr/?Projet=ANR-12-VBDU-
0006
Projet ANR Omega, http://www.agence-nationale-recherche.fr/?Projet=ANR-13-VBDU-0006
Projet européen TREES http://direns.mines-paristech.fr/Sites/TREES/index.html
N. Dupin, B. Peuportier, K. Duer, M. Cohen , B. Favre, Berenger, O. Mejri, E. Vorger,
Evaluation of ventilative cooling in a single family house - Characterization and modelling of
natural ventilation, Sustainable building conference, Barcelona, October 2014
Recht T., Munaretto F., Schalbart P. et Peuportier B., Analyse de la fiabilité de COMFIE par
comparaison à des mesures ; Application à un bâtiment passif, Conférence IBPSA France,
Arras, mai 2014
L’AVIS de l’expert
Mesurer la performance énergétique des bâtiments peut répondre à plusieurs objectifs, par
exemple :
- évaluer l'état d'un bâtiment existant dans le cadre d'un diagnostic,
- évaluer la pertinence de concepts, de technologies ou de stratégies de gestion, de manière à
faire progresser les pratiques des concepteurs, constructeurs ou exploitants,
- vérifier une performance garantie.
Mais cette mesure correspond à un contexte donné, en termes de climat et de comportement
des occupants. L'enjeu est alors d'identifier une performance ajustée, c'est à dire corrigée des
variations climatiques et comportementales, ce qui permettrait de mieux répondre aux
objectifs listés précédemment. La performance ajustée correspondrait alors à un climat et un
usage de référence, et pourrait ainsi être comparée à un référentiel (étiquette énergie d'un
bâtiment) ou à un niveau garanti avant travaux dans le cas d'une GPE. Une telle procédure
d'ajustement peut être mise en œuvre par l'usage de la simulation.
Les questions posées à la recherche sont par exemple les suivantes :
- quelle est la fiabilité et quelles sont les limites des modèles utilisés aujourd'hui, est-il
nécessaire et possible d'améliorer ces modèles ?
- certains paramètres peuvent difficilement être mesurés et donc échappent à l'ajustement,
comment les traiter ?
- la précision de l'ajustement, et donc par exemple de la performance garantie, dépend du
nombre de paramètres d'ajustement, mais augmenter ce nombre fait croître le coût des
mesures et donc du dispositif de vérification de la performance. Ce coût peut-il être
compensé par une amélioration de la performance énergétique ?
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
TERAO
Nom de l’expert :
Aymeric NOVEL
Bureau
d’études
énergie
et
environnement dans la construction
Fonction :
Directeur
opérations
des
PACK ENERGIE : LE SUIVI ENERGETIQUE PAR TERAO ET VERTICAL M2M
CONTEXTE ET ENJEUX
Le bâtiment en France a jusqu’à maintenant adopté une approche d’évaluation de la performance
énergétique conventionnelle, c’est-à-dire liée à des calculs, des réglementations et à des labels. La
problématique de la performance énergétique se pose dans le cas de constructions neuves et de
réhabilitations lourdes, mais également sur l’ensemble du parc immobilier dans le cadre d’une gestion
optimisée. Un intérêt renforcé envers la performance énergétique réelle des bâtiments et de leurs
systèmes émerge depuis quelques années. Les maîtres d’ouvrage sont mécontents de constater de
grandes différences entre ce que promet la conformité réglementaire et les labels (RT2005, RT2012,
BBC, Effinergie +) et la consommation réelle. Pour un certain nombre d’acteurs la facture énergétique
est importante. Pour d’autres, la garantie de charge est un argument commercial important. Pour
d’autres encore l’usage de la mesure de la performance énergétique fait partie d’un ensemble
d’exigences lié à une certification ISO 50001. Enfin la démarche de Garantie de Résultat Energétique
(GRE) émerge comme un cadre permettant d’orienter les projets vers la maitrise réelle de la
consommation énergétique.
Dans tous les cas le besoin identifié et développé par nos équipes est d’avoir une solution alliant savoirfaire technologique et expertise énergétique répondant à l’ensemble des problématiques de la chaîne
de valeur et pour toute la durée du cycle de vie des bâtiments. Il existe nombre de solutions
technologiques, qui sont pour la plupart bonnes
individuellement mais incomplètes quant à leur
intégration et/ou exploitation. Une des causes identifiées
est qu’elles n’intègrent pas en même temps la dimension
technique et la dimension métier. Certaines solutions se
concentrent sur les fonctions de la GTB, d’autres sur les
capacités des compteurs, c’est-à-dire qu’elles se
concentrent sur l’acquisition de données plutôt que leur
exploitation. D’autres se concentrent sur le service de
suivi énergétique via des applications qui requierent que
l’acquisition de données soit résolue en amont.
Il manque une solution intégrée depuis le diagnostic initial de l’existant, la mise en place d’une collecte
de données hétérogènes et complexes, intégrées à l’aide des technologies les plus appropriées, à la
fourniture d’ applications et services d’optimisation des consommations énergétiques.
DESCRIPTION DE LA SOLUTION MPEB PROPOSEE
Notre méthode de travail démarre par une prise en main rapide de votre situation. Il s’agit d’un diagnostic
initial rapide basé sur un recueil de données de base et le travail sur site d’un binôme expérimenté
expert énergéticien et expert IOT. Le diagnostic énergétique est réalisé afin de repérer les principaux
gaspillages énergétiques, les problèmes techniques fonctionnels (problèmes de confort ou de qualité
de l’air intérieur), comprendre les usages et les besoins et cerner le potentiel d’économies. Notre
retour d’expérience indique que dans la plupart des sites un gisement d’au moins 15% d’économies
sur la facture énerrgétique est disponible par des actions ne nécessitant pas de travaux lourds. A cela
il faut ajouter les économies pouvant découler sur le poste maintenance et sur l’efficacité générale de
votre activité en lien avec un meilleur environnement de travail. De son côté, l’expert IoT analyse vos
installation en tenant compte notamment :
-
Des équipements de contrôle et mesure existants sur site et des équipements nécessaires
pour suivre et améliorer la performance sur les axes principaux identifiés pour l’optimisation
énergétique
Des paramètres et indicateurs-clés à contrôler et suivre
Des caractéristiques et profil technique du bâtiment (notamment pour choisir les technologies
à mettre en œuvre sur site pour collecter en temps-réel les données énergétiques attendues)
Détermination des économies potentielles de gestion énergétique et du protocole de suivi
énergétique
En croisant l’approche énergétique et l’expertise IOT, nous définissons
la solution technique personnalisée adaptée aux besoins du site, les
actions correctives et de gestion ainsi que de l’objectif d’économie
associé à la mise en place de votre projet de gestion énergétique. Notre
expert définit le protocole de suivi adapté basé sur la mthode IPMVP
(International Performance Measurement and Verification Protocol). Le
plan de monitoring associé est défini pour que le système de suivi soit
complètement fonctionnel du point de vue du suivi des performances.
Les fonctions clefs de communication des équipements sont sécurisées
par nos experts. Les solutions d’instrumentation reposent
préférentiellement sur des approches non intrusives au niveau des
points de comptage fluides de type pinces ampèremétriques, sondes à
lecture optique ou électromécaniques avec sortie impulsionnelle. Les
protocoles que nous utilisons sont non-propriétaires afin de connecter
avec les systèmes déjà en place dans l’existant. Nos experts sont
certifiés professionnels de la mesure et suivi des performances.
Cahier des charges de la solution technique de suivi énergétique
Une fois que le plan de gestion
énergétique et son protocole
d’exploitation sont définis, nos
experts concoivent pour vous le
système de suivi énergétique sur la
base de vos installations existantes.
En plus de la spécification et
fourniture de technologies, nous
vous
fournissons
l’application
Onesense energy, reposant sur la
plate-forme IoT CommonSense, qui
vous donne accès aux données en
télérelève des équipements suivis,
aux données de référence des
consommations, tableaux de bord
et indicateurs variés, tous définis en
amont.
Les principales fonctionnalités mises à disposition au niveau de la solution OneSense Energy sont :
-
Suivi temps réel des consommations énergétiques par fluide, par poste et par entité, avec vue
consolidée dans le temps et comparaison avec ratios clés
-
Alertes et indicateurs bâtiments (sur dépassement de dépense, sur surconsommation, …)
-
Suivi de la performance énergétique
Guichet unique pour la mise en œuvre des solutions et commissioning de l’installation et,
Notre équipe vous accompagne durant la mise en œuvre, vous permettant
d’avoir un guichet unique. Nos experts appliquent les méthodes du
commissioning sur votre nouvelle installation de suivi afin de vous assurer
de sa fonctionnalité. Nos experts sont des professionnels accrédités du
commissioning des installations.
Matérialisation des économies d’énergie de 15 à 20%
Une fois le système en ordre de marche, nos experts vous accompagne pour
matérialiser les économies. Notre expertise en contrats de performance
énergétique permet de compléter votre gestion si une incitation est jugée
pertinente dans votre schéma d’exploitation.
CONCLUSIONS/PERSPECTIVES
La méthode et les outils apppliqués peuvent être appliqués à l’échelle du quartier et également à des
typologies de bâtiments divers. Une véritable maîtrise de l’énergie reposant sur des solutions de suivi
fiables et une expertise fine seront de plus en plus importantes dans le cadre de l’évolution vers des
quartiers zéro énergie. Notre solution est complète pour un energy management rigoureux tel que le
demande ce type d’évolution du secteur.
Dans le futur les flux de données seront énormes pour gérer les parcs de bâtiments et incluent un
nombre important de types de données dont l’énergie. Il est ainsi primordial de travailler dès aujourd’hui
à la qualité (pas seulement à la quantité) des données remontées et des analyses associées. Cette
qualité devra être assurée en continu dans le temps. Il s’agit de rentrer de façon pérenne dans le temps
du Big Data.
REFERENCES
Suivi énergétique de la Fondation Louis Vuitton : Application de l’IPMVP à un cas complexe
Spie : suivi énergétique multi-fluide et sensibilisation des utilisateurs du siège de SPIE
L’AVIS de l’expert
Les enjeux de la MPEB aujourd’hui sont multiples. Beaucoup de solutions émergent, que ce soit au
niveau des équipements que des services. La complexité est augmentée du fait que ce phénomène se
passe dans le cadre plus global à la fois du déploiement de la Big Data et du bâtiment augmenté ou
encore connecté. Le service de gestion énergétique, comme nombre d’autres, vont être amené à
« s’ouvrir » sur l’extérieur. Ainsi la qualité de la donnée et la fiabilité de la chaine d’acquisition dans des
écosystèmes complexes devient critique, faute de quoi la quantité ne sert à rien. Une véritable remise
en cause de plusieurs types d’acteurs a également lieu, du bureau d’étude, à l’exploitant en passant les
maitres d’ouvrage (ou d’usages !) aux fournisseurs de GTB.
Les enjeux vont donc se cristalliser à divers niveaux incluant : comptage non-intrusifs innovants,
algorithmes de calcul énergétiques fiables et peu gourmands en temps, appliquer l’IPMVP à l’échelle
d’un quartier voire d’un territoire, modélisation et gestion du risque de déviation de la performance.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
Centre Scientifique et Technique
du Bâtiment
Nom de l’expert :
Mathieu RIVALLAIN
EPIC,
Centre Scientifique et Technique
Fonction :
Chef de projet R&D
Gestion et Rénovation
du Parc Existant
REPERE
Retour d’Expérience sur la Performance Effective des Rénovations Energétiques
Le CSTB a conçu et développé un service innovant, baptisé REPERE, pour qualifier le gain de
performance énergétique effectif après travaux de réhabilitation, relativement aux économies
prévisionnelles simulées, et ce indépendamment de la variabilité des conditions météorologiques et des
usages des occupants. Ce service est notamment déployé sur le patrimoine d’Habitat Toulouse – Office
Public de l’Habitat et partenaire du projet – afin d’en accompagner le programme de rénovation
énergétique. Habitat Toulouse utilisera les résultats ainsi obtenus pour mettre en œuvre, en accord avec
les locataires, la 3ème ligne de quittancement, et ainsi supporter une part des investissements.
Le service REPERE repose sur l’acquisition de données (mesures sur quelques mois, détail des
programmes de réhabilitation et évolution des usages), leur traitement et l’identification d’un modèle
énergétique pour le logement ou bâtiment. Cette modélisation est ensuite exploitée pour comparaison
aux performances ou factures avant travaux. Ces différentes étapes sont explicitées ci-après.
Les consommations énergétiques des installations individuelles et collectives, ainsi que la température,
la luminosité et l’hygrométrie des pièces des logements sont mesurées en temps réel, par des capteurs.
Ces capteurs sans fil et à faible consommation d’énergie, sont connectés à une application centralisée
d’analyse des données. Sur l’expérience de Toulouse, la technologie de transmission radio LoRa™ s’est
révèlée particulièrement compétitive en termes de coût de déploiement et de relève des capteurs, et
requiert uniquement une antenne positionnée sur le toit des bâtiments à instrumenter. Par ailleurs, une
fois le bâtiment instrumenté, les données de mesures sont capitalisées sur un cloud (ThingPark Cloud®,
Actility), permettant d’éviter qu’un capteur soit dédié à une application unique ; le capteur peut ainsi
interagir avec plusieurs applications pour répondre aux différents besoins du bâtiment intelligent.
A partir de l’acquisition des mesures, le service REPERE consiste en une chaîne complète de traitement
de données, permettant d’effectuer automatiquement une analyse énergétique, puis de comparer les
performances effectives aux objectifs prévisionnels. Plus spécifiquement, cette chaîne intègre
notamment : le traitement des données de mesures, la déconsolidation des courbes de charge entre les
usages de l’énergie, une identification paramétrique d’un modèle énergétique du logement ou bâtiment,
puis la simulation des consommations sur un scénario de référence. Certains algorithmes élémentaires
utilisés dans REPERE sont issus de recherches contractuelles menées par ailleurs avec la société
Actility et sont à ce titre confidentielles. La robustesse du modèle identifié est qualifiée par son
incertitude, voire sa capacité prédictive sur différentes périodes. La modélisation énergétique permet de
distinguer les composantes intrinsèques, de celles liées aux sollicitations météorologiques et aux
usages. Les performances du bâtiment ou logement réhabilité peuvent ainsi être simulées, par exemple
sur une période « avant travaux », et comparées à des consommations connues. Par principe, les
hypothèses relatives à cette simulation sont conservatrices ou à la sensibilité maîtrisée. Les résultats
permettent enfin un retour d’expérience sur le gain de performance énergétique réel, en exploitation, par
rapport aux simulations prévisionnelles réalisées avant les travaux.
Dans le cadre de son plan maîtrise énergie, Habitat Toulouse va exploiter ce service pour mesurer
pendant trois ans, en temps réel, le gain effectif de performance énergétique de 160 logements en
usage, soit environ 13% des 1 250 logements réhabilités thermiquement fin 2014.
Afin de motiver les investissements dans le domaine de la réhabilitation énergétique, la mesure de la
performance réelle constitue un enjeu prioritaire. Il s’agit évidemment de fournir des éléments
opposables, contribuant à la confiance. Le service REPERE offre de nouvelles perspectives pour la
filière, cohérentes avec les enjeux économiques et techniques du secteur.
Figure 1. Instrumentation déployée dans les logements instrumentés (gauche) et un bâtiment réhabilité
(Patrimoine Habitat Toulouse, à droite)
Références :
Actility et l'Institut Carnot CSTB mettent le système ThingPark Wireless® au service du bâtiment
intelligent pour Habitat Toulouse, Communiqué de presse, 10 juin 2014 :
http://www.cstb.fr/assets/communiques/cp-actility-100614.pdf
http://www.lemoniteur.fr/article/habitat-toulouse-et-le-cstb-mesurent-en-temps-reel-les-consommationsenergetiques-de-160-logements-r-24913868
http://institut-carnot.cstb.fr/actualites/detail/performance-energetique-reelle-090315/
https://www.youtube.com/watch?v=W9yIsclL_sE
L’AVIS de l’expert
La mesure du gain de performance énergétique effectif des bâtiments après rénovation est un enjeu
fondamental pour la massification de la réhabilitation énergétique et l’émergence d’une génération de
bâtiments très performants et tenant leurs promesses. Elle sous-tend la confiance en les économies
réalisables et donc les investissements, et potentiellement les financements. Le déploiement
opérationnel de produits et services dans le domaine de la MPEB soulève pourtant différentes
problématiques d’ordre méthodologique, instrumental ou d’opposabilité. Nous illustrons ci-après
quelques exemples.
A l’échelle d’un bâtiment, l’évaluation des gains effectifs se heurte régulièrement à l’estimation de
différentes grandeurs d’intérêt : l’évolution des températures intérieures sur une période de référence
tenant compte des apports calorifiques non maîtrisés, les consommations électriques relatives aux
autres usages, la part des consommations électriques valorisées sous la forme d’apports thermiques
internes au volume chauffé. Ces différentes problématiques pourraient faire l’objet d’un programme de
Recherche reposant sur une vaste campagne de mesures destinée à produire des données
statistiquement représentatives. Ces questions se posent dans toute démarche de mesure de la
performance et constituent donc aujourd’hui un verrou scientifique dont la levée serait très profitable à la
Profession et permettrait notamment de mieux apprécier l’incertitude (intervalles de variation, distribution
de probabilité) liées à chacune des méthodes. Les données de consommation anonymisées, dont
disposent les énergéticiens, ou issues des compteurs intelligents (type Linky ou Gazpar) pourraient
également être avantageusement mises à profit.
Par ailleurs, le déploiement de capteurs in situ, en site occupé, interroge nécessairement l’optimisation,
la minimisation des moyens d’instrumentation à déployer. Les dispositifs d’instrumentation réduits et
robustes étant évidemment à privilégier. En ce sens, il pourrait être intéressant d’explorer – au travers
d’une campagne de mesures – des solutions de mesure simplifiées, par exemple en étudiant la relation
entre les températures d’extraction d’air au niveau des bouches de ventilation et la distribution de
température à l’intérieur de logements ou bâtiments.
Enfin, et en termes d’opposabilité, il est clair que différentes approches peuvent être envisagées pour
qualifier les performances effectives à l’échelle de logements ou bâtiments. De manière à consolider la
filière et asseoir la confiance des maîtres d’ouvrage, voire demain du secteur assurantiel, il est essentiel
d’établir les conditions d’une opposabilité des méthodes proposées. Dans cette perspective, l’élaboration
de bancs d’essais partagés pourrait constituer une réponse collective et collaborative à l’évaluation des
méthodes actuellement développées.
En conclusion, ce séminaire organisé par la FBE constitue une formidable opportunité pour inventorier
ces problématiques, identifier les solutions potentiellement existantes et esquisser les besoins en termes
de nouveaux programmes de Recherche.
Séminaire expert MPEB organisé par la Fondation Bâtiment Energie
OPENERGY
Nom de l’expert :
Riad ZIOUR
PME
Fonction :
CEO
La simulation énergétique dynamique en temps réel au service de la validation de
performance
Contexte et enjeux :
Alors que d’importants investissements sont aujourd’hui réalisés pour que les bâtiments neufs ou rénovés
soient énergétiquement performants, il est très difficile, avec les outils disponibles sur le marché, de
répondre à la question pourtant simple : les résultats sont-ils à la hauteur ?
En pratique, il est avéré que la performance des bâtiments est rarement au rendez-vous. En effet, les
bâtiments consomment souvent nettement plus que ce qui était prévu en phase de conception ; « Les
consommations réelles d’énergie [des] bâtiments performants dépassent systématiquement les
consommations estimées » (rapport du CSTB, 2013). Les retours d’expérience (CSTB, ADEME, …)
indiquent des surconsommations de +40%, +70%, ..., +100%.
Comment se fait-il que ce « performance gap », dont l'existence est pourtant bien connue, perdure ?
En pratique, le bâtiment en fonctionnement est un système complexe et de nombreux facteurs influent
sur sa consommation : météo, usages, qualité du bâti, performances des systèmes, etc. Il est donc très
difficile de bien quantifier l’impact de chacun de ces facteurs sur la consommation réelle du bâtiment. Les
acteurs en charge de la performance du bâtiment (constructeurs, installateurs, exploitants, gestionnaires)
n'ont pas les moyens financiers et humains d'analyser en détail le fonctionnement de chaque bâtiment :
ils ne sont pas en mesure d'identifier efficacement les causes des surconsommations et de les corriger.
Descriptif de la solution :
La solution conçue par Openergy est une plateforme SaaS de validation des performances du bâtiment
qui permet d’analyser les données énergétiques et de vérifier que le bâtiment se comporte d’une façon
optimale. Cette plateforme innovante, appelée « Virtual Building Platform », associe infrastructure Big
Data et simulation énergétique dynamique en temps réel :
Virtual
Building
Platform
Inputs
Outputs
Real time data
Big Data
infrastructure
Real time
simulation
Building info
Schedules
Plans
Equipments
BIM
Real schedules
Weather
HVAC
Construction
Renewables
Grid
Real vs Target
comparison
Default analysis
Energy
Performance
Actions
Continuous
commissioning
Sur la base des données collectées, une simulation énergétique est lancée qui permet de comparer les
consommations objectif et simulées ; une étape de calibration permet ensuite l’analyse automatique de la
cause des écarts.
1. Réception
Performances
intrinsèques
2. Année de parfait
achèvement
3. Optimisation
continue
Exploitation
Usages
Performances
dans la durée
Exploitation
Travaux
Déploiement de la solution
En pratique, le déploiement sur un bâtiment donné de la solution d’Openergy suit pas à pas le processus
de mise en service et d'exploitation du bâtiment lui-même :
Phase 1 : les performances intrinsèques du bâtiment sont vérifiées. Cette phase comprend la
validation des éléments suivants : système de Gestion Technique du Bâtiment (GTB),
performance des systèmes de chauffage, ventilation et climatisation, performance du bâti.
Phase 2 : le bâtiment est suivi attentivement pendant un an alors que le bâtiment est encore
"sous garantie", afin de détecter tout problème lié à la construction ou à l'exploitation. Cette
validation de performance est rendue possible par la plateforme "Virtual Building Platform"
d'Openergy, qui permet de simuler en temps réel le fonctionnement du bâtiment.
Phase 3 : une fois le bâtiment en rythme "de croisière", la plateforme d'Openergy permet de
mettre en place un procédé d'amélioration continu (continuous commissioning) visant à maintenir
dans le temps les bonnes performances du bâtiment.
Illustrations sur des cas réels :
Comparaison des consommations de chauffage réelles/simulées, étage par étage -> validation du Gv du bâtiment à la réception
Comparaison des consommations et températures horaires réelles et simulées d’un bâtiment tertiaire.
Quelques références
Clients et partenaires :
Projet
Bâtiment BEPOS Woopa (Lyon)
Surface
11 000 m2
Données
Données GTB : températures intérieures ; sous-comptage
Mission
Analyse des données + simulation + aide à l’exploitation
Projet
Bâtiment porte de Retz (Nantes)
Surface
3 000 m2
Données
Données GTB : températures intérieures ; sous-comptage
Mission
Analyse des données + simulation + aide à l’exploitation
Projet
48 avenue de Villiers (Paris)
Surface
3 500 m2
Données
Données GTB : températures intérieures ; sous-comptage
Mission
Analyse des données + simulation + validation des performances
Conclusions et perspectives
La simulation a démontré tout son intérêt dans le cadre de la validation des performances des bâtiments.
En particulier, elle permet, au travers d’un processus de calibration, d’identifier quantitativement la cause
des écarts.
Pour aller plus loin, Openergy cherche à réduire le temps consacré à la construction initiale du modèle
énergétique (étape qui est nécessaire lorsque le modèle de conception ne peut pas être directement
réutilisé). Une piste particulièrement intéressante est de travailler sur une meilleure réutilisation des
études réalisées en conception.
Mieux prendre en compte les usages du bâtiment est également un enjeu fondamentale ; c’est pourquoi
Openergy développe actuellement des méthodes avancées de data analytics et de machine learning
pour modéliser le mieux possible ces aspects comportementaux.
L’AVIS de l’expert
Il ne faut pas confondre mesure des consommations et mesure de la performance. Autant la mesure des
consommations est aujourd’hui un domaine à peu près mature, autant la mesure de la performance est
encore largement à construire.
En effet, mesurer la performance nécessite de :

Calculer un objectif de performance pertinent, c’est-à-dire qui tienne compte de tous les
facteurs d’influences importants. Dans le cas des bâtiments anciens, le nombre d’heures
d’occupation et les DJU pouvaient suffire, mais les bâtiments « performants » sont beaucoup
plus complexes et nécessitent de prendre en compte les apports solaires, les apports internes,
l’inertie, etc. Openergy a fait le choix de recourir à la STD en exploitation, mais se heurte à un
manque de portabilité des simulations entre conception et exploitation ; il y a là des pistes de
progrès importants pour un calcul facilité de l’objectif de performance.

Etre en mesure d’expliquer les éventuels écarts entre l’objectif et le réel. Il s’agit sans
doute là de l’enjeu principal, car seule l’identification et la résolution des dysfonctionnements
permet d’atteindre un fonctionnement satisfaisant du bâtiment. Développer des méthodes de
diagnostic automatique est de ce point de vue indispensable. Partager davantage les retours
d’expérience sur les causes des écarts et sur la résolution des problèmes sera également très
utile à la filière.
Enfin, il convient d’évoquer un dernier enjeu de taille pour la MPEB : comment assurer l’adaptation du
procédé de MPEB lorsque le bâtiment évolue ? En effet, si les plans de MPEB prennent généralement
en compte des variables d’ajustement simples, il est difficile de prévoir toutes les évolutions possibles du
bâtiment, notamment lorsqu’elles touchent aux usages, au bâti ou aux systèmes. Un travail sur le sujet
de la MPEB sur de longues périodes me semble donc nécessaire, pour assurer un suivi pérenne et
évolutif de la performance.