- Pré-requis et Objectifs
-
Cours
-
Contenu
- 1 - Méthodes de recueil des apports alimentaires
- 2 - Exploitation des données
- 3 - Limites des enquêtes alimentaires
- 4 - Résumé et conclusion
- Version PDF
-
Contenu
- Annexes
Quelle que soit la méthode utilisée, l'enquête alimentaire est toujours soumise à des erreurs.
Il ne faut pas pour autant renoncer aux enquêtes alimentaires ni en conclure qu'il s'agit de mauvais instruments, mais plutôt comprendre que l'identification des erreurs est importante pour l'interprétation des résultats.
La qualité d'une enquête alimentaire est déterminée par sa précision et sa validité.
Une méthode précise est une méthode reproductible, c'est-à-dire une méthode capable de donner des résultats comparables lorsqu'elle est reproduite sur un même échantillon et dans les mêmes conditions expérimentales. Autrement dit, la précision d'une méthode est une estimation de la dispersion des valeurs obtenues dans les mêmes conditions d'étude. Il est important de ne pas confondre la notion de précision (ou reproductibilité) avec la notion d'exactitude. En effet, une méthode peut être très précise (ou reproductible) sans pour autant estimer de manière exacte les apports alimentaires.
La mesure du coefficient de variation entre 2 répétitions de la méthode permet d'estimer le degré de précision (ou reproductibilité).
Une enquête alimentaire valide est une enquête qui estime de manière exacte les apports alimentaires réels sur la période d'observation déterminée. Par exemple, un enregistrement alimentaire est valide s'il permet de recueillir de manière exacte toutes les consommations (aliments ou boissons) du sujet ayant eu lieu pendant la période d'enregistrement. Là encore il convient de distinguer la notion de validité d'un enregistrement de la notion de représentativité des apports habituels. En effet, un enregistrement peut être tout à fait valide sans pour autant correspondre aux consommations habituelles du sujet, en particulier lorsque la méthode utilisée pour recueillir les apports a eu pour effet de modifier, consciemment ou non, les habitudes alimentaires du sujet enquêté.
Pour être valide et représentative de l'alimentation habituelle, une enquête alimentaire devrait refléter ce que le sujet aurait consommé s'il n'avait pas été enquêté.
Nous verrons plus loin qu'il existe des méthodes de validation [15] pour vérifier l'exactitude de la méthode.
Kaaks R., Ferrari P., Ciampi A., Plummer M., Riboli E., Uses and limitations of statistical accounting for random error correlations, in the validation of dietary questionnaire assessments. Public Health Nutr., 2002, 5, 969-976.
Une méthode idéale serait une méthode permettant de renseigner sur les consommations des individus avec une précision et une exactitude irréprochables. Cela supposerait qu'il n'y ait aucune erreur dans le recueil, l'analyse et l'interprétation des données. Assurément, aucune méthode d'enquête alimentaire ne remplit les conditions d'une méthode idéale. Quelle que soit la méthode employée, sa précision et son exactitude seront affectées par un certain degré d'erreur.
Les erreurs sont classiquement classées en 2 catégories : les erreurs randomisées (ou aléatoires), et les erreurs systématiques.
Les erreurs randomisées sont des erreurs attribuables au hasard. La présence d'erreurs aléatoires augmente la variabilité des estimations et par conséquent diminuent la précision de l'enquête. La précision des estimations étant déterminée par la taille de l'échantillon et la variabilité du paramètre étudié, ce genre d'erreur peut être limité dans une enquête alimentaire en augmentant soit le nombre d'individus observés, soit la durée d'observation de chaque individu.
Les erreurs systématiques, par contre, ne sont pas randomisées et ne peuvent donc pas être atténuées en augmentant le nombre d'observations. Il faut alors chercher à les éviter au maximum car elles sont difficiles à corriger a posteriori. Il s'agit, par exemple, d'erreurs liées à la méthode (questionnaire ou table de composition inappropriés). Ce genre d'erreur conduit à l'apparition de biais dans l'estimation des apports alimentaires et altère la validité de l'enquête.
En épidémiologie, on distingue 3 types de biais qui se produisent pendant :
L'impact de chaque type d'erreur sera différent selon la nature de la question posée et la méthode d'analyse utilisée pour y répondre [13].
La nature et le degré de l'erreur dépendent à la fois de la méthodologie utilisée et des sujets étudiés. Les sources d'erreurs sont très nombreuses au cours d'une enquête alimentaire, et la distinction théorique entre erreur randomisée et erreur systématique n'est pas toujours évidente.
La figure 1 résume les différentes sources d'erreurs rencontrées au cours d'une enquête alimentaire.
Les apports alimentaires des individus ne sont pas stables dans le temps. Ils varient de manière qualitative et quantitative d'un jour à l'autre, d'une semaine à l'autre voire d'une année à l'autre. En général, le recueil des apports alimentaires ne peut se faire que sur de courtes périodes et ne peut pas refléter les apports habituels (au long cours) des individus.
Lorsque l'objectif est d'estimer les apports habituels des sujets, pour mettre en évidence une relation avec une pathologie chronique, par exemple, la variabilité journalière des apports peut être considérée comme une erreur au sens statistique du terme (par opposition aux erreurs de mesure) [13].
En épidémiologie comme en clinique, il est possible de palier à ce type d'erreur de différentes manières.
Tout d'abord, choisir des méthodes qui recueillent les apports habituels (histoire alimentaire, questionnaires de fréquence) plutôt que celles recueillant les apports sur des jours définis (rappel des 24 heures et enregistrements alimentaires) permet de diminuer cette variabilité dite « intra-individuelle ». Cependant, ces méthodes ont leurs propres erreurs de structure. En particulier, parfois trop réductionnistes, elles risquent en contrepartie de sous représenter la variabilité interindividuelle qui, elle, n'est pas source d'erreur mais au contraire source d'information pour classer les sujets selon leurs niveaux de consommation.
La variabilité journalière représentant typiquement les erreurs randomisées, il est possible de l'estomper en augmentant le nombre d'observations.
En épidémiologie, des méthodes statistiques sophistiquées se sont développées pour estimer l'importance de l'erreur et ajuster les résultats a posteriori [16].
Dodd K.W., Guenther P.M., Freedman L.S. et al., Statistical methods for estimating usual intake of nutrients and foods: a review of the theory. J. Am. Diet. Assoc., 2006, 106, 1640-1650.
Pour convertir avec la meilleure précision possible les données des aliments aux nutriments, il faut disposer d'une table de composition de bonne qualité et adaptée à la méthode d'enquête.
Pour être de bonne qualité, une table de composition doit répondre à plusieurs critères [4] :
Puwastien P., Issues in the development and use of food composition databases. Public Health Nutr., 2002, 5, 991-999.
L'utilisation d'une table inappropriée ou de mauvaise qualité affecte de manière systématique l'estimation des apports nutritionnels.
Les erreurs d'estimation des quantités et de sous-estimation des apports sont très fréquentes. Rumpler et al. [18] estiment qu'elles pourraient chacune contribuer, chez des hommes jeunes et minces, à 1/3 de l'erreur totale observée avec un rappel des 24 heures. Ces erreurs peuvent avoir des origines variées. Une des difficultés de leur traitement réside dans le fait qu'il est difficile de savoir s'il faut les considérer comme des erreurs randomisées ou systématiques.
Rumpler W.V., Kramer M., Rhodes D.G., Moshfegh A.J., Paul D.R., Identifying sources of reporting error using measured food intake. Eur. J. Clin. Nutr., 2007, 1-9.
La mesure quantitative des apports alimentaires est déterminée par la mesure correcte de la fréquence de consommation et des quantités consommées. Différents outils permettent, en dehors de la pesée directe des aliments, d'aider l'individu à estimer les quantités consommées [19] : des outils en 3 dimensions comme les modèles d'aliments, ou en 2 dimensions comme les photographies, les dessins, les simulations graphiques informatiques, etc. Cependant, l'estimation des tailles de portions représente une source majeure d'erreur dans le recueil de données.
Godwin S.L., Chambers E. 4th, Cleveland L., Accuracy of reporting dietary intake using various portion-size aids in-person and via telephone. J. Am. Diet. Assoc., 2004, 104, 585-594.
L'identification des tailles de portion est un processus complexe dans lequel les facultés de perception, de conceptualisation et de mémorisation jouent un rôle important [3]. La perception correspond à la capacité d'un sujet à prendre conscience d'une quantité d'aliments présente en réalité. La conceptualisation concerne sa capacité à construire mentalement une quantité d'aliment qui n'est pas présente en réalité, et la mémorisation permet de conceptualiser « avec précision ». Ces « compétences » sont plus ou moins sollicitées selon le type de recueil (par rappel ou par enregistrement). L'estimation des quantités est ainsi plus ou moins juste selon les capacités du sujet enquêté et la méthode de recueil utilisée.
De nombreux autres facteurs (culturels, sociaux, psychologiques ou physiques) sont susceptibles d'influencer l'estimation des quantités. Ces facteurs rejoignent les causes de sur ou sous-déclaration des apports alimentaires en général et sont évoqués ci-dessous.
D'après Maurer et al. [20], la sous-estimation des apports énergétiques pourraient concerner 2 à 85 % des individus selon les études. Phénomène très fréquent, il n'en reste pas moins complexe à appréhender.
Maurer J., Taren D.L., Teixeira P.J. et al., The psychosocial and behavioral characteristics related to energy misreporting. Nutr. Rev., 2006, 64, 53-66.
Ses causes sont diverses et souvent difficilement identifiables :
La sous-estimation est susceptible de concerner l'ensemble des individus, mais différentes études montrent qu'elle a tendance à être spécifique d'un sujet [21], c'est-à-dire qu'un sous-estimateur avec une méthode d'enquête a tendance à l'être avec une autre méthode.
Black A.E., Cole T.J., Biased over- or under-reporting is characteristic of individuals whether over time or by different assessment methods. J. Am. Diet. Assoc., 2001, 101, 70-80.
Certains facteurs tels que le sexe, l'âge, le comportement alimentaire, la corpulence, la désirabilité sociale et de nombreux autres facteurs psychosociaux ont pu être identifiés comme plus fréquemment associées à la sous-estimation [20]. Ainsi, les femmes, les sujets ayant un comportement de restriction alimentaire, les sujets obèses, les sujets ayant tendance à répondre en fonction de ce qui est socialement bien perçu, les sujets anxieux, dépressifs ou peu éduqués ont tendance à sous-estimer leurs apports énergétiques plus fréquemment ou de manière plus importante que les autres [20].
Cependant, l'identification de tels facteurs ne suffit pas à identifier les sous-estimateurs : tous les obèses ne sous-estiment pas leurs apports [22], par exemple. De plus, les facteurs associés à la sous-estimation ne sont pas indépendants : la sous-estimation chez les sujets obèses est davantage associée au comportement de restriction cognitive [23].
Lafay L., Basdevant A., Charles M.A. et al., Determinants and nature of dietary underreporting in a free-living population: the fleurbaix laventie ville santé (flvs) study. Int. J. Obes. Relat. Metab. Disord., 1997, 21, 567-573.
Vansant G., Hulens M., The assessment of dietary habits in obese women: influence of eating behavior patterns. Eat Disord., 2006, 14, 121-129.
Pour identifier les sous-estimateurs, la technique la plus utilisée est celle de Goldberg et al. [24] qui apprécie la validité des apports énergétiques déclarés (EI) par leur comparaison aux besoins énergétiques (EE), en postulant que ces 2 valeurs sont approximativement égales chez un sujet en poids stable. Lorsque ces 2 valeurs sont exprimées comme multiples du métabolisme de base (BMR), on obtient l'équation suivante chez un sujet en poids stable : EI/BMR = EE/BMR. La valeur EE/BMR peut être appréciée pour une population par le niveau d'activité physique (NAP). L'équation peut donc être réécrite sous la forme : EI/BMR = NAP. Le NAP, défini par la littérature, varie de 1,2 pour les populations très sédentaires à 1,6-1,9 pour les populations actives jusqu'à 2,4-2,8 pour des groupes très actifs. Pour définir les sous-estimateurs, Goldberg fixe un seuil de NAP à 1,35 qui correspond au NAP minimal pour la plupart des sujets en poids stable. Ainsi, des apports énergétiques déclarés chez un sujet en poids stable tels que EI/BMR < 1,35 sont improbables puisqu'ils devraient normalement se traduire par une perte de poids.
Goldberg G.R., Black A.E., Jebb S.A. et al., Critical evaluation of energy intake data using fundamental principles of energy physiology: 1. derivation of cut-off limits to identify under-recording. Eur. J. Clin. Nutr., 1991, 45, 569-581.
Cette méthode a l'avantage de dépister « à coup sûr » des sous-estimateurs, mais risque de ne pas dépister tous les sous-estimateurs, notamment ceux qui ont une activité physique importante (par exemple, un sujet ayant un NAP à 1,9 peut sous-estimer ses apports sans que son rapport EI/BMR ne devienne inférieur à 1,35). Par ailleurs, ce seuil ne tient pas compte de la variabilité des apports énergétiques. Pour pallier à cet écueil, Goldberg a proposé une équation qui permet de calculer une valeur en dessous de laquelle l'apport énergétique déclaré ne peut pas correspondre à la réalité, modulée par la variabilité des apports, et par le niveau d'activité physique réel s'il peut être connu.
Une fois la sous-estimation identifiée, le problème est de savoir quelle attitude adopter pour l'analyse des données.
En épidémiologie, ajuster sur l'apport énergétique n'est pas la meilleure solution car la sous-estimation est sélective envers certains aliments et nutriments [25, 26]. Elle concerne essentiellement les aliments gras et sucrés, l'alcool, les snacks et les prises alimentaires extraprandiales.
Heitmann B.L., Lissner L., Dietary underreporting by obese individuals-is it specific or non-specific? BMJ, 1995, 311, 986-989.
Lafay L., Mennen L., Basdevant A. et al., Does energy intake underreporting involve all kinds of food or only specific food items? Results from the fleurbaix laventie ville santé (flvs) study. Int. J. Obes. Relat. Metab. Disord., 2000, 24, 1500-1506.
La sous-estimation peut donc conduire à des erreurs importantes dans l'estimation des apports absolus et moyens d'une population, mais aussi dans le classement des sujets en fonction de leurs apports, ce qui compromet l'analyse des relations entre les apports alimentaires et l'état de santé. Pour ces différentes raisons, certains auteurs préfèrent simplement exclure les sous-estimateurs de l'analyse [27], en attendant de trouver des solutions plus probantes [28].
Smith W.T., Webb K.L., Heywood P.F., The implications of underreporting in dietary studies. Aust. J. Public Health, 1994, 18, 311-314.
Nielsen S.J., Adair L., An alternative to dietary data exclusions. J. Am. Diet. Assoc., 2007, 107, 792-799.
En clinique, bien que l'objectif habituel ne soit pas d'obtenir une mesure précise des apports énergétiques, l'identification des sous-estimateurs est intéressante dans le cadre de l'évaluation globale du patient. La sous-déclaration est à prendre en compte, elle peut être le signe d'un trouble du comportement alimentaire ; la prise en charge n'en sera que mieux adaptée.
Nous venons de voir qu'il n'existe pas de méthode d'enquête alimentaire qui puisse mesurer les apports sans erreur. Cela ne signifie pas qu'il faille renoncer aux enquêtes alimentaires, mais plutôt que la connaissance des erreurs est importante pour l'adaptation de l'analyse et l'interprétation des résultats. Seulement, comment peut-on valider les données d'une enquête en l'absence de méthode de référence ?
Le seul moyen de valider la mesure de l'apport alimentaire et d'apprécier le degré d'erreur est de comparer les données de l'enquête avec une ou plusieurs mesures objectives indépendantes qui reflètent les apports.
Les biomarqueurs [29] sont des mesures biologiques qui reflètent l'apport énergétique ou l'apport alimentaire d'un nutriment. Ils sont utilisés comme méthode de validation parce qu'ils fournissent une estimation de l'apport alimentaire indépendante de la déclaration des sujets.
Bingham S.A., Biomarkers in nutritional epidemiology. Public Health Nutr., 2002, 5, 821-827.
La méthode la plus utilisée est la mesure de la dépense énergétique à l'eau doublement marquée pour valider l'estimation de l'apport énergétique total [30]. Le marqueur le plus ancien est le dosage de l'excrétion urinaire d'azote pour valider l'estimation de l'apport protéique. De nombreux autres biomarqueurs spécifiques pourraient également être cités : dosage plasmatique de la vitamine E, du béta-carotène, dosage urinaire du sodium et du potassium, mesure des acides gras dans différents tissus [31].
Schoeller D.A., Schoeller D.A., Validation of habitual energy intake. Public Health Nutr., 2002, 5, 883-888.
Arab L., Akbar J., Biomarkers and the measurement of fatty acids. Public Health Nutr., 2002, 5, 865-871.
Ces techniques souvent coûteuses et parfois invasives restent aujourd'hui réservées aux protocoles de recherche et sont rarement utilisées en pratique quotidienne.