150 resultados para Paramètre de pénalisation
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Les sources laser à large bande possédant les caractéristiques requises pour émettre sur la plage spectrale correspondant à la seconde fenêtre de transmission atmosphérique (3 à 5 μm) exercent un attrait considérable pour divers domaines tels que la télédétection de polluants atmosphériques et les contremesures infrarouges. Les supercontinua générés à l’intérieur de fibres optiques représentent une option intéressante pour réaliser ce type de sources laser. En effet, ils possèdent une intensité élevée, un large contenu spectral, une excellente directionnalité de faisceau, ainsi qu’un bon potentiel pour constituer des sources lumineuses compactes et robustes. Toutefois, la génération d’un tel supercontinuum implique certains défis à relever sur le plan de la conception des fibres optiques employées. En fait, ces fibres optiques doivent présenter de faibles pertes de propagation sur la plage spectrale de 3 à 5 μm, posséder un paramètre de non-linéarité élevé et permettre le pompage en régime anomal de dispersion à des longueurs d’onde pour lesquelles des sources laser compactes sont offertes commercialement. En matière de robustesse, ces fibres doivent également démontrer de bonnes propriétés mécaniques ainsi qu’une stabilité chimique appropriée vis-à-vis de la corrosion causée par l’humidité. Dans le cadre de cette thèse, un nouveau type de fibres composites à saut d’indice fortement contrasté a été développé pour atteindre ces objectifs de génération de supercontinuum. Ce type de fibres combine respectivement un verre de tellurite et un verre de germanate pour son coeur et sa gaine permettant ainsi d’atteindre une différence d’indice de réfraction d’environ 0.3 entre ces deux dernières structures. Grâce à cet important saut d’indice, ces fibres peuvent fortement confiner les modes optiques à l’intérieur de leur coeur, ce qui leur donne la possibilité d’atteindre un niveau élevé de non-linéarité et d’optimiser leurs caractéristiques de dispersion chromatique pour la génération du supercontinuum. D’autre part, leur section transversale toute solide leur confère aussi une meilleure stabilité environnementale comparativement à celle démontrée par les fibres optiques microstructurées à base de verres d’oxydes de métaux lourds, de verres de chalcogénure et de verres fluorés. Toutefois, leur fabrication nécessite l’appariement de verres dont les propriétés thermomécaniques concordent suffisamment ensemble pour permettre leur fibrage. Les travaux effectués ici démontrent la production de fibres optiques composites et leur potentiel pour la génération du supercontinuum dans l’infrarouge moyen.
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.
Resumo:
Plusieurs études se sont penchées sur les effets de l’activité physique maternelle sur le poids du nouveau-né, un paramètre reflétant l’environnement intra-utérin associé au risque ultérieur d’obésité et de problèmes métaboliques. Devant les taux alarmants d’obésité infantile à travers le monde, l’identification d’interventions préventives efficaces devient un enjeu majeur dans la lutte contre l’obésité et ses complications. L’activité physique maternelle pourrait être une avenue intéressante, étant donné ses effets bénéfiques sur le gain de poids et le profil métabolique maternels et son potentiel de diminution du poids de naissance de l’enfant. Cependant, la dose optimale d’activité physique et ses effets sur la composition corporelle du nouveau-né sont encore méconnus. Par ailleurs, la majorité des femmes enceintes ne rencontrent pas les recommandations en matière d’activité physique durant la grossesse et les femmes obèses, chez qui les bienfaits de l’activité physique pourraient possiblement avoir le plus grand impact, présentent souvent les niveaux les plus bas. Curieusement, peu d’études ont évalué les effets d’une intervention d’activité physique durant la grossesse dans cette population. Ainsi, avant d’envisager l’activité physique comme une intervention thérapeutique non-pharmacologique durant la grossesse, il importe d’en évaluer la faisabilité et la sécurité et d’en connaître extensivement les effets. Notamment, il s’avère primordial de vérifier s’il est possible d’augmenter en toute sécurité les niveaux d’activité physique durant la grossesse, particulièrement chez les femmes obèses, et de distinguer les effets spécifiques de différents stimuli d’activité physique (variant en type, volume, intensité et moment de la grossesse) sur la croissance fœtale. Dans ce contexte, nous avons dans un premier temps entrepris une revue systématique de la littérature des études observationnelles portant sur l’association entre l’activité physique maternelle et les paramètres de croissance fœtale mesurés à la naissance. Dans un deuxième temps, 2 études de cohortes évaluant l’impact du type, du volume, de l’intensité et du trimestre de pratique de l’activité physique ont été menées afin de complémenter et d’approfondir les résultats de la revue systématique. Finalement, une étude d’intervention randomisée a été réalisée afin d’évaluer s’il est possible d’améliorer les niveaux d’activité physique durant la grossesse chez les femmes enceintes obèses. Nos travaux ont permis d’illustrer l’influence variable que différents stimuli d’activité physique maternelle peuvent avoir sur l’anthropométrie néonatale. La revue systématique a montré qu’un volume moyen d’activité physique est associé à une augmentation du poids de naissance comparativement à un volume plus faible, alors qu’un volume élevé est associé à une diminution du poids de naissance, comparativement à un volume plus faible. Nos données suggèrent également que l’association entre l’activité physique maternelle et le poids de naissance varie en présence de certaines caractéristiques maternelles. Notamment, nous avons montré pour la première fois que l’activité physique vigoureuse pratiquée en début de grossesse était associée à une diminution importante du poids de naissance chez les femmes qui reçoivent un diagnostic de pré-éclampsie en fin de grossesse. L’importance de l’intensité de l’activité physique dans la relation entre l’activité physique maternelle et la croissance fœtale a également été soulignée pour la première fois dans notre étude de cohorte avec mesure de la composition corporelle néonatale. Contrairement à l’activité physique d’intensité modérée, l’activité physique vigoureuse en début de grossesse est associée à une diminution du poids de naissance, principalement en raison d’une adiposité néonatale réduite. Finalement, les résultats de l’essai randomisé ont permis d’établir la faisabilité d’une intervention d’activité physique supervisée visant à augmenter la pratique d’activité physique chez des femmes enceintes obèses et le potentiel d’une telle intervention à favoriser le maintien de la condition physique et une meilleure gestion du gain de poids chez ces femmes. L’ensemble de ces résultats permet de mieux cerner l’impact de l’activité physique maternelle sur la croissance fœtale, en fonction des caractéristiques spécifiques du stimulus d’activité physique mais également de la population étudiée. La faisabilité d’une intervention d’activité physique prénatale dans une population de femmes obèses laisse entrevoir de nouvelles possibilités dans la prévention de l’obésité infantile et de ses complications. L’identification d’une dose optimale d’activité physique favorisant la santé de l’enfant à court et à long terme dans diverses populations de femmes enceintes et l’identification des facteurs permettant une meilleure adhérence aux recommandations qui en découleront constituent des pistes de recherche essentielles à la lutte contre l’obésité.
Resumo:
Ce mémoire présente un modèle mathématique et numérique pour analyser le comportement d’une unité de stockage thermique à changement de phase solide-liquide représentée par un tube autour duquel se trouve le matériau à changement de phase. Le système est soumis à une charge oscillant entre le chauffage et le refroidissement. Une analyse d’ordre de grandeur permet de prédire le comportement du système en fonction des principaux nombres adimensionnels. Un paramètre adimensionnel est proposé pour délimiter les concepts dans lesquels la conduction domine par rapport à ceux où la convection naturelle domine. L’étude dévoile l’impact des paramètres de conception de l’unité de stockage thermique sur son fonctionnement et approfondit les connaissances dans le domaine du changement de phase avec convection naturelle. Différents indicateurs ont été développés pour analyser la performance du système, tels que les dimensions de la zone affectée thermiquement, le volume fondu ou solidifié et une analyse fréquentielle. Des corrélations sont proposées pour déterminer facilement le comportement du système.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Le contrôle de l'asthme est défini comme la mesure dans laquelle les différentes manifestations de l'asthme ont été réduites ou éliminées par le traitement. Ce paramètre est un élément central dans l'évaluation des patients asthmatiques. Selon les recommandations actuelles, il doit aider le clinicien à déterminer le type et le dosage des médicaments à prescrire.Le travail réalisé au cours de cette thèse avait pour but de contribuer à l'évaluation fonctionnelle des patients asthmatiques. Ceci en particulier à propos de l'utilisation des questionnaires destinés à évaluer le niveau de contrôle de l'asthme.Dans une première étude, nous avons cherché à déterminer les degrés d'accord qu'il y avait entre cinq questionnaires de contrôle de l'asthme couramment utilisés en pratique clinique. Les résultats ont montré un degré d’accord modéré, signifiant que ces outils ne sont pas interchangeables. Par conséquent, nous conseillons d’être attentif lors de la lecture des publications qui n’utilisent pas les mêmes questionnaires.Du fait que la limitation d'activité était le seul thème commun aux cinq questionnaires étudiés, notre travail a été orienté vers l'étude de ce thème. Nous avons donc réalisé une revue de littérature approfondie destinée à décrire l'état actuel des connaissances sur la limitation des activités chez les patients souffrant d'asthme. Celle-ci à mis en évidence que le niveau de connaissance est assez faible. Ceci particulièrement à propos des liens entre ce que le patient ressent au sujet de sa limitation d’activité et la réalité de ses capacités physiques.L'objectif de la troisième partie fut donc d’étudier plus en détails ce sujet. Nous avons demandé à des patients asthmatiques exacerbés d’évaluer leurs sensations au sujet de leur limitation d'activité. Pendant ce temps, ils ont réalisés plusieurs tests fonctionnels et une actimétrie. L'analyse des corrélations entre ces différentes données a montré qu’en réponse à la question sur la limitation de l'activité, les patients ne répondent pas au sujet de leur limitation physique, mais plutôt au sujet de leur charge psychologique associé à cette contrainte.L’ensemble de ces résultats nous ont permis de conclure au sujet de l’évaluation du contrôle de l’asthme que, comme dans d’autres domaines, le choix de l’outils de mesure est tout aussi important que la compréhension de son contenu. L’étude des différentes modalités d’évaluation de la limitation d’activité des patients asthmatiques devrait donc être poursuivie afin d’optimaliser l’évaluation fonctionnelle de ce groupe de patients.
Resumo:
Suite à la demande d'exploitation de la zone de Ronce les Bains – Barat par le Comité Régional de la Conchyliculture du Poitou-Charentes (CRCPC), la Direction Départementale du Territoire et de la Mer (DDTM) a demandé la réalisation d'une étude sanitaire en vue du classement de cette zone de production pour les bivalves fouisseurs (groupe 2). Cette étude réalisée par le Laboratoire Environnement Ressources des Pertuis Charentais bénéficie d'un financement de la Direction Générale de l'Alimentation (DGAL). Basée sur le paramètre microbiologique (Escherichia coli) et chimiques (plomb, mercure, cadmium). L'étude sanitaire a pour objectifs : d'estimer la qualité microbiologique et chimique de la zone en vue du classement sanitaire de la zone par l'administration conformément aux exigences du Règlement CE n° 854/2004 ; et de déterminer la stratégie d'échantillonnage à mettre en oeuvre dans le cadre de la surveillance sanitaire régulière de cette zone suite à son classement. L’étude des informations disponibles a permis l’identification de sources de contamination potentielle et la définition d’une stratégie d’échantillonnage. Trois points de suivi ont été positionnés dans des secteurs jugés sensibles aux sources de contamination, et ont été échantillonnés de février 2011 à janvier 2013. Les concentrations maximales en cadmium, mercure et plomb sont inférieures aux critères chimiques réglementaires et sont compatibles avec un classement A, B ou C. Le suivi microbiologique réalisé indique une qualité B pour chacun des deux points de suivi selon les seuils microbiologiques définis par le règlement (CE) n° 854/2004 (un troisième point a été arrêté au cours de l’étude pour manque de ressource). La qualité de la zone est donc estimée B dans son ensemble. Le point « Ronce » est le plus sensible aux contaminations microbiologiques, la surveillance régulière REMI de la zone de Ronce les Bains – Barat pour le groupe 2 sera donc basée sur ce point.
Resumo:
Suite à la demande d’exploitation de la zone de Bourgeois par les professionnels, la Direction Départementale du Territoire et de la Mer (DDTM) a demandé la réalisation d’une étude sanitaire en vue du classement de cette zone de production pour les bivalves fouisseurs (groupe 2 ).Cette étude réalisée par le Laboratoire Environnement ressources des Pertuis Charentais bénéficie d’un financement de la Direction Générale de l’Alimentation (DGAL). Basée sur le paramètre microbiologique (Escherichia coli) et chimiques (plomb, mercure, cadmium), l’étude sanitaire a pour objectifs : d’estimer la qualité microbiologique et chimique de la zone en vue du classement sanitaire de la zone par l’administration conformément aux exigences du Règlement CE n° 854/2004 ; et de déterminer la stratégie d’échantillonnage à mettre en œuvre dans le cadre de la surveillance sanitaire régulière de cette zone suite à son classement. L’étude des informations disponibles a permis l’identification de sources de contamination potentielle et la définition d’une stratégie d’échantillonnage. Trois points de suivi ont été positionnés dans des secteurs jugés sensibles aux sources de contamination et ont été échantillonnés du 21 juillet 2011 au 20 août 2012. Les concentrations maximales en cadmium, mercure et plomb sont inférieures aux critères chimiques réglementaires et sont compatibles avec un classement en A, B ou C. Le suivi microbiologique réalisé indique une qualité B pour chacun des trois points de suivi selon les seuils microbiologiques définis par le règlement (CE) n° 854/2004. La qualité de la zone est donc estimée B dans son ensemble. Le point « Bonnemort » est retenu pour la surveillance régulière REMI du groupe 2 dans la zone n° 17-51 Bourgeois.