989 resultados para Béton à hautes performances--Propriétés mécaniques--Modèles mathématiques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème d’oscillation de fluides dans un conteneur est un problème classique d’hydrodynamique qui est etudié par des mathématiciens et ingénieurs depuis plus de 150 ans. Le présent travail est lié à l’étude de l’alternance des fonctions propres paires et impaires du problème de Steklov-Neumann pour les domaines à deux dimensions ayant une forme symétrique. On obtient des résultats sur la parité de deuxième et troisième fonctions propres d’un tel problème pour les trois premiers modes, dans le cas de domaines symétriques arbitraires. On étudie aussi la simplicité de deux premières valeurs propres non nulles d’un tel problème. Il existe nombre d’hypothèses voulant que pour le cas des domaines symétriques, toutes les valeurs propres sont simples. Il y a des résultats de Kozlov, Kuznetsov et Motygin [1] sur la simplicité de la première valeur propre non nulle obtenue pour les domaines satisfaisants la condition de John. Dans ce travail, il est montré que pour les domaines symétriques, la deuxième valeur propre non-nulle du problème de Steklov-Neumann est aussi simple.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ma thèse, je me sers de modèles de recherche solides pour répondre à des questions importantes de politique publique. Mon premier chapitre évalue l’impact causal de l’allégeance partisane (républicain ou démocrate) des gouverneurs américains sur le marché du travail. Dans ce chapitre, je combine les élections des gouverneurs avec les données du March CPS pour les années fiscales 1977 à 2008. En utilisant un modèle de régression par discontinuité, je trouve que les gouverneurs démocrates sont associés à de plus faibles revenus individuels moyens. Je mets en évidence que cela est entrainée par un changement dans la composition de la main-d’oeuvre à la suite d’une augmentation de l’emploi des travailleurs à revenus faibles et moyens. Je trouve que les gouverneurs démocrates provoquent une augmentation de l’emploi des noirs et de leurs heures travaillées. Ces résultats conduisent à une réduction de l’écart salarial entre les travailleurs noir et blanc. Mon deuxième chapitre étudie l’impact causal des fusillades qui se produisent dans les écoles secondaires américaines sur les performances des éléves et les résultats des écoles tels que les effectifs et le nombre d’enseignants recruté, a l’aide d’une stratégie de différence-en-différence. Le chapitre est coécrit avec Dongwoo Kim. Nous constatons que les fusillades dans les écoles réduisent significativement l’effectif des élèves de 9e année, la proportion d’élèves ayant un niveau adéquat en anglais et en mathématiques. Nous examinons aussi l’effet hétérogene des tueries dans les écoles secondaires entre les crimes et les suicides. Nous trouvons que les fusillades de natures criminelles provoquent la diminution du nombre d’inscriptions et de la proportion d’élèves adéquats en anglais et mathématiques. En utilisant des données sur les élèves en Californie, nous confirmons qu’une partie de l’effet sur la performance des élèves provient des étudiants inscrits et ce n’est pas uniquement un effet de composition. Mon troisième chapitre étudie l’impact des cellulaires sur la performance scolaire des élèves. Le chapitre est coécrit avec Richard Murphy. Dans ce chapitre, nous combinons une base de données unique contenant les politiques de téléphonie mobile des écoles obtenues à partir d’une enquète auprès des écoles dans quatre villes en Angleterre avec des données administratives sur la performance scolaire des éleves. Nous étudions ainsi l’impact de l’introduction d’une interdiction de téléphonie mobile sur le rendement des éleves. Nos résultats indiquent qu’il y a une augmentation du rendement des éleves après l’instauration de l’interdiction des cellulaires à l’école, ce qui suggère que les téléphones mobiles sont sources de distraction pour l’apprentissage et l’introduction d’une interdiction à l’école limite ce problème.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse concerne l’étude de phase de séparation de deux polymères thermosensibles connus-poly(N-isopropylacylamide) (PNIPAM) et poly(2-isopropyl-2-oxazoline) (PIPOZ). Parmi des études variées sur ces deux polymères, il y a encore deux parties de leurs propriétés thermiques inexplicites à être étudiées. Une partie concerne l’effet de consolvant de PNIPAM dans l’eau et un autre solvant hydromiscible. L’autre est l’effet de propriétés de groupes terminaux de chaînes sur la séparation de phase de PIPOZ. Pour ce faire, nous avons d’abord étudié l’effet de l’architecture de chaînes sur l’effet de cosolvant de PNIPAMs dans le mélange de méthanol/eau en utilisant un PNIPAM en étoile avec 4 branches et un PNIPAM cyclique comme modèles. Avec PNIPAM en étoile, l’adhérence de branches PNIPAM de à un cœur hydrophobique provoque une réduction de Tc (la température du point de turbidité) et une enthalpie plus faible de la transition de phase. En revanche, la Tc de PNIPAM en étoile dépend de la masse molaire de polymère. La coopérativité de déhydratation diminue pour PNIPAM en étoile et PNIPAM cyclique à cause de la limite topologique. Une étude sur l’influence de concentration en polymère sur l’effet de cosolvant de PNIPAM dans le mélange méthanol/eau a montré qu’une séparation de phase liquide-liquide macroscopique (MLLPS) a lieu pour une solution de PNIPAM dans le mélange méthanol/eau avec la fraction molaire de méthanol entre 0.127 et 0.421 et la concentration en PNIPAM est constante à 10 g.L-1. Après deux jours d’équilibration à température ambiante, la suspension turbide de PNIPAM dans le mélange méthanol/eau se sépare en deux phases dont une phase possède beaucoup plus de PNIPAM que l’autre. Un diagramme de phase qui montre la MLLPS pour le mélange PNIPAM/eau/méthanol a été établi à base de données expérimentales. La taille et la morphologie de gouttelettes dans la phase riche en polymère condensée dépendent de la fraction molaire de méthanol. Parce que la présence de méthanol influence la tension de surface des gouttelettes liquides, un équilibre lent de la séparation de phase pour PNIPAM/eau/méthanol système a été accéléré et une séparation de phase liquide-liquide macroscopique apparait. Afin d’étudier l’effet de groupes terminaux sur les propriétés de solution de PIPOZ, deux PIPOZs téléchéliques avec groupe perfluorodécanyle (FPIPOZ) ou groupe octadécyle (C18PIPOZ) comme extrémités de chaîne ont été synthétisés. Les valeurs de Tc des polymères téléchéliques ont beaucoup diminué par rapport à celle de PIPOZ. Des micelles stables se forment dans des solutions aqueuses de polymères téléchéliques. La micellization et la séparation de phase de ces polymères dans l’eau ont été étudiées. La séparation de phase de PIPOZs téléchéliques suit le mécanisme de MLLPS. Des différences en tailles de gouttelettes formées à l’intérieur de solutions de deux polymères ont été observées. Pour étudier profondément les différences dans le comportement d’association entre deux polymères téléchéliques, les intensités des signaux de polymères correspondants et les temps de relaxation T1, T2 ont été mesurés. Des valeurs de T2 de protons correspondants aux IPOZs sont plus hautes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nul ne songe à nier qu’il y ait des différences entre les élèves « en mathématiques ». Cependant, la description de ces différences prend plusieurs formes et s’appuie sur des types de corpus également multiples selon le champ de recherche dans lequel l’on s’inscrit: certains s’intéressent plutôt aux différences de performances en considérant les productions écrites de ces élèves, d’autres plutôt aux différences dans les comportements à partir d’enregistrements de séances, d’autres encore aux différences dans les ressentis, à partir d’entretiens…Cependant encore, les interprétations ou les explications apportées à ces différences sont aussi multiples : elles peuvent ainsi être intérieures à l’espace de la classe ou au contraire extérieures au monde scolaire si par exemple elles sont recherchées dans les différences entre les milieux socio-culturels dans lesquels les enfants évoluent.Nous souhaitons montrer comment une approche didactique apporte un éclairage intéressant à cette problématique des descriptions et des interprétations des différences entre élèves

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A reciclagem de misturas asfálticas usando técnicas de misturas mornas atende às exigências da sustentabilidade, limitando o consumo de energia e de novos materiais. A reciclagem de revestimentos asfálticos fresados (RAP) é praticada há mais de 40 anos, por meio de usinagem a quente do RAP adicionado a agregados e ligante novos. Todavia, o uso de elevadas taxas de RAP (acima de 25% no total), é um grande desafio até o presente, pois limita a perda de durabilidade da mistura asfáltica final. O RAP contém ligante asfáltico envelhecido aderido aos agregados, porém uma parte desse ligante pode ser remobilizada durante a reciclagem pelo aumento da temperatura no processo de usinagem. Esta tese busca compreender o processo de remobilização do ligante envelhecido durante a reciclagem do RAP e as consequências da magnitude de temperatura empregada no processo de reaquecimento deste material envelhecido. Atualmente, tem-se buscado o uso da tecnologia de usinagem morna, permitindo a redução de temperatura total no processo de fabricação. Um dos problemas possíveis da combinação das técnicas reciclagem morna é a ocorrência do fenômeno de recobrimento duplo, que pode impactar na reologia do novo material: o ligante do RAP e o ligante novo não se misturariam totalmente, devido à redução das temperaturas de fabricação, formando camadas superpostas. Este fenômeno seria a causa de disfuncionamentos mecânicos da mistura asfáltica final. Questiona-se então a qualidade do recobrimento dos agregados do RAP, já recobertos, e a falta de um meio de caracterização para a observação da interface. Neste estudo, a qualidade do recobrimento do RAP foi avaliada em escala microscópica e macroscópica. No nível microscópico, foi proposto o uso de uma ferramenta de micro-espectroscopia infravermelha para avaliar a interface entre o RAP e o ligante novo, e seguir a distribuição espacial desses dois componentes na mistura asfáltica. Para tanto, foi realizado um desenvolvimento experimental detalhado que permitisse o uso de um acessório de imagem infravermelha em misturas asfálticas recicladas. Graças à indentificação prévia de marcadores internos, foi possível acompanhar a mobilização parcial do ligante envelhecido do RAP. Em paralelo, no nível macroscópico, foi desenvolvido um protocolo de ensaio com o objetivo de avaliar a durabilidade das misturas asfálticas recicladas com taxas elevadas de RAP (50%), com o objetivo princial de compreender se há benefícios nas propriedades mecânicas de misturas mornas recicladas. O ensaio de fadiga é um dos ensaios que permitem melhor avaliar e comparar diferentes misturas asfálticas para comporem uma camada de pavimento. Porém, este ensaio não pode ser diretamente transposto à previsibilidade de campo por ter restrições, tais como o ligante das amostras ensaiadas não teve tempo de envelhecer; e as misturas asfálticas, dependendo da quantidade de RAP e da temperatura de usinagem, podem envelhecer em velocidades diferentes em campo. No presente trabalho, foi proposta a adição de uma etapa de envelhecimento previamente aos ensaios mecânicos. Foi suposto que o comportamento real do material estaria situado entre o do material não envelhecido e do envelhecido. Os principais resultados mostram que uma mistura reciclada morna apresenta resultados satisfatórios de comportamento mecânico que atestam seu uso como camada de revestimento asfáltico, exceto que ela tem a tendência de ser mais sensível à fadiga que uma mistura com a mesma composição de agregados e de teor de ligante, fabricada a quente ou morna, mas sem a adição de RAP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).