606 resultados para applications des méthodes de crible


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La station 3-avant de Pointe-du-Buisson (Beauharnois, Haut-Saint-Laurent, Québec) représente la plus importante collection de récipients de terre cuite datant du Sylvicole moyen ancien (-400 à 500 de notre ère) dans le Nord-Est américain. De plus, on trouve sur ce site une série continue d’occupations couvrant l’ensemble de la période Sylvicole. En dépit de complications d’ordre stratigraphique (terreau homogène et pédoturbations), des concepts et des méthodes évolutionnaires tirés de la théorie de l’hérédité duelle sont appliqués à l’étude de cet assemblage. D’un point de vue anthropologique, que nous apprend l’étude de l’évolution et de la transmission des savoir-faire d’une technologie que nous assumons exclusivement féminine au cours de la période Sylvicole? L’auteur défend que l’archéologie évolutionnaire permet de détecter le contexte de la transmission, c’est-à-dire l’organisation socioéconomique des populations du passé. L’examen des traits stylistiques suggère que la sédentarisation estivale des bandes amérindiennes à partir du Sylvicole moyen tardif favorise une homogénéisation des productions céramiques dans un contexte virilocal qui est la conséquence d’une transmission de type conformiste opérant sur un axe horizontal (entre pairs). Cependant, le passage probable des tribus iroquoiennes à l’uxorilocalité et à la matrilinéarité à la fin du Sylvicole se traduit par une saisissante hétérogénéisation des pots, qui s’explique possiblement par une sélection de marqueurs identitaire d’ordre clanique (transmission verticale entre parents et descendants). L’étude des traits techno-fonctionnels indique une diversification de la vaisselle de terre cuite à mesure que les populations intensifient leurs expériences sur les cultigènes. Dans l’ensemble, cette évolution trahit une attention accrue conférée à la performance des pots en tant que récipients culinaires. Par ailleurs, le concours de la sériation et de datations AMS permet la reconnaisance d’un taxon « Sylvicole moyen moyen » caractérisé par une modification morphologique et décorative des vases. Une enquête comparative portant sur un échantillon de 27 sites archéologiques de l’horizon Pseudo-scallop-shell démontre que la variation populationnelle est structurée en fonction de la localisation des communautés dans un bassin hydrographique spécifique. Par conséquent, l’auteur soumet des pistes en vue de l’élaboration d’une taxonomie robuste et propre au Sylvicole moyen ancien et au Sylvicole moyen moyen. Enfin, des indices de natures diverses (archéologiques, paléoethnobotaniques, ethnolinguistiques, paléoanthropologiques, et d’autres issus de la génétique des populations) suggèrent une identité proto-algonquienne des bandes des deux sous-périodes susmentionnées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de ce projet était de développer des méthodes d'assemblage de novo dans le but d'assembler de petits génomes, principalement bactériens, à partir de données de séquençage de nouvelle-génération. Éventuellement, ces méthodes pourraient être appliquées à l'assemblage du génome de StachEndo, une Alpha-Protéobactérie inconnue endosymbiote de l'amibe Stachyamoeba lipophora. Suite à plusieurs analyses préliminaires, il fut observé que l’utilisation de lectures Illumina avec des assembleurs par graphe DeBruijn produisait les meilleurs résultats. Ces expériences ont également montré que les contigs produits à partir de différentes tailles de k-mères étaient complémentaires pour la finition des génomes. L’ajout de longues paires de lectures chevauchantes se montra essentiel pour la finition complète des grandes répétitions génomiques. Ces méthodes permirent d'assembler le génome de StachEndo (1,7 Mb). L'annotation de ce génome permis de montrer que StachEndo possède plusieurs caractéristiques inhabituelles chez les endosymbiotes. StachEndo constitue une espèce d'intérêt pour l'étude du développement endosymbiotique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours des trois dernières décennies, le travail quotidien des cadres gestionnaires infirmiers de premier niveau (CGIPN) a subi de profondes transformations quant aux rôles qu’ils occupent et aux responsabilités qui leur incombent dans les divers établissements de santé. Ces CGIPN vivent et subissent de la pression au regard de leur charge de travail, faisant en sorte qu’ils perçoivent avoir peu de temps pour réaliser adéquatement leur travail en gestion, et que plusieurs infirmières de la relève qui souhaitent faire carrière en gestion se questionnent sur la possibilité d’œuvrer dans ce domaine de la pratique. Peu d’études portent sur l’état de la qualité de vie au travail (QVT) chez ces professionnels. Divisé en trois volets, le projet de recherche mixte séquentielle exploratoire a pour objectif général d’explorer la QVT chez les CGIPN et les facteurs qui l’influencent dans les divers établissements de santé québécois. Les objectifs spécifiques visent à : 1) décrire et comprendre ce que signifie la QVT auprès des 14 CGIPN œuvrant en Centre hospitalier affilié (CHA) à l’Université, 2) décrire et comprendre ce que signifie l’absence d’une QVT auprès des CGIPN en CHA, 3) développer et valider un nouvel instrument de mesure des facteurs favorables et défavorables pouvant influer sur la QVT à partir des données qualitatives auprès de CGIPN (n= 11) œuvrant en Centre de santé et des services sociaux et de CGIPN (n= 11) en Centre hospitalier universitaire, 4) identifier et mesurer les facteurs qui influencent la QVT des CGIPN (n= 291) travaillant dans divers établissements publics de santé et 5) déterminer si les caractéristiques sociodémographiques influencent le choix des facteurs de la QVT. Inspiré de la philosophie du Human caring de Watson comme perspective disciplinaire, le premier volet qualitatif fait appel à une méthode phénoménologique descriptive husserlienne. Pour ce faire, deux séries d’entretiens semi-dirigés à l’aide d’un guide d’entrevue visent à répondre aux deux premiers objectifs. Le second volet cible l’élaboration et la validation d’un instrument de mesure permettant de répondre au troisième objectif de la recherche et le dernier volet, de type quantitatif corrélationnel, s’applique à répondre aux deux derniers objectifs. Dans la première phase, l’analyse visuelle des données qualitatives (verbatim) permet l’émergence des résultats qualitatifs, soit de cinq eidos-thèmes favorables exprimés par les participants et décrits par ordre d’importance : 1) l’actualisation du leadership et des habiletés politiques pour l’amélioration de la qualité des soins infirmiers, 2) les éléments contextuels propices à l’humanisation organisationnelle, 3) le soutien organisationnel favorisant l’épanouissement socioprofessionnel et personnel, 4) l’organisation apprenante favorisant le développement des compétences en gestion des soins infirmiers et 5) l’accompagnement personnalisé répondant aux besoins spécifiques des novices en gestion des soins infirmiers. L’essence de la QVT pour les CGIPN se définit par l’émancipation socioprofessionnelle du cadre gestionnaire infirmier de premier niveau dans sa pratique clinico-administrative au sein d’une organisation humaniste. De plus, trois eidos-thèmes défavorables se dégagent des analyses qualitatives. Les résultats, décrits par ordre d’importance, sont : 1) la déshumanisation organisationnelle, 2) les conditions défavorables à la pratique en gestion des soins infirmiers et 3) l’accompagnement insuffisant des gestionnaires infirmiers novices. L’essence de l’absence d’une QVT pour les CGIPN se présente comme la dysharmonie au travail du cadre gestionnaire infirmier de premier niveau à l’intérieur d’une structure organisationnelle déshumanisante mettant en péril sa pratique clinico-administrative. Par la suite, une mise en relation des deux essences du phénomène a permis de faire émerger la signification universelle de l’expérience de la QVT et l’absence de celle-ci pour des CGIPN œuvrant en CHA comme étant : une dialectique en administration des services infirmiers dans laquelle se vit des pratiques humanisantes permettant l’atteinte d’un idéal de QVT, en coexistence avec des pratiques déshumanisantes conduisant à l’absence de QVT. Afin de respecter les postulats des méthodes quantitatives, les huit eidos-thèmes qui émergent de la première phase qualitative se transforment en facteurs favorables (FF) et défavorables (FD) à la QVT pour la réalisation des deuxième et troisième phases de la recherche. Dans la seconde phase, le construit théorique qui provient des huit eidos-thèmes et 23 thèmes permet de développer un nouvel instrument de mesure qui s’avère unique à cette population à l’étude. L’analyse psychométrique de l’instrument de mesure (questionnaire auto-administré en mode électronique) permet l’obtention d’un score global du coefficient alpha de Cronbach (α) de 0,93, ce qui est jugé excellent. Dans la troisième et dernière phase, les analyses statistiques des données (logiciel SPSS, version 22 pour Windows 7, 2013) issues de l’enquête quantitative provinciale en ligne (Web) mettent en évidence des résultats probants. Les résultats du questionnaire en ligne avec une échelle ordinale à cinq niveaux révèlent un score global du coefficient alpha de Cronbach à 0,95. De plus, les résultats quantitatifs suggèrent que les facteurs favorables (FF) à la QVT ont des scores moyens de 3,99 (FF1), 3,97 (FF2), 3,96 (FF3), 3,72 (FF4) et 3,53 (FF5) et les trois facteurs défavorables (FD) à la QVT ont des scores moyens de 3,91(FD1), 3,78 (FD2) et 3,56 (FD3). Ces facteurs correspondent aux eidos-thèmes favorables et défavorables de la QVT du volet qualitatif phénoménologique. Les résultats quantitatifs révèlent quelques relations significatives des caractéristiques sociodémographiques (âge et années d’expérience) sur le choix des facteurs qui influencent le plus fortement la QVT. En conclusion, le fait de pouvoir mieux décrire et comprendre la signification de la QVT ainsi que son absence et de pouvoir identifier les facteurs qui sont les plus susceptibles de l’influencer permet de formuler des recommandations pour les quatre domaines de la pratique infirmière. Des pistes d’avenues sont formulées pour maintenir la relève infirmière à des postes de CGIPN au sein des organisations de santé en lui assurant des moyens pour optimiser humainement sa QVT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il existe un grand intérêt pour le développement et les applications des nanotubes de carbone (NTC) car ils ont un énorme potentiel dans diverses applications industrielles. Cependant, leur dimension nanométrique et leur composition chimique peuvent constituer un risque sur la santé humaine. Les mécanismes responsables de la toxicité des NTC restent encore à définir. L’objectif de ce projet était de déterminer la toxicité potentielle de deux types de nanotubes de carbone simple-paroi (NTCSP): RN 000 et RN 003 chez une lignée cellulaire de pneumocytes de type II, les cellules A549. Méthodologie: Les essais MTS et PrestoBlue®, le test d’exclusion au bleu de trypan, la coloration HT-IP et l’Apoptotic Blebs ont été utilisés pour déterminer la toxicité potentielle de ces NTCSP. Résultats: Suite à une exposition de courte durée (24h), l’essai MTS a montré une diminution de la viabilité cellulaire significative de 20% pour [NTCSP] à 50 et 100 µg/ml et 74% pour [NTCSP] à 1000 µg/mL. Le PrestoBlue® a indiqué une mortalité cellulaire d’environ 45% et de 85% pour des concentration de 500 et 1000 µg/ml de NTCSP. Cependant, les données de l’essai d’exclusion du bleu de trypan ont montré que les NTCSP n’altèrent pas la viabilité cellulaire. L’absence d’une altération de la viabilité cellulaire a été confirmée avec la coloration HT-IP et l’Apoptotic Blebs. Cependant, l’interaction des NTCSP avec les cellules A549 a induit un changement de la morphologie cellulaire ; une diminution de la taille ainsi une augmentation de la structure interne des cellules A549. À une exposition à longue durée (72h), les données ont confirmé les résultats d’exposition à 24h. En effet, il n’y a de pas de mortalité cellulaire, mais une diminution de la prolifération cellulaire. En conclusion, notre étude indique que le RN 000 et le RN 003 interagissent avec les cellules A549 sans altérer leur viabilité, mais en induisant une dysfonction mitochondriale qui pourrait avoir plusieurs conséquences sur la fonction cellulaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des avancements récents dans le domaine de la radiothérapie stéréotaxique permettent à un nombre grandissant de patients de recevoir un traitement non-invasif pour le cancer du foie. L’une des méthodes utilisées consiste à suivre le mouvement de la tumeur à l’aide de marqueurs radio-opaques insérés dans le foie grâce au système de suivi de l’appareil de traitement CyberKnife. Or, l’insertion de ces marqueurs est parfois trop invasive pour certains patients souffrant de maladie du foie avancée. Ces patients ont souvent un historique de chirurgie qui permet d’utiliser les agrafes chirurgicales déjà présentes dans leur foie dans le but de suivre leur tumeur. Cette nouvelle approche au traitement des tumeurs du foie est investiguée dans cette étude afin d’en déterminer les paramètres optimaux pour une meilleure pratique thérapeutique. L’expérimentation sur fantôme anthropomorpique a permis de conclure que le contraste des agrafes dans leur milieu augmente lors de l’augmentation des paramètres d’imagerie (kilovoltage et milliampérage de l’appareil de radiographie). D’autre part, l’erreur commise par le système CyberKnife dans l’identification des agrafes pour le suivi a été mesurée comme étant supérieure à celle sur l’emplacement des marqueurs radiologiques de platine (environ 1 mm contre moins de 1 mm). Cette erreur est considérée comme acceptable dans le contexte de ce type de traitement particulier. Enfin, une analyse gamma de l’impact dosimétrique du suivi par agrafes a montré qu’il était approximativement équivalent à celui par marqueurs de platine. De ces observations on conclue que le traitement des tumeurs du foie avec suivi des agrafes chirurgicales est valide et peut être amélioré suivant certaines recommandations cliniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse contribue a la recherche vers l'intelligence artificielle en utilisant des méthodes connexionnistes. Les réseaux de neurones récurrents sont un ensemble de modèles séquentiels de plus en plus populaires capable en principe d'apprendre des algorithmes arbitraires. Ces modèles effectuent un apprentissage en profondeur, un type d'apprentissage machine. Sa généralité et son succès empirique en font un sujet intéressant pour la recherche et un outil prometteur pour la création de l'intelligence artificielle plus générale. Le premier chapitre de cette thèse donne un bref aperçu des sujets de fonds: l'intelligence artificielle, l'apprentissage machine, l'apprentissage en profondeur et les réseaux de neurones récurrents. Les trois chapitres suivants couvrent ces sujets de manière de plus en plus spécifiques. Enfin, nous présentons quelques contributions apportées aux réseaux de neurones récurrents. Le chapitre \ref{arxiv1} présente nos travaux de régularisation des réseaux de neurones récurrents. La régularisation vise à améliorer la capacité de généralisation du modèle, et joue un role clé dans la performance de plusieurs applications des réseaux de neurones récurrents, en particulier en reconnaissance vocale. Notre approche donne l'état de l'art sur TIMIT, un benchmark standard pour cette tâche. Le chapitre \ref{cpgp} présente une seconde ligne de travail, toujours en cours, qui explore une nouvelle architecture pour les réseaux de neurones récurrents. Les réseaux de neurones récurrents maintiennent un état caché qui représente leurs observations antérieures. L'idée de ce travail est de coder certaines dynamiques abstraites dans l'état caché, donnant au réseau une manière naturelle d'encoder des tendances cohérentes de l'état de son environnement. Notre travail est fondé sur un modèle existant; nous décrivons ce travail et nos contributions avec notamment une expérience préliminaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La recherche d'informations s'intéresse, entre autres, à répondre à des questions comme: est-ce qu'un document est pertinent à une requête ? Est-ce que deux requêtes ou deux documents sont similaires ? Comment la similarité entre deux requêtes ou documents peut être utilisée pour améliorer l'estimation de la pertinence ? Pour donner réponse à ces questions, il est nécessaire d'associer chaque document et requête à des représentations interprétables par ordinateur. Une fois ces représentations estimées, la similarité peut correspondre, par exemple, à une distance ou une divergence qui opère dans l'espace de représentation. On admet généralement que la qualité d'une représentation a un impact direct sur l'erreur d'estimation par rapport à la vraie pertinence, jugée par un humain. Estimer de bonnes représentations des documents et des requêtes a longtemps été un problème central de la recherche d'informations. Le but de cette thèse est de proposer des nouvelles méthodes pour estimer les représentations des documents et des requêtes, la relation de pertinence entre eux et ainsi modestement avancer l'état de l'art du domaine. Nous présentons quatre articles publiés dans des conférences internationales et un article publié dans un forum d'évaluation. Les deux premiers articles concernent des méthodes qui créent l'espace de représentation selon une connaissance à priori sur les caractéristiques qui sont importantes pour la tâche à accomplir. Ceux-ci nous amènent à présenter un nouveau modèle de recherche d'informations qui diffère des modèles existants sur le plan théorique et de l'efficacité expérimentale. Les deux derniers articles marquent un changement fondamental dans l'approche de construction des représentations. Ils bénéficient notamment de l'intérêt de recherche dont les techniques d'apprentissage profond par réseaux de neurones, ou deep learning, ont fait récemment l'objet. Ces modèles d'apprentissage élicitent automatiquement les caractéristiques importantes pour la tâche demandée à partir d'une quantité importante de données. Nous nous intéressons à la modélisation des relations sémantiques entre documents et requêtes ainsi qu'entre deux ou plusieurs requêtes. Ces derniers articles marquent les premières applications de l'apprentissage de représentations par réseaux de neurones à la recherche d'informations. Les modèles proposés ont aussi produit une performance améliorée sur des collections de test standard. Nos travaux nous mènent à la conclusion générale suivante: la performance en recherche d'informations pourrait drastiquement être améliorée en se basant sur les approches d'apprentissage de représentations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le débat sur l’unicité ou la multiplicité de l’intelligence, Gardner prend nettement position en faveur des intelligences multiples (IM). Son approche soulève toutefois au moins neuf critiques : la confusion entre l’intelligence et le talent, une rigueur scientifique insuffisante, l’absence de réelles nouveautés, le caractère arbitraire des critères utilisés, les problèmes de l’interdépendance des IM, du réel statut des IM, l’ignorance des résultats des approches factorielles et le refus de considérer les différences entre les groupes, de la mesure des IM. La validité des applications des IM dans le milieu scolaire peut également être mise en doute. En conclusion, nous nous interrogeons sur la raison du succès de la théorie des IM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.