65 resultados para Robustesse
Resumo:
Le logiciel de simulation des données et d'analyse est Conquest V.3
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.
Resumo:
L’atteinte de la fonction endothéliale représente une phase précoce de l’athérosclérose, un stade où les patients sont généralement asymptomatiques. Il existe donc un intérêt certain à détecter la dysfonction endothéliale. Nous avons développé une technique de mesure des variations de flot artériel au niveau des membres supérieurs, basée sur la spectroscopie proche infrarouge (NIRS). Cette approche permettrait d’étudier le niveau d’atteinte vasculaire et probablement de quantifier le degré de dysfonction endothéliale périphérique lors d’une hyperémie réactive. L'expérience a été exécutée sur deux cohortes de 13 et de 15 patients et a été comparée à la pléthysmographie par jauge de contrainte (SGP) qui est considérée comme une méthode de référence. Par la suite, nous avons caractérisé la réponse endothéliale par modélisation de la courbe hyperémique du flot artériel. Des études préliminaires avaient démontré que la réponse hyperémique adoptait majoritairement une forme bi-modale. Nous avons tenté de séparer les composantes endothéliales-dépendantes et endothéliales-indépendantes de l’hyperémie. La quantification des deux composantes de la réaction hyperémique permet de calculer un indice de la ‘santé’ du système endothélial local. Cet indice est nommé le ηfactor. Les résultats montrent une forte corrélation des mesures de flots entre la technique développée et la méthode de référence (r=0.91). Nous avons conclu que NIRS est une approche précise pour la mesure non-invasive du flot artériel. Nous avons obtenu une bonne répétabilité (ICC = 0.9313) pour le ηfactor indiquant sa robustesse. Cependant des études supplémentaires sont nécessaires pour valider la valeur de diagnostic du facteur défini. Mots clés: hyperémie réactive, réponse myogénique, oxyde nitrique, athérosclérose, spectroscopie proche infrarouge
Resumo:
Des études adultes sur l’œdème pulmonaire lésionnel et le Syndrome de Détresse Respiratoire Aiguë ont mené à l’établissement de recommandations sur les stratégies de ventilation mécanique à employer chez ces patients. Cependant, il n’est pas clair si les recommandations adultes sont également bénéfiques pour l’enfant. Objectif Décrire les stratégies de ventilation mécanique employées chez les enfants atteints d’un œdème pulmonaire lésionnel. Méthodes Étude épidémiologique transversale tenue dans 59 unités de Soins Intensifs Pédiatriques de 12 pays en Amérique du Nord et en Europe. Six jours d’étude ont eu lieu entre juin et novembre 2007. Les enfants atteints d’un œdème pulmonaire lésionnel étaient inclus et des données sur la sévérité de leur maladie, les paramètres de ventilation mécanique et les thérapies adjuvantes employées ont été recueillies. Résultats Des 3823 enfants dépistés, 414 (10.8%) avaient un œdème pulmonaire lésionnel et 165 (40%) ont été inclus dans l’étude (124 étaient sous ventilation mécanique conventionnelle, 27 sous ventilation à haute fréquence par oscillation et 14 sous ventilation non invasive). Dans le groupe sous ventilation conventionnelle, 43.5% étaient ventilés avec un mode contrôlé à pression, le volume courant moyen était de 8.3±3.3 ml/kg et l’utilisation de la PEP et FiO2 était hétérogène. Conclusions Cette étude démontre une hétérogénéité dans les stratégies de ventilation mécanique employées chez les enfants souffrant d’un œdème pulmonaire lésionnel. Celle-ci pourrait être en partie reliée à la robustesse des critères diagnostiques actuellement utilisés pour définir l’ALI/SDRA. Une évaluation rigoureuse de ces stratégies est nécessaire pour guider la standardisation des soins et optimiser l’issue de ces patients.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
S’inscrivant dans le paradigme de la recherche qualitative, cette étude fait état d’une investigation des ressources mobilisées par cinq enseignantes québécoises et cinq enseignantes roumaines pour le développement de la résilience éducationnelle devant la violence scolaire, évaluée comme facteur de risque. L’analyse des données révèle le rôle des compétences professionnelles dans le développement de la résilience éducationnelle, en tant que ressources, chez les enseignantes rencontrées. En tant que recherche exploratoire comparative, cette étude s’intéresse à l’influence des différences culturelles sur la perception et l’impact des expériences de violence vécues, à la mise en pratique des compétences professionnelles, aux sentiments d’efficacité et de satisfaction professionnelle, au développement et au fonctionnement du processus de résilience éducationnelle chez les enseignantes de deux groupes nationaux. L’approche écosystémique met en lumière le caractère de processus dynamique de la résilience éducationnelle qui exige des ressources et repose sur des facteurs dont l’interaction assure son fonctionnement.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.
Resumo:
Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.
Resumo:
Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
La voix est un stimulus auditif omniprésent dans notre environnement sonore. Elle permet non seulement la parole, mais serait aussi l’équivalent d’un visage auditif transmettant notamment des informations identitaires et affectives importantes. Notre capacité à discriminer et reconnaître des voix est socialement et biologiquement importante et elle figure parmi les fonctions les plus importantes du système auditif humain. La présente thèse s’intéressait à l’ontogénèse et à la spécificité de la réponse corticale à la voix humaine et avait pour but trois objectifs : (1) mettre sur pied un protocole électrophysiologique permettant de mesurer objectivement le traitement de la familiarité de la voix chez le sujet adulte; (2) déterminer si ce même protocole pouvait aussi objectiver chez le nouveau-né de 24 heures un traitement préférentiel d’une voix familière, notamment la voix de la mère; et (3) mettre à l’épreuve la robustesse d’une mesure électrophysiologique, notamment la Fronto-Temporal Positivity to Voices, s’intéressant à la discrimination pré-attentionnelle entre des stimuli vocaux et non-vocaux. Les résultats découlant des trois études expérimentales qui composent cette thèse ont permis (1) d’identifier des composantes électrophysiologiques (Mismatch Negativity et P3a) sensibles au traitement de la familiarité d’une voix; (2) de mettre en lumière un patron d’activation corticale singulier à la voix de la mère chez le nouveau-né, fournissant le premier indice neurophysiologique de l’acquisition du langage, processus particulièrement lié à l’interaction mère-enfant; et (3) de confirmer l’aspect pré-attentionnel de la distinction entre une voix et un stimulus non-vocal tout en accentuant la sélectivité et la sensibilité de la réponse corticale réservée au traitement de la voix.
Resumo:
Les transferts horizontaux de gènes (THG) ont été démontrés pour jouer un rôle important dans l'évolution des procaryotes. Leur impact a été le sujet de débats intenses, ceux-ci allant même jusqu'à l'abandon de l'arbre des espèces. Selon certaines études, un signal historique dominant est présent chez les procaryotes, puisque les transmissions horizontales stables et fonctionnelles semblent beaucoup plus rares que les transmissions verticales (des dizaines contre des milliards). Cependant, l'effet cumulatif des THG est non-négligeable et peut potentiellement affecter l'inférence phylogénétique. Conséquemment, la plupart des chercheurs basent leurs inférences phylogénétiques sur un faible nombre de gènes rarement transférés, comme les protéines ribosomales. Ceux-ci n'accordent cependant pas autant d'importance au modèle d'évolution utilisé, même s'il a été démontré que celui-ci est important lorsqu'il est question de résoudre certaines divergences entre ancêtres d'espèces, comme pour les animaux par exemple. Dans ce mémoire, nous avons utilisé des simulations et analyser des jeux de données d'Archées afin d'étudier l'impact relatif des THG ainsi que l'impact des modèles d'évolution sur la précision phylogénétique. Nos simulations prouvent que (1) les THG ont un impact limité sur les phylogénies, considérant un taux de transferts réaliste et que (2) l'approche super-matrice est plus précise que l'approche super-arbre. Nous avons également observé que les modèles complexes expliquent non seulement mieux les données que les modèles standards, mais peuvent avoir un impact direct sur différents groupes phylogénétiques et sur la robustesse de l'arbre obtenu. Nos résultats contredisent une publication récente proposant que les Thaumarchaeota apparaissent à la base de l'arbre des Archées.