251 resultados para Calculs urinaires.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fracture behaviour of notched and un-notched plain concrete slender beams subjected to three-point or four-point bending is analyzed through a one-dimensional model, also called Softening Beam Model. Fundamental equations of equilibrium are used to develop the model. The influence of structural size in altering the fracture mode from brittle fracture to plastic collapse is explained through the stress distribution across the uncracked ligament obtained by varying the strain softening modulus. It is found that at the onset of fracture instability, stress at the crack tip is equal to zero. The maximum load and fracture load are found to be different and a unique value for the fracture load is obtained. It is shown that the length of the fracture process zone depends on the value of the strain softening modulus. Theoretical limits for fracture process zone length are also calculated. Several nonlinear fracture parameters, such as, crack tip opening displacement, crack mouth opening displacement and fracture energy are computed for a wide variety of beam specimens reported in the literature and are found to compare very well with experimental and theoretical results. It is demonstrated that by following a simple procedure, both pre-peak and post-peak portions of load versus crack mouth opening displacement curve can be obtained quite accurately. Further, a simple procedure to calculate the maximum load is also developed. The predicted values of maximum load are found to agree well with the experimental values. The Softening Beam Model (SBM), proposed in this investigation is very simple and is based on rational considerations. It can completely describe the fracture process from the beginning of formation of the fracture process zone till the onset of fracture instability.A l'aide d'un modèle unidimensionnel dit ldquoSoftening Beam Modelrdquo (SBM), on analyse le comportement à rupture de poutres élancées pleines entaillées ou non, soumises en flexion en trois ou quatre points. Des équations fondamentales d'équilibre sont utilisées pour développer le modèle. On explique l'influence de la taille du composant sur l'altération du mode de rupture en rupture fragile et en effondrement plastique par la distribution par la distribution des contraintes sur le ligament non fissuré lorsque varie le module d'adoucissement. On trouve que la contrainte à l'extrémité de la fissure est nulle est nulle au début de l'instabilité de la rupture. La charge maximum et la charge à la rupture sont trouvées différentes, et on obtient une valeur unique de la charge à la rupture. On montre que la longueur de la zone concernée par le processus de rupture d'pend de la valeur du module d'adoucissement. On calcule également les limites théoriques de longueur de cette zone. Divers paramètres de rupture non linéaire sont calculés pour une large gamme d'éprouvettes en poutres reprises dans la littérature; on trouve qu'il existe une bonne concordance avec les résultats expérimentaux et théoriques. On démontre qu'en suivant une procédure simple on peut obtenir avec une bonne précision la courbe reliant les portions avant et après le pic de sollicitation en fonction du COD de la fissure. En outre, on développe une procédure simple pour calculer la charge maximum. Les valeurs prédites sont en bon accord avec les valeurs expérimentales. Le modèle SBM proposé est très simple et est basé sur des considérations rationnelles. Il est susceptible de décrire complètement le processus de rupture depuis le début de la formation de la zone intéressée jusqu'à l'amorçage de la rupture instable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este Trabajo de Fin de Grado tiene como objeto crear un programa que sirva como herramienta para los cálculos en las propiedades a fatiga de una pieza. El conjunto del trabajo se centra en su creación mediante la herramienta Excel. El programa cuenta con tres diferentes pestañas: una para los datos que debe introducir el usuario, otra correspondiente a los cálculos y por último una en la que aparecen los resultados. El usuario debe conocer las propiedades de la probeta del material a ensayar, así como el rango de ciclos en el cual se va a trabajar (siempre en un rango de ciclos medio alto). A partir de estas informaciones de la probeta, y gracias a la curva de Basquin y la ecuación de Marin, el programa será capaz de obtener la curva de resistencia a fatiga correspondiente para la pieza. Se incluyen también casos especiales en los que se realicen tratamientos mecánicos de mejora, con una tensión límite del proceso. Para obtener la curva S-N de la pieza se pedirá información en la pestaña de interfaz con el usuario sobre distintas propiedades de la pieza, que permitan así calcular los valores de los coeficientes de Marín gracias a la base de datos que contiene el programa. El usuario tiene también la opción de introducir él mismo los valores de los coeficientes para así obtener una curva que se aproxime más a sus resultados experimentales. En resumen, la función del programa es la de ser una calculadora de la resistencia fatiga de la pieza a partir de los datos que se disponen de la probeta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-delà de ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Commençant par : « A tous ceaus qui sont et qui à venir sont, faisons assavoir que la maison de Saint Johan Baptiste et des povres de Jerusalem... » et finissant par : «... fu fet le mol et cloze la marine dou bourc de Rodes » . Le texte, accompagné d'une glose marginale et de notes en langue catalane, se termine par une liste des grands maîtres de l'ordrejusqu'à Daude de Goson. Les dernières lignes sont d'une écriture postérieure. A la fin du volume, des tables et calculs d'astrologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FRANCAIS: L'observation d'une intense luminescence dans les super-réseaux de Si/SiO2 a ouvert de nouvelles avenues en recherche théorique des matériaux à base de silicium, pour des applications éventuelles en optoélectronique. Le silicium dans sa phase cristalline possède un gap indirect, le rendant ainsi moins intéressant vis-à-vis d'autres matériaux luminescents. Concevoir des matériaux luminescents à base de silicium ouvrira donc la voie sur de multiples applications. Ce travail fait état de trois contributions au domaine. Premièrement, différents modèles de super-réseaux de Si/SiO2 ont été conçus et étudiés à l'aide de calculs ab initio afin d'en évaluer les propriétés structurales, électroniques et optiques. Les deux premiers modèles dérivés des structures cristallines du silicium et du dioxyde de silicium ont permis de démontrer l'importance du rôle de l'interface Si/SiO2 sur les propriétés optiques. De nouveaux modèles structurellement relaxés ont alors été construits afin de mieux caractériser les interfaces et ainsi mieux évaluer la portée du confinement sur les propriétés optiques. Deuxièmement, un gap direct dans les modèles structurellement relaxés a été obtenu. Le calcul de l'absorption (par l'application de la règle d'or de Fermi) a permis de confirmer que les propriétés d'absorption (et d'émission) du silicium cristallin sont améliorées lorsque celui-ci est confiné par le SiO2. Un décalage vers le bleu avec accroissement du confinement a aussi été observé. Une étude détaillée du rôle des atomes sous-oxydés aux interfaces a de plus été menée. Ces atomes ont le double effet d'accroître légèrement le gap d'énergie et d'aplanir la structure électronique près du niveau de Fermi. Troisièmement, une application directe de la théorique des transitions de Slater, une approche issue de la théorie de la fonctionnelle de la densité pour des ensembles, a été déterminée pour le silicium cristallin puis comparée aux mesures d'absorption par rayons X. Une très bonne correspondance entre cette théorie et l'expérience est observée. Ces calculs ont été appliqués aux super-réseaux afin d'estimer et caractériser leurs propriétés électroniques dans la zone de confinement, dans les bandes de conduction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option Droit des technologies de l'information"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est premièrement d’évaluer l’effet du vieillissement sur les fonctions psychomotrices des souches de souris sélectionnées génétiquement en fonction de leur tension artérielle (TA); deuxièmement, de localiser les déterminants génétiques des phénotypes psychophysiologiques à partir de souches recombinantes congéniques (RCS). Ces travaux ont mené à la publication de 4 articles. Le premier article décrit l’évaluation des fonctions psychomotrices des souches avec une tension artérielle élevée (HBP), basse (LBP) et normale (NBP). La performance aux épreuves d’exploration, d’habiletés motrices et d’apprentissage spatial, a été mesurée sur deux cohortes âgées respectivement de 12 mois et de trois mois. Indépendamment de l’âge, les HBPs sont hyperactives dans l’open-field (OF), mais pas dans le test d’exploration de trous. Inversement, les LBP explorent moins d’espaces que les NBP et, à trois mois seulement, sont hypoactives dans l’OF. Par ailleurs, les HBPs et les LBP présentent des déficits précoces de coordination motrice et des fonctions visuo-motrices. Le second article concerne l’évaluation longitudinale de la coordination motrice, de l’anxiété et de l’apprentissage spatial des souches HBP, LBP et NBP, à l’âge de deux mois et de 12 mois. Le vieillissement accentue l’hyperactivité des HBPs dans l’OF. Par contre, l’hypoactivité des souris LBP est détectable seulement à l’âge de deux mois. Indépendamment de l’âge, les souris HBP et LBP montrent une perception réduite du danger dans l’épreuve d’anxiété et des dysfonctions visuo-motrices au labyrinthe aquatique. Enfin, des déficits précoces de coordination motrice se manifestent seulement chez les HBPs. Il reste à déterminer si les déficits observés sont liés à des déterminants génétiques indépendants ou secondaires aux altérations de la tension artérielle. Le troisième article présente la comparaison entre les souches consanguines A/J et C57Bl/6J (B6) aux épreuves de l’OF, de la planche à trous, du labyrinthe aquatique et du cintre (coordination motrice). Les B6 explore d’avantage l’OF et la planche à trous. Les B6 sont moins rapides sur le cintre, mais supérieurs aux A/J dans le labyrinthe aquatique, avec une plate-forme invisible ou visible. Ces résultats démontrent l’implication de déterminants génétiques. Cette thèse se termine par un quatrième article sur la localisation des déterminants génétiques de la susceptibilité au stress dans les RCS, dérivées de A/J et B6, et présentant un agencement spécifique de 12.5% du génome. La réactivité émotionnelle est évaluée dans l’OF et le plus-maze; la réponse de stress est mesurée par radio télémétrie de la température interne pendant le stress d’immobilisation (SI) sous diète régulière et riche en sel; l’excrétion des électrolytes urinaires est dosée après 24 heures de diète salée. Les loci les plus significatifs sont situés dans les régions suivantes: de l’émotionalité dans l’OF (Emo1) sur le chr. 1 (LOD=4.6) correspondant à la région homologue impliquée dans la cohorte d’hypertension familiale du Saguenay; de la dopa décarboxylase (ddc) sur le chr. 11 pour l’émergence du plus-maze (LOD=4.7); de la protéine liant l’endotoxine (lbp) sur le chr. 2 pour l’hypothermie initiale en réponse au SI (LOD=4); et de HSP90 sur le chr. 12 pour l’excrétion de Ca++ (LOD=4.6). Des banques de données sont ensuite interrogées pour recenser les polymorphismes des régions régulatrices ou codantes des gènes candidats chez les souches ancestrales A/J et B6, dont les séquences sont disponibles pour le génome entier. Des utilitaires web permettent de dévoiler les changements dans la structure secondaire de l’ARNm, l’interférence avec des microARN ou avec d’autres motifs de liaison. Plusieurs SNPs fonctionnels ont été identifiés pour le QTL du chr. 1, particulièrement dans les éléments de régulation; ceux-ci impliquant des gènes reliés avec les réponses inflammatoire/immunitaire ou avec le système cardiovasculaire. La quantification par la PCR confirme une régulation à la baisse d’atp1a2 dans le cœur et le cerveau des souches susceptibles à l’anxiété. Ces résultats confirment l’intrication des altérations de la susceptibilité au stress et de la régulation de la TA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre patrimoine génétique dévoile, de plus en plus, les passerelles démogénétiques d’une susceptibilité plus accrue de certains individus à des maladies infectieuses complexes. En vue d’une caractérisation de la variabilité génétique des populations ouest-africaines, nous avons analysé 659 chromosomes X au locus dys44 qui comprend, 35 SNPs et un microsatellite distribués sur 2853 pb en amont et 5034 pb en aval de l’exon 44 du gène de la dystrophine en Xp21.3. Les génotypes obtenus, par ASO dynamique et électrophorèse sur gel d’acrylamide, ont servi à la détermination des haplotypes. Des paramètres comme la diversité haplotypique (G) et l'indice de fixation (Fst) ont été calculés. Des analyses en composantes principales ainsi que multidimensionnelles ont été réalisées. Sur 68 haplotypes détectés, 26 sont nouveaux, et cette région, avec une diversité haplotypique moyenne (Gmoy) de 0,91 ± 0,03, se révèle beaucoup plus hétérogène que le reste du continent (Gmoy = 0,85 ± 0,04). Toutefois, malgré l’existence de disparités sous régionales dans la distribution des variants du marqueur dys44, l’AMOVA montre d’une manière générale, une faible érosion de l’éloignement génétique entre les populations subsahariennes (Fst = 1,5% ; p<10-5). Certains variants tel que l’haplotype eurasien B006 paraissent indiquer des flux transsahariens de gènes entre les populations nord-africaines et celles subsahariennes, comme l’exemplifie le pool génétique de l’une des populations ubiquitaires de la famille linguistique Nigéro-congolaise : Les Fulani. Nos résultats vont aussi dans le sens d’un héritage phylétique commun entre les Biaka, les Afro-américains et les populations de la sous-famille de langues Volta-Congo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La polykystose rénale autosomique dominante (PKRAD) est la maladie génétique rénale la plus commune touchant 1/500 personnes. Elle se caractérise principalement par la formation de kystes rénaux dans tous les segments du néphron, entraînant l’insuffisance rénale, et par des manifestations extrarénales kystiques (foie, pancréas, rate) et non-kystiques (anomalies cardiaques, vasculaires et cérébrales). Deux gènes, PKD1 et PKD2, sont responsables de 85 et 15% des cas respectivement. Ces gènes encodent les polycystine-1 (PC-1) et -2 (PC-2) qui forment un complexe à la membrane plasmique et ciliaire des cellules épithéliales rénales. PC-1 est une protéine transmembranaire de 4302 acides aminés possédant un court domaine intracellulaire incluant un motif coiled-coil impliqué dans l’interaction entre PC-1 et PC-2 in-vitro. L’importance du coiled-coil est démontrée par des mutations affectant spécifiquement ce motif chez des patients PKRAD. Le mécanisme pathogénétique responsable de la PKRAD est indéterminé. Chez la souris, la PKRAD se développe suite à l’ablation (Pkd1-/-) ou lors de la surexpression (SBPkd1TAG) de Pkd1, ce qui suggère un effet de dosage. Des anomalies ciliaires sont aussi souvent associées à PKRAD. Mon objectif était de déterminer in-vivo le mécanisme pathogénétique de la polycystine-1 dans le développement des symptômes PKRAD rénaux et extrarénaux et plus spécifiquement, le rôle du motif coiled-coil dans le mécanisme de kystogenèse. Pour ce faire, nous avons généré deux constructions, Pkd1 sauvage (Pkd1TAG) et Pkd1 tronquée de son motif coiled-coil (Pkd1ΔCoiled-coil), par recombinaison homologue à partir du BAC-Pkd1 sauvage comprenant la séquence murine entière de Pkd1. Trois lignées de souris Pkd1TAG générées par microinjection démontrent un niveau d’expression de Pkd1 qui corrèle avec le nombre de copie du transgène (2, 5 et 15 copies). Les souris Pkd1TAG reproduisent la PKRAD en développant des kystes rénaux dans toutes les parties du néphron et des cils primaires plus longs que les contrôles non transgéniques. Les analyses physiologiques supportent que les souris Pkd1TAG développent une insuffisance rénale et démontrent une augmentation du volume urinaire de même qu’une diminution de l’osmolalité, de la créatinine et des protéines urinaires. De plus, les souris Pkd1TAG développent des kystes hépatiques, des anomalies cardiaques associées à des dépôts de calcium et des anévrismes cérébraux. La sévérité du phénotype augmente avec l’expression de Pkd1 appuyant l’hypothèse d’un mécanisme de dosage. Nous avons aussi déterminé que l’expression du transgène Pkd1TAG complémente le phénotype létal-embryonnaire des souris Pkd1-/-. D’autre part, nous avons générés 4 lignées de souris Pkd1ΔCoiled-coil (2 et 15 copies du transgène) dont le nombre de copies corrèle avec le niveau d’expression du transgène. Ces souris Pkd1ΔCoiled-coil, contrairement aux Pkd1TAG de même âge, ne développent pas de kystes et possèdent des cils primaires de longueur normale. Afin d’évaluer le rôle du motif coiled-coil en absence de polycystine-1 endogène, nous avons croisé les souris Pkd1ΔCoiled-coil avec les souris Pkd1-/-. Contrairement aux souris Pkd1-/- qui meurent in-utéro, les souris Pkd1ΔCoiled-coil; Pkd1-/- survivent ~10 à 14 jours après la naissance. Elles démontrent des kystes rénaux et pancréatiques sévères, un retard de croissance et des anomalies pulmonaires. Tous les segments du néphron sont affectés. Mon projet démontre que la surexpression de Pkd1 est un mécanisme pathogénique de la PKRAD tant au niveau rénal qu’extrarénal. De plus, il démontre que le motif coiled-coil est un élément déterminant dans la kystogenèse/PKRAD in-vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.