986 resultados para La Harpe, Jean François, 1739-1803.
Resumo:
Les néphropaties (maladie des tissus rénaux) postradiques constituent l'un des facteurs limitants pour l'élaboration des plans de traitement lors des radiothérapies abdominales. Le processus actuel, qui consiste à évaluer la fonctionnalité relative des reins grâce à une scintigraphie gamma deux dimensions, ne permet pas d'identifier les portions fonctionnelles qui pourraient être évitées lors de l' élaboration des plans de traitement. Une méthode permettant de cartographier la fonctionnalité rénale en trois dimensions et d'extraire un contour fonctionnel utilisable lors de la planification a été développée à partir de CT double énergie injectés à l'iode. La concentration en produit de contraste est considérée reliée à la fonctionnalité rénale. La technique utilisée repose sur la décomposition à trois matériaux permettant de reconstruire des images en concentration d'iode. Un algorithme de segmentation semi-automatisé basé sur la déformation hiérarchique et anamorphique de surfaces permet ensuite d'extraire le contour fonctionnel des reins. Les premiers résultats obtenus avec des images patient démontrent qu'une utilisation en clinique est envisageable et pourra être bénéfique.
Resumo:
Ce mémoire présente l’étude de la faisabilité de la planification de traitements pour la curiethérapie interstitielle du sein en utilisant l’imagerie par résonance magnétique (IRM) seule au lieu de l’imagerie par tomodensitométrie (CT). L'imagerie CT étant la référence, la mesure des différences observables sur la distribution de doses provenant des deux types d’imagerie a été effectuée. Des fantômes de seins ont été fabriqués et utilisés, ainsi que l’imagerie de patients. La taille des fantômes en fonction du positionnement dans l’appareil d’IRM et la longueur reconstruite des cathéters ont été analysées. Les différences dans les distributions de doses de fantômes et de patients ont été calculées en s’assurant que la reconstruction des cathéters provenant des images CT et IRM est la seule variable. La différence dans les critères de doses à respecter est plus grande lorsque la taille du fantôme et/ou un déplacement latéral dans l’IRM sont plus grands. La longueur reconstruite des cathéters est comparable entre les deux techniques d’imagerie. Pour le petit fantôme des différences <2% ont été observées pour tous les critères de dose. Pour le grand fantôme et pour les patients, une valeur maximale de 5% est observée pour les critères sur la cible, mais peut atteindre 19% pour le critère Externe V150%/V100% pour le grand fantôme et 33% pour les patients. Par contre, le seuil clinique de ce critére est toujours respecté. Ceci nous indique que pour la plupart des patients, la zone à traiter serait bien couverte en utilisant les images IRM uniquement pour planifier.
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
La protéine de filament intermédiaire Nestin, marqueur de cellules souches neurales, est exprimée dans les cellules vasculaires. Il a été démontré que les cellules de la crosse aortique dérivent de la crête neurale pendant le développement. Des cellules endothéliales exprimant Nestin sont retrouvées dans les capillaires durant l’embryogénèse ainsi que durant la vascularisation de tumeurs cancéreuses. Cette protéine est impliquée dans les mécanismes de prolifération cellulaire. Récemment des cellules Nestin+ ont été identifiées au niveau des cellules du muscle lisse de l’aorte. La régulation de Nestin dans ces cellules, pendant le développement et en conditions pathologiques, est inconnue. Cette thèse porte sur l’analyse de la protéine Nestin dans le remodelage vasculaire en situation diabétique et d’hypertension au niveau des artères carotide et aortique. Nos travaux examinent l’hypothèse que l’expression vasculaire de Nestine joue un rôle dans l’homéostasie durant le vieillissement physiologique et participe au remodelage suite à des stimuli pathologiques. La protéine Nestin est fortement exprimée dans les aortes de rats néonataux et cette expression diminue rapidement avec le développement. Au niveau de l’aorte l’expression de la protéine Nestin est retrouvée dans une sous-population de cellules du muscle lisse et au niveau des cellules endothéliales. L’expression de la protéine Nestin est corrélée avec sa proximité au cœur, une plus grande expression est observée dans l’arche aortique et une faible expression est détectée dans la partie thoracique. Nous avons déterminé qu’en présence de diabète de type I, il y a une perte de l’expression de la protéine Nestin dans la média de l’aorte et de la carotide. Cette perte d’expression représente un évènement précoce dans la pathologie diabétique et précède la dysfonction endothéliale. La diminution de l’expression de la protéine Nestin est également concomitante avec la perte de la capacité proliférative des cellules du muscle lisse. Dans les rats souffrant de diabète de type 1, une réduction significative de la densité des cellules du muscle lisse exprimant la protéine phosphorylée phosphohistone 3, une protéine impliquée dans un cycle cellulaire actif, est observée. De plus, cette réduction est corrélée avec la perte de l’expression de la protéine Nestin. Nous avons également démontré in vitro qu’un traitement hyperglycémique réduit l’expression de Nestin ainsi que la prolifération des cellules du muscle lisse. Enfin, l’utilisation d’un shARN dirigé contre Nestin nous a permis de déterminer l’implication de cette protéine dans la prolifération des cellules du muscle lisse en condition basale caractérisée par la diminution de l’incorporation de [3H] thymidine. Dans le modèle d’hypertension induite par une constriction aortique abdominale surrénale, l’augmentation de la pression sanguine est associée avec l’augmentation de l’expression de la protéine Nestin dans l’artère carotidienne. Une corrélation positive a été observée entre l’expression de la protéine Nestin dans la carotide et la pression artérielle moyenne à laquelle la paroi de la carotide est soumise. De plus, les facteurs de croissance impliqués dans le remodelage vasculaire secondaire à l’hypertension augmentent l’expression de Nestin dans les cellules du muscle lisse isolées des carotides. Puis, la réduction de l’expression de la protéine Nestin via un shARN atténue l’incorporation de [3H] thymidine, associée à la prolifération cellulaire, stimulée par ces facteurs de croissance alors que l’incorporation de [3H] leucine, associée à la synthèse protéique, demeure inchangée. Ces résultats suggèrent que l’augmentation de l’expression de la protéine Nestin, secondaire à l’hypertension, pourrait représenter une réponse adaptative où il y a une augmentation de la croissance des cellules du muscle lisse afin de permettre à la paroi vasculaire de s’ajuster à l’augmentation de la pression sanguine.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Le but de ce projet était de développer des méthodes d'assemblage de novo dans le but d'assembler de petits génomes, principalement bactériens, à partir de données de séquençage de nouvelle-génération. Éventuellement, ces méthodes pourraient être appliquées à l'assemblage du génome de StachEndo, une Alpha-Protéobactérie inconnue endosymbiote de l'amibe Stachyamoeba lipophora. Suite à plusieurs analyses préliminaires, il fut observé que l’utilisation de lectures Illumina avec des assembleurs par graphe DeBruijn produisait les meilleurs résultats. Ces expériences ont également montré que les contigs produits à partir de différentes tailles de k-mères étaient complémentaires pour la finition des génomes. L’ajout de longues paires de lectures chevauchantes se montra essentiel pour la finition complète des grandes répétitions génomiques. Ces méthodes permirent d'assembler le génome de StachEndo (1,7 Mb). L'annotation de ce génome permis de montrer que StachEndo possède plusieurs caractéristiques inhabituelles chez les endosymbiotes. StachEndo constitue une espèce d'intérêt pour l'étude du développement endosymbiotique.
Resumo:
Dans une turbine hydraulique, la rotation des aubes dans l’eau crée une zone de basse pression, amenant l’eau à passer de l’état liquide à l’état gazeux. Ce phénomène de changement de phase est appelé cavitation et est similaire à l’ébullition. Lorsque les cavités de vapeur formées implosent près des parois, il en résulte une érosion sévère des matériaux, accélérant de façon importante la dégradation de la turbine. Un système de détection de l’érosion de cavitation à l’aide de mesures vibratoires, employable sur les turbines en opération, a donc été installé sur quatre groupes turbine-alternateur d’une centrale et permet d’estimer précisément le taux d’érosion en kg/ 10 000 h. Le présent projet vise à répondre à deux objectifs principaux. Premièrement, étudier le comportement de la cavitation sur un groupe turbine-alternateur cible et construire un modèle statistique, dans le but de prédire la variable cavitation en fonction des variables opératoires (tels l’ouverture de vannage, le débit, les niveaux amont et aval, etc.). Deuxièmement, élaborer une méthodologie permettant la reproductibilité de l’étude à d’autres sites. Une étude rétrospective sera effectuée et on se concentrera sur les données disponibles depuis la mise à jour du système en 2010. Des résultats préliminaires ont mis en évidence l’hétérogénéité du comportement de cavitation ainsi que des changements entre la relation entre la cavitation et diverses variables opératoires. Nous nous proposons de développer un modèle probabiliste adapté, en utilisant notamment le regroupement hiérarchique et des modèles de régression linéaire multiple.
Resumo:
Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.
Resumo:
Depuis plusieurs décennies, des études empiriques réalisées sur plusieurs pays développés ou en émergence ont montré que la baisse de la taille de la famille favorise l’investissement dans l’éducation des enfants, expliquant qu’un nombre élevé d’enfants a un effet d’amenuisement des ressources familiales. Les retombées positives de la baisse de la fécondité sur l’éducation sont largement étudiées et connues. En dépit des résultats controversés des premières études portant sur les pays de l’Afrique de l’Ouest, les récentes études empiriques tendent à confirmer l’effet positif de la baisse de la taille de la famille dans le contexte africain, du moins en milieu urbain. Par contre, jusqu’à présent, très peu d’études semblent intéressées à analyser la répartition de ces retombées entre les enfants, et encore moins à comprendre comment ces dernières affecteraient la structure des inégalités éducatives existantes. Notre étude s’intéresse à explorer la potentielle dimension démographique des inégalités socioéconomiques, notamment les inégalités éducatives dans le contexte de la baisse de la fécondité. Elle vise à apporter des évidences empiriques sur le lien entre la réduction de la taille de la famille et les inégalités éducatives au sein des ménages dans le contexte d’Ouagadougou, Capitale du Burkina Faso, qui connait depuis quelques décennies la chute de la fécondité. Elle analyse aussi l’effet de cette réduction sur la transmission intergénérationnelle des désavantages éducatifs. Pour ce faire, nous proposons un cadre conceptuel pour comprendre les mécanismes par lesquels la relation entre la réduction de la taille de la famille et les inégalités éducatives se tisse. Ce cadre conceptuel s’appuie sur une recension des écrits de divers auteurs à ce sujet. Par la suite, nous procédons à des analyses empiriques permettant de tester ces liens en utilisant les données du projet Demtrend collectées. Les résultats empiriques sont présentés sous forme d’articles scientifiques. Les conclusions du premier article indiquent que la relation entre le nombre d’enfants de la famille et l’éducation varie selon le contexte socioéconomique. En effet, pour les générations qui ont grandi dans un contexte socioéconomique colonial et postcolonial, où le mode de production était essentiellement agricole et l’éducation formelle n’était pas encore valorisée sur le marché du travail, la relation est très faible et positive. Par contre, pour les récentes générations, nous avons observé que la relation devient négative et fortement significative. De plus, les résultats de cet article suggèrent aussi que la famille d’origine des femmes a une incidence significative sur leur comportement de fécondité. Les femmes dont la mère avait un niveau de scolarité élevé (et étaient de statut socioéconomique aisé) ont moins d’enfants comparativement à celles dont leurs parents avaient un faible niveau de scolarité (et pauvres). En retour, leurs enfants sont aussi les plus éduqués. Ce qui sous-tend à un éventuel effet de levier de la réduction de la taille de la famille dans le processus de transmission intergénérationnelle des désavantages éducatifs. Le second article fait une comparaison entre les ménages de grande taille et ceux de petite taille en matière d’inégalités éducatives entre les enfants au sein des ménages familiaux, en considérant le sexe, l’ordre de naissance et les termes d’interaction entre ces deux variables. Les résultats de cet article montrent que généralement les enfants des familles de petite taille sont plus scolarisés et atteignent un niveau d’éducation plus élevé que ceux des grandes familles. Toutefois, les filles ainées des petites familles s’avèrent moins éduquées que leurs pairs. Ce déficit persiste après avoir considéré seulement les ménages familiaux monogames ou encore après le contrôle de la composition de la fratrie. L’émancipation des femmes sur le marché du travail résultant de la réduction de la taille de la famille et la faible contribution des pères dans les activités domestiques expliqueraient en partie cette situation. Malheureusement, nous n’avons pas pu contrôler l’activité économique des mères dans les analyses. Finalement, dans le cadre du troisième et dernier article, nous avons examiné l’effet d’avoir été confié par le passé sur les inégalités éducatives au sein de la fratrie, en comparant ceux qui ont été confiés aux autres membres de leur fratrie qui n’ont jamais été confiés. Dans cet article, nous avons considéré l’aspect hétérogène du confiage en le différenciant selon le sexe, la relation de la mère avec le chef du ménage d’accueil et l’âge auquel l’enfant a été confié. Les résultats montrent qu’avoir été confié dans le passé influence négativement le parcours scolaire des enfants. Cependant, cet effet négatif reste fort et significatif que pour les filles qui ont été confiées après leurs 10 ans d’âge. Un profil qui correspond à la demande de main-d’œuvre en milieu urbain pour l’accomplissement des tâches domestiques, surtout dans le contexte de la baisse de la taille de la famille et l’émancipation des femmes sur le marché du travail.
Resumo:
Il est connu qu’une équation différentielle linéaire, x^(k+1)Y' = A(x)Y, au voisinage d’un point singulier irrégulier non-résonant est uniquement déterminée (à isomorphisme analytique près) par : (1) sa forme normale formelle, (2) sa collection de matrices de Stokes. La définition des matrices de Stokes fait appel à un ordre sur les parties réelles des valeurs propres du système, ordre qui peut être perturbé par une rotation en x. Dans ce mémoire, nous avons établi le caractère intrinsèque de cette relation : nous avons donc établi comment la nouvelle collection de matrices de Stokes obtenue après une rotation en x qui change l’ordre des parties réelles des valeurs propres dépend de la collection initiale. Pour ce faire, nous donnons un chapitre de préliminaires généraux sur la forme normale des équations différentielles ordinaires puis un chapitre sur le phénomène de Stokes pour les équations différentielles linéaires. Le troisième chapitre contient nos résultats.
Resumo:
Éditorial du 24 septembre 2014
Resumo:
Éditorial du 23 octobre 2014
Resumo:
Éditorial du 6 novembre 2014
Resumo:
Éditorial du 17 décembre 2014