727 resultados para Algorithme génétiques hybrides générationnels


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe actuellement de nombreuses preuves démontrant que des facteurs génétiques et environnementaux interagissent pendant des périodes spécifiques du développement pour rendre une personne vulnérable aux troubles psychologiques via diverses adaptations physiologiques. Cette thèse porte sur l'impact de l’adversité prénatale (représentée par le petit poids à la naissance, PPN) et de l’adversité postnatale précoce (symptômes dépressifs maternels et comportements maternels négatifs), sur le développement du cerveau, particulièrement les régions fronto-limbiques impliquées dans le traitement des émotions, pendant l'enfance et l'adolescence. Des jumeaux monozygotes (MZ) sont utilisés, lorsque possible, afin de contrôler pour les effets génétiques. Les chapitres 1 et 2 présentent les résultats de la vérification de l'hypothèse que l’adversité prénatale et postnatale précoce sont associées à une altération du fonctionnement des régions fronto-limbique tels que l’amygdale, l’hippocampe, l’insula, le cortex cingulaire antérieur et le cortex préfrontal, en réponse à des stimuli émotifs chez des enfants et des adolescents. On observe que les symptômes dépressifs maternels sont associés à une activation plus élevée des régions fronto-limbiques des enfants en réponse à la tristesse. Les résultats de l’étude avec des adolescents suggèrent que le PPN, les symptômes dépressifs et les comportements maternels négatifs sont associés à une fonction altérée des régions fronto-limbiques en réponse à des stimuli émotionnels. Chez les jumeaux MZ on observe également que la discordance intra-paire de PPN et de certains comportements maternels est associée à une discordance intra-paire du fonctionnement du cerveau et que ces altérations diffèrent selon le sexe. Le chapitre 3 présente les résultats de la vérification de l'hypothèse que l’adversité prénatale et postnatale précoce sont associées à un volume total réduit du cerveau et de l’hypothèse que les comportements maternels peuvent servir de médiateur ou de modérateur de l'association entre le PPN et le volume du cerveau. Avec des jumeaux MZ à l’adolescence on observe a) que le PPN est effectivement associé à une diminution du volume total du cerveau et b) que la discordance intra-paire de PPN est associée à une discordance du volume du cerveau. En somme, cette thèse présente un ensemble de résultats qui soutiennent deux hypothèses importantes pour comprendre les effets de l’environnement sur le développement du cerveau : que l’environnement prénatal et postnatal précoce ont un impact sur le développement du cerveau indépendamment du code génétique et que les mécanismes impliqués peuvent différer entre les garçons et les filles. Finalement, l’ensemble de ces résultats sont discutés à la lumière des autres travaux de recherche dans ce domaine et des avenues à explorer pour de la recherche ultérieure sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les néphropaties (maladie des tissus rénaux) postradiques constituent l'un des facteurs limitants pour l'élaboration des plans de traitement lors des radiothérapies abdominales. Le processus actuel, qui consiste à évaluer la fonctionnalité relative des reins grâce à une scintigraphie gamma deux dimensions, ne permet pas d'identifier les portions fonctionnelles qui pourraient être évitées lors de l' élaboration des plans de traitement. Une méthode permettant de cartographier la fonctionnalité rénale en trois dimensions et d'extraire un contour fonctionnel utilisable lors de la planification a été développée à partir de CT double énergie injectés à l'iode. La concentration en produit de contraste est considérée reliée à la fonctionnalité rénale. La technique utilisée repose sur la décomposition à trois matériaux permettant de reconstruire des images en concentration d'iode. Un algorithme de segmentation semi-automatisé basé sur la déformation hiérarchique et anamorphique de surfaces permet ensuite d'extraire le contour fonctionnel des reins. Les premiers résultats obtenus avec des images patient démontrent qu'une utilisation en clinique est envisageable et pourra être bénéfique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de notre recherche est de répondre à la question suivante : Quelles sont les sources d’influence des pratiques d’emploi instaurées par les EMN originaires de pays européens dans leurs filiales québécoises? Comme les EMN constituent notre objet de recherche, nous avons, dans un premier temps, recensé les principales caractéristiques de celles-ci. Il faut noter que les EMN ont un portrait différent par rapport à celui des entreprises qui ne sont pas multinationales. Comme le Québec est l’endroit où notre recherche a eu lieu, nous avons aussi expliqué les caractéristiques socioéconomiques du marché québécois. Nous avons constaté que le marché québécois se distingue du reste du Canada par son hybridité résultant d’un mélange de caractéristiques libérales et coordonnées. Comme les EMN étudiées sont d’origine européenne, nous avons aussi expliqué les caractéristiques des pays européens à économie coordonnée et libérale. Il faut noter que les pays à économie coordonnée et à économie libérale ont de caractéristiques différentes, voire opposées. Dans un deuxième temps, nous avons recensé les études qui ont tenté de répondre à notre question de recherche. La littérature identifie quatre sources d’influence des pratiques d’emploi que les EMN instaurent dans leurs filiales étrangères : le pays d’accueil, le pays d’origine, les sources d’influence hybrides, et les sources d’influence globales. Les sources d’influence provenant des pays d’accueil déterminent les pratiques d’emploi des filiales étrangères en mettant en valeur l’isomorphisme, les principes calculateur et collaborateur, et la capacité des filiales à modifier les marchés dans lesquels elles opèrent. Les sources d’influence provenant des pays d’origine influencent les pratiques d’emploi en mettant en valeur l’isomorphisme culturel, l’effet du pays d’origine, et l’effet du pays de gestion. Les sources d’influence hybrides combinent les facteurs en provenance des pays d’accueil, des pays d’origine, et du marché global pour déterminer les pratiques d’emploi des filiales étrangères. Finalement, les sources d’influence globales mettent en valeur les pressions d’intégration au marché mondial pour expliquer la convergence des pratiques d’emploi des filiales étrangères vers un modèle universel anglo-saxon. Pour répondre à notre question de recherche, nous avons identifié les niveaux de coordination des pays d’origine comme variable indépendante, et les niveaux de coordination des pratiques d’emploi comme variable dépendante. Sept hypothèses avec leurs indicateurs respectifs ont tenu compte des relations entre nos variables indépendantes et dépendante. Nous avons préparé un questionnaire de recherche, et avons interviewé des membres du personnel de RH de dix EMN européennes ayant au moins une filiale au Québec. Les filiales faisant partie de notre échantillon appartiennent à des EMN originaires de divers pays européens, autant à marché libéral que coordonné. Nous avons décrit en détail les caractéristiques de chacune de ces EMN et de leurs filiales québécoises. Nous avons identifié des facteurs explicatifs (index de coordination de Hall et Gingerich, secteur d’activité, taille des filiales, et degré de globalisation des EMN) qui auraient pu aussi jouer un rôle dans la détermination et la nature des pratiques d’emploi des filiales. En matière de résultats, nous n’avons constaté de lien entre le type de marché du pays d’origine et le degré de coordination des pratiques d’emploi que pour les pratiques salariales; confirmant ainsi notre première hypothèse. Les pratiques de stabilité d’emploi, de formation, et de relations de travail ont un lien avec le secteur d’activité; soit le secteur de la production des bien, ou celui des services. Ainsi, les filiales dans le secteur de la production de biens font preuve de plus de coordination en matière de ces trois pratiques comparativement aux filiales dans le secteur des services. Finalement, les pratiques de développement de carrière et de partage d’information et consultation sont de nature coordonnée dans toutes les filiales, mais aucun facteur explicatif n’explique ce résultat. Compte tenu que le marché d’accueil québécois est commun à toutes les filiales, le Québec comme province d’accueil pourrait expliquer le fort degré de coordination de ces deux pratiques. Outre le marché d’accueil, le caractère multinational des EMN auxquelles ces filiales appartiennent pourrait aussi expliquer des résultats semblables en matière des pratiques d’emploi. Notre recherche comporte des forces et des faiblesses. Concernant les forces, notre méthode de recherche nous a permis d’obtenir des données de source directe, car nous avons questionné directement les gens concernées par les pratiques d’emploi. Ceci a pour effet d’assurer une certaine validité à notre recherche. Concernant nos faiblesses, la nature restreinte de notre échantillon ne nous permet pas de généraliser les résultats. Il faudrait réaliser d’autres recherches pour améliorer la fiabilité. De plus, les pays d’origine des filiales demeure ambigu pour certaines d’entre elles, car celles-ci ont changé de propriétaire plusieurs fois. D’autres ont au moins deux propriétaires originaires de pays distincts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les champignons mycorhiziens arbusculaires (CMA) sont très répandus dans le sol où ils forment des associations symbiotiques avec la majorité des plantes appelées mycorhizes arbusculaires. Le développement des CMA dépend fortement de la plante hôte, de telle sorte qu'ils ne peuvent vivre à l'état saprotrophique, par conséquent ils sont considérés comme des biotrophes obligatoires. Les CMA forment une lignée évolutive basale des champignons et ils appartiennent au phylum Glomeromycota. Leurs mycélia sont formés d’un réseau d’hyphes cénocytiques dans lesquelles les noyaux et les organites cellulaires peuvent se déplacer librement d’un compartiment à l’autre. Les CMA permettent à la plante hôte de bénéficier d'une meilleure nutrition minérale, grâce au réseau d'hyphes extraradiculaires, qui s'étend au-delà de la zone du sol explorée par les racines. Ces hyphes possèdent une grande capacité d'absorption d’éléments nutritifs qui vont être transportés par ceux-ci jusqu’aux racines. De ce fait, les CMA améliorent la croissance des plantes tout en les protégeant des stresses biotiques et abiotiques. Malgré l’importance des CMA, leurs génétique et évolution demeurent peu connues. Leurs études sont ardues à cause de leur mode de vie qui empêche leur culture en absence des plantes hôtes. En plus leur diversité génétique intra-isolat des génomes nucléaires, complique d’avantage ces études, en particulier le développement des marqueurs moléculaires pour des études biologiques, écologiques ainsi que les fonctions des CMA. C’est pour ces raisons que les génomes mitochondriaux offrent des opportunités et alternatives intéressantes pour étudier les CMA. En effet, les génomes mitochondriaux (mt) publiés à date, ne montrent pas de polymorphismes génétique intra-isolats. Cependant, des exceptions peuvent exister. Pour aller de l’avant avec la génomique mitochondriale, nous avons besoin de générer beaucoup de données de séquençages de l’ADN mitochondrial (ADNmt) afin d’étudier les méchanismes évolutifs, la génétique des population, l’écologie des communautés et la fonction des CMA. Dans ce contexte, l’objectif de mon projet de doctorat consiste à: 1) étudier l’évolution des génomes mt en utilisant l’approche de la génomique comparative au niveau des espèces proches, des isolats ainsi que des espèces phylogénétiquement éloignées chez les CMA; 2) étudier l’hérédité génétique des génomes mt au sein des isolats de l’espèce modèle Rhizophagus irregularis par le biais des anastomoses ; 3) étudier l’organisation des ADNmt et les gènes mt pour le développement des marqueurs moléculaires pour des études phylogénétiques. Nous avons utilisé l’approche dite ‘whole genome shotgun’ en pyroséquençage 454 et Illumina HiSeq pour séquencer plusieurs taxons de CMA sélectionnés selon leur importance et leur disponibilité. Les assemblages de novo, le séquençage conventionnel Sanger, l’annotation et la génomique comparative ont été réalisés pour caractériser des ADNmt complets. Nous avons découvert plusieurs mécanismes évolutifs intéressant chez l’espèce Gigaspora rosea dans laquelle le génome mt est complètement remanié en comparaison avec Rhizophagus irregularis isolat DAOM 197198. En plus nous avons mis en évidence que deux gènes cox1 et rns sont fragmentés en deux morceaux. Nous avons démontré que les ARN transcrits les deux fragments de cox1 se relient entre eux par épissage en trans ‘Trans-splicing’ à l’aide de l’ARN du gene nad5 I3 qui met ensemble les deux ARN cox1.1 et cox1.2 en formant un ARN complet et fonctionnel. Nous avons aussi trouvé une organisation de l’ADNmt très particulière chez l’espèce Rhizophagus sp. Isolat DAOM 213198 dont le génome mt est constitué par deux chromosomes circulaires. En plus nous avons trouvé une quantité considérable des séquences apparentées aux plasmides ‘plasmid-related sequences’ chez les Glomeraceae par rapport aux Gigasporaceae, contribuant ainsi à une évolution rapide des ADNmt chez les Glomeromycota. Nous avons aussi séquencé plusieurs isolats de l’espèces R. irregularis et Rhizophagus sp. pour décortiquer leur position phylogénéque et inférer des relations évolutives entre celles-ci. La comparaison génomique mt nous montré l’existence de plusieurs éléments mobiles comme : des cadres de lecture ‘open reading frames (mORFs)’, des séquences courtes inversées ‘short inverted repeats (SIRs)’, et des séquences apparentées aux plasimdes ‘plasmid-related sequences (dpo)’ qui impactent l’ordre des gènes mt et permettent le remaniement chromosomiques des ADNmt. Tous ces divers mécanismes évolutifs observés au niveau des isolats, nous permettent de développer des marqueurs moléculaires spécifiques à chaque isolat ou espèce de CMA. Les données générées dans mon projet de doctorat ont permis d’avancer les connaissances fondamentales des génomes mitochondriaux non seulement chez les Glomeromycètes, mais aussi de chez le règne des Fungi et les eucaryotes en général. Les trousses moléculaires développées dans ce projet peuvent servir à des études de la génétique des populations, des échanges génétiques et l’écologie des CMA ce qui va contribuer à la compréhension du rôle primorial des CMA en agriculture et environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projet de recherche réalisé avec Bernard Angers comme directeur de maîtrise, Denis Réale en tant que co-directeur et grâce à la collaboration active d'Emmanuel Milot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hyperchylomicronémie familiale est un trait monogénique caractérisé par un taux de triglycérides plasmatiques à jeun supérieur à 10 mmol/L (la normale étant de 1,7 mmol/L). L’hyperchylomicronémie familiale est le plus souvent causée par une déficience dans le gène LPL (pour lipoprotéine lipase). La déficience en lipoprotéine lipase (LPLD) est aussi associée à un risque élevé de pancréatite. La pancréatite en soi est reconnue comme un trait complexe génétique dont plusieurs gènes sont associés à sa susceptibilité. Étant donné l’expression variable de la pancréatite chez les patients LPLD, les résultats de ce mémoire présentent certains facteurs génétiques pouvant être responsables du risque de l’expression de la pancréatite aigüe récurrente chez les sujets LPLD. L’analyse par séquençage des régions codantes et promotrices des gènes CTRC (pour « Chymotrypsin C ») et SPINK1 (pour « Serine protease inhibitor Kazal type 1 ») a été effectuée chez 38 patients LPLD et 100 témoins. Ces deux gènes codent pour des protéines impliquées dans le métabolisme des protéases au niveau du pancréas et ont déjà été associés avec la pancréatite dans la littérature. Notre étude a permis d’identifier une combinaison de deux polymorphismes (CTRC-rs545634 et SPINK1-rs11319) associée significativement avec la récidive d’hospitalisations pour douleur abdominale sévère ou pour pancréatite aigüe récurrente chez les patients LPLD (p<0,001). Ces résultats suggèrent que le risque de récidive de pancréatite chez les patients LPLD peut être influencé par des variants dans des gènes de susceptibilité à la pancréatite. L’identification de biomarqueurs génétiques améliore la compréhension des mécanismes physiopathologiques de la pancréatite chez les patients LPLD ce qui, par conséquent, permet de mieux évaluer et caractériser les risques de pancréatite afin d'adapter un plan d'intervention préventif pour ces patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome de Joubert est une maladie récessive caractérisée par une malformation congénitale distincte du tronc cérébral et du cervelet, associée à une anomalie des mouvements oculaires (apraxie oculomotrice), une respiration irrégulière, un retard de développement, et une ataxie à la démarche. Au cours de la dernière décennie, plus de 20 gènes responsables ont été identifiés, tous ayant un rôle important dans la structure et la fonction des cils primaires. Ainsi, le syndrome de Joubert est considéré une ciliopathie. Bien que le Syndrome de Joubert ait été décrit pour la première fois dans une famille canadienne-française en 1969, le(s) gène(s) causal demeurait inconnu dans presque tous les cas de syndrome de Joubert recensés en 2010 dans la population canadienne-française, soit début de mon projet doctoral. Nous avons identifié un total de 43 individus canadiens-français (35 familles) atteints du syndrome de Joubert. Il y avait un regroupement de familles dans la région du Bas-Saint-Laurent de la province de Québec, suggérant la présence d'un effet fondateur. L’objectif de ce projet était de caractériser la génétique du syndrome de Joubert dans la population canadienne-française. Notre hypothèse était qu’il existait un effet fondateur impliquant au moins un nouveau gène JBTS. Ainsi, dans un premier temps, nous avons utilisé une approche de cartographie par homozygotie. Cependant, nous n’avons pas identifié de région d’homozygotie partagée parmi les individus atteints, suggérant la présence d’une hétérogénéité génétique ou allélique. Nous avons donc utilisé le séquençage exomique chez nos patients, ce qui représente une approche plus puissante pour l’étude de conditions génétiquement hétérogènes. Nos travaux ont permis l’identification de deux nouveaux gènes responsables du syndrome de Joubert: C5orf42 et TMEM231. Bien que la localisation cellulaire et la fonction de C5orf42 soient inconnus au moment de cette découverte, nos résultats génétiques combinés avec des études ultérieures ont établi un rôle important de C5orf42 dans la structure et la fonction ciliaire, en particulier dans la zone de transition, qui est une zone de transition entre le cil et le reste de la cellule. TMEM231 avait déjà un rôle établi dans la zone de transition ciliaire et son interaction avec d’autres protéines impliquées dans le syndrome de Joubert était connu. Nos études ont également identifié des variants rares délétères chez un patient JBTS dans le gène ciliaire CEP104. Nous proposons donc CEP104 comme un gène candidat JBTS. Nous avons identifié des mutations causales dans 10 gènes, y compris des mutations dans CC2D2A dans 9 familles et NPHP1 dans 3 familles. Au total, nous avons identifié les mutations causales définitives chez 32 des 35 familles étudiées (91% des cas). Nous avons documenté un effet fondateur complexe dans la population canadienne-française avec de multiples mutations récurrentes dans quatre gènes différents (C5orf42, CC2D2A, TMEM231, NPHP1). Au début de ce projet de recherche, l’étiologie génétique était inconnue chez les 35 familles touchées du syndrome de Joubert. Maintenant, un diagnostique moléculaire définitif est identifié chez 32 familles, et probable chez les 3 autres. Nos travaux ont abouti à la caractérisation génétique du syndrome de Joubert dans la population canadienne-française grâce au séquençage exomique, et révèlent la présence d'un effet fondateur complexe avec une l'hétérogénéité allélique et intralocus importante. Ces découvertes ont éclairé la physiologie de cette maladie. Finalement, l’identification des gènes responsables ouvre de nouvelles perspectives diagnostiques ante-natales, et de conseils génétique, très précieuses pour les familles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.