396 resultados para Modes alternatifs de résolution des conflits
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
À partir d’une lecture critique des travaux d’Alan Walks et d’une enquête de terrain exploratoire menée dans une municipalité du milieu périurbain montréalais, l’objectif de cet article est de démontrer que les frontières municipales sont des marqueurs idéologiques forts, susceptibles d’expliquer les valeurs différentes que l’on associe aux quartiers centraux et aux quartiers suburbains. À ce titre, l’analyse des politiques publiques adoptées par les municipalités de banlieue est un moyen de saisir l’importance de la frontière municipale et des valeurs qu’elle recouvre.
Resumo:
Problématique : L’édentement et les troubles du sommeil sont des affections chroniques fréquentes chez les personnes âgées et qui peuvent avoir des conséquences défavorables sur le bien-être de ces personnes, ainsi que sur leur qualité de vie. L’édentement pourrait perturber le sommeil par la modification de la structure crânio-faciale et des tissus mous environnants. Cependant, cette relation n'est pas suffisamment documenté. Objectifs : Le but de cette étude pilote était de préparer la mise en œuvre d’une étude clinique randomisée contrôlée concernant l’effet du port nocturne des prothèses complètes sur la qualité du sommeil. Méthodologie : Treize aînés édentés ont participé à cette étude clinique randomisée contrôlée de type croisé. L’intervention consistait à dormir avec ou sans les prothèses durant la nuit. Les participants à l'étude ont été assignés à porter et ne pas porter leurs prothèses dans des ordres alternatifs pour des périodes de 30 jours. La qualité du sommeil a été évaluée par la polysomnographie portable et le questionnaire Pittburgh Sleep Quality Index (PSQI). Les données supplémentaires incluent la somnolence diurne, évaluée par le questionnaire Epworth Sleepiness Scale (ESS), et la qualité de vie liée à la santé buccodentaire, évaluée par le questionnaire Oral Health Impact Profile 20 (OHIP-20). De plus, à travers les examens cliniques et radiologiques, les données des caractéristiques sociodémographiques, de la morphologie oropharyngée, des caractéristiques buccodentaires et des prothèses ont été recueillies. Les modèles de régression linéaire pour les mesures répétées ont été utilisés pour analyser les résultats. Résultats : L’étude de faisabilité a atteint un taux de recrutement à l’étude de 59,1% et un taux de suivi de 100%. Le port nocturne des prothèses dentaires augmentait l’index d'apnée-hypopnée (IAH) et le score PSQI par rapport au non port nocturne des prothèses : (IAH : Médiane = 20,9 (1,3 - 84,7) versus 11,2 (1,9 - 69,6), p = 0,237; le score PSQI : Médiane = 6,0 (3,0 - 11,0) versus 5,0 (1,0 - 11,0), p = 0,248). Cependant, ces différences n'étaient pas statistiquement significatives, sauf que pour le temps moyen d’apnée (plus long avec des prothèses) (p < 0,005) et le temps de ronflement relatif (moins élevé avec des prothèses) (p < 0,05). La somnolence diurne excessive et la qualité de vie liée à la santé buccodentaire étaient semblables pour les deux interventions (le score ESS : Médiane = 4,0 (3,0-10,0) versus 5,0 (2,0-10,0), p = 0,746; le score OHIP-20: Médiane = 31,0 (20,0-64,0) versus 27,0 (20,0-49,0), p = 0,670). L’impact néfaste du port nocturne des prothèses complètes sur le sommeil a été statistiquement significatif chez les personnes souffrant de l’apnée-hypopnée moyenne à sévère (p < 0,005). Conclusion : L’essai clinique pilote a montré que le port nocturne des prothèses complètes a un impact négatif sur la qualité du sommeil des gens âgés édentés, surtout chez les personnes avec l’apnée obstructive du sommeil modérée à sévère. Les résultats doivent être confirmés par l’étude clinique randomisée contrôlée de phase II.
Resumo:
Commentaire / Commentary
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Les maladies cardiovasculaires représentent la deuxième cause de mortalité en Amérique du Nord. Ceci peut s'expliquer par la consommation riche en gras des Nord-Américains et par un apport élevé en oméga-6. Inversement, des populations qui ont un apport moindre en oméga-6 et plus riche en oméga-3, telles que les Japonais et les Inuits, ont une incidence peu élevée de maladies cardiovasculaires. Les oméga-3 s'avèrent effectivement bénéfiques pour prévenir l'apparition de maladies cardiovasculaires. Dans le cadre d'un infarctus du myocarde, les oméga-3 sont bénéfiques en prévention secondaire et s'avèrent cardioprotecteurs lorsque consommés avant l'épisode d'infarctus. De manière à utiliser les oméga-3 de façon plus clinique, le but de la première étude était de vérifier si un métabolite des oméga-3 impliqué dans la résolution de l'inflammation, la résolvine D1, pouvait s'avérer cardioprotecteur lorsque donné au moment de l'infarctus. Effectivement, la résolvine D1, donnée juste avant l'ischémie, s'avère cardioprotectrice en entraînant une diminution de l'inflammation, soit en favorisant la résolution de l'inflammation, et en activant une voie de cardioprotection qui entraîne la survie cellulaire. Par ailleurs, étant donné que la diète de la population canadienne est riche en oméga-6, l’objectif de la deuxième étude était de vérifier si l'effet de la résolvine D1 est conservé en présence d'un oméga-6, l'acide linoléique. Nos résultats nous indiquent que la résolvine D1 perd son effet cardioprotecteur en présence de l'acide linoléique. Celle-ci semble aggraver les lésions ischémiques, possiblement, par, la génération de métabolites pro-inflammatoires et vasoconstricteurs qui accroît les effets de l'ischémie. Ainsi, il est essentiel de tenir compte de l'apport en oméga-6 pour envisager un traitement à la résolvine D1 et d'encourager une diminution des oméga-6 dans l'alimentation au profit des oméga-3. Enfin, la troisième étude de cette thèse visait à vérifier le mécanisme de cardioprotection des oméga-3 afin de savoir si ce sont les métabolites issus des oméga-3 qui génèrent la cardioprotection. L'utilisation des inhibiteurs du métabolisme des oméga-3, soit la 15-lipoxygénase et la cyclo-oxygénase 2, inhibe la cardioprotection conférée par une diète riche en oméga-3. De plus, les inhibiteurs diminuent les concentrations de résolvine D1 plasmatique. Puis, la résolvine D1, donnée en présence des inhibiteurs, restaure la cardioprotection. De ce fait, les métabolites générés par les oméga-3, dont la résolvine D1, sont importants dans l’effet cardioprotecteur des acides gras oméga-3. En conclusion, la résolvine D1 peut s'avérer une option intéressante pour bénéficier des effets des oméga-3 lorsque celle-ci est donnée au moment de l'infarctus. D'ailleurs, les métabolites, tels que la résolvine D1, sont essentiels pour obtenir la cardioprotection avec les oméga-3. Toutefois, l'alimentation des patients doit contenir moins d’oméga-6 afin de bénéficier des aspects cardioprotecteurs des oméga-3. Les oméga-6 sont trop proéminents dans l'alimentation nord-américaine, ce qui est néfaste pour le système cardiovasculaire.
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6850 – Recherche individuelle, à l'hiver 2015
Resumo:
Les champignons mycorhiziens à arbuscules (CMA) sont des organismes microscopiques du sol qui jouent un rôle crucial dans les écosystèmes naturels et que l’on retrouve dans tous les habitats de la planète. Ils vivent en relation symbiotique avec la vaste majorité des plantes terrestres. Ils sont des biotrophes obligatoires, c'est-à-dire qu'ils ne peuvent croître qu'en présence d'une plante hôte. Cette symbiose permet entre autres à la plante d'acquérir des nutriments supplémentaires, en particulier du phosphore et du nitrate. Malgré le fait que cette symbiose apporte des services importants aux écosystèmes, la richesse des espèces, la structure des communautés, ainsi que la diversité fonctionnelle des CMA sont mal connues et l'approfondissement des connaissances dans ces domaines dépend d’outils de diagnostic moléculaire. Cependant, la présence de polymorphisme nucléaire intra-isolat combiné à un manque de données génomiques dans différents groupes phylogénétique de ces champignons complique le développement de marqueurs moléculaires et la détermination de l'affiliation évolutive à hauts niveaux de résolution (c.a.d. entre espèces génétiquement similaires et/ou isolats de la même espèce). . Pour ces raisons, il semble une bonne alternative d’utiliser un système génétique différent en ciblant le génome mitochondrial, qui a été démontré homogène au sein d'un même isolat de CMA. Cependant, étant donné le mode de vie particulier de ces organismes, une meilleure compréhension des processus évolutifs mitochondriaux est nécessaire afin de valoriser l'utilisation de tels marqueurs dans des études de diversité et en génétique des populations. En ce sens, mon projet de doctorat consistait à investiguerétudier: i) les vecteurs de divergences inter-isolats et -espèces génétiquement rapprochéesphylogénétiquement apparentées, ii) la plasticité des génomes mitochondriaux, iii) l'héritabilité mitochondriale et les mécanismes potentiels de ségrégation, ainsi que iv) la diversité mitochondriale intra-isolat in situ. À l'aide de la génomique mitochondriale comparative, en utilisant le séquençage nouvelle génération, on a démontré la présence de variation génétique substantielle inter-isolats et -espèces, engendrées par l'invasion d'éléments mobiles dans les génomes mitochondriaux des CMA, donnant lieu à une évolution moléculaire rapide des régions intergéniques. Cette variation permettait de développer des marqueurs spécifiques à des isolats de la même espèce. Ensuite, à l'aide d'une approche analytique par réseaux de gènes sur des éléments mobiles, on a été en mesure de démontrer des évènements de recombinaisons homologues entre des haplotypes mitochondriaux distincts, menant à des réarrangements génomiques. Cela a permis d'ouvrir les perspectives sur la dynamique mitochondriale et l'hétéroplasmie dans un même isolatsuggère une coexistence de différents haplotypes mitochondriaux dans les populations naturelles et que les cultures monosporales pourraient induirent une sous-estimation de la diversité allélique mitochondriale. Cette apparente contradiction avec l'homogénéité mitochondriale intra-isolat généralement observée, a amené à investiguer étudier les échanges génétiques à l'aide de croisements d'isolats génétiquement distincts. Malgré l'observation de quelques spores filles hétéroplasmiques, l'homoplasmie était le statut par défaut dans toutes les cultures monosporales, avec un biais en faveur de l'un des haplotypes parentaux. Ces résultats suggèrent que la ségrégation opère durant la formation de la spore et/ou le développement de la coloniedu mycélium. De plus, ils supportent la présence d'une machinerie protéique de ségrégation mitochondriale chez les CMAAMF, où l'ensemble des gènes impliqués dans ce mécanisme ont été retrouvé et sont orthologues aux autres champignons. Finalement, on est revenue aux sources avecon a étudié le polymorphisme mitochondrial intra-isolat à l'aide d'une approche conventionnelle de PCR en utilisant une Taq polymérase de haute fidélité, suivie de clonage et de séquençage Sanger, sur deux isolats de R. irregularis. Cela a permis l'observation d'hétéroplasmie in situ, ainsi que la co-expression de variantes de variantes de protéines'ARNm dans une souche in vitro. Les résultats suggèrent que d'autres études basées sur le séquençage nouvelle génération aurait potentiellement ignorée cette variation, offrant ainsi plusieurs nouveaux arguments permettant de considérer les CMA comme des organismes possédant une population de génomes mitochondriaux et nucléaires distincts.
Resumo:
L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.
Resumo:
Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.
Resumo:
Éditorial du 23 octobre 2014
Resumo:
La présente recherche décrit et examine la problématique posée par le trafic d’organes, de tissus et de cellules d’origine humaine, ainsi que les modes de régulation envisagés au niveau mondial pour lutter contre ce trafic, appréhendés sous l’angle de l’analyse de plusieurs conventions et protocoles internationaux et de leurs recommandations. Nous avons sélectionné, analysé et comparé les discours les plus significatifs de quatre types d’organisations internationales, les associations médicales internationales, l’Organisation des Nations Unies, l’Organisation mondiale de la Santé et le Conseil de l’Europe. Nous avons cherché à connaître leur point de vue sur la commercialisation des organes humains et plus spécifiquement sur le trafic des organes humains, à travers 17 textes que ces acteurs ont produit de 1987 jusqu’en 2014. L’analyse de ces discours experts révèle que la perspective éthique domine l’ensemble des documents. Elle met en évidence les convergences des discours sur la nécessité d’adopter une double stratégie fondée à la fois sur la prévention et la criminalisation du trafic d’organes ainsi que sur l’analyse du lien existant entre la pénurie croissante d’organes et l’avènement du trafic d’organes. Les discours sur la régulation et la criminalisation ont évolué vers un degré de précision et de complexification de la notion du trafic d’organes, une notion qui reste encore peu consensuelle dans sa définition. Quant aux stratégies, il faut observer que l’évolution des discours est assez significative et inégale à ce chapitre. C’est surtout dans les discours experts produits à partir des années 2000 que nous retrouvons des propositions plus concrètes sur les stratégies. La régulation des transactions financières, notamment par les balises de pratiques médicales et celles des intermédiaires, ainsi que les prescriptions entourant le consentement forment les deux types de stratégies les plus souvent mises de l’avant par les experts, toutes organisations confondues. Au fil de l’analyse des textes sur la régulation il est possible d’entrevoir des nuances et des brèches dans le principe d’interdiction de la commercialisation des organes humains, plus précisément en ce qui concerne les types d’organes, de tissus ou de cellules.