37 resultados para new method
Resumo:
Des facteurs masculins sont identifiés dans près de la moitié des cas d’infertilité. À ce jour, les tests évaluant la fertilité masculine demeurent peu prédictifs de la survenue d’une grossesse. Dans le but de pallier cette lacune, nous avons mis au point deux nouveaux tests mesurant l’intégrité de l’ADN et le temps de survie des spermatozoïdes. Nous avons effectué une étude prospective portant sur 42 couples infertiles suivis en fécondation in vitro (FIV). Le spermogramme a été effectué selon les critères de l’Organisation Mondiale de la Santé (OMS) et le temps de survie des spermatozoïdes exposés à un détergent cationique a été mesuré en observant la mobilité sous microscope. L’intégrité de l’ADN des spermatozoïdes a été vérifiée par la nouvelle méthode de marquage radioenzymatique et par analyse de la structure de la chromatine (SCSA). Tous les tests ont été réalisés sur la partie des échantillons de sperme non utilisée par la clinique de fertilité. Le projet a été approuvé par le comité d’éthique du Centre Hospitalier Universitaire de Montréal (CHUM) et les patients ont préalablement signé un formulaire de consentement éclairé. L’analyse des paramètres du spermogramme et de l’intégrité de l’ADN n’a montré aucune différence statistiquement significative entre les données chez les couples avec ou sans grossesse. Cependant, le taux de grossesse biochimique était statistiquement plus élevé chez les couples dont le temps de survie des spermatozoïdes était long (>250 s) comparativement à ceux dont ce temps était court (≤250 s): 66% vs 27% respectivement (p<0,05). Les taux de grossesse clinique et d’implantation étaient aussi plus élevés, mais les différences n’atteignaient pas le seuil de signification statistique. Nos résultats confirment que le spermogramme et la mesure de la fragmentation de l’ADN des spermatozoïdes ne sont pas de bons facteurs prédictifs des résultats de la FIV. Par contre, le test de survie des spermatozoïdes serait un meilleur indicateur de la possibilité d’une grossesse en FIV. L’amélioration de sa spécificité et un plus grand nombre de sujets sont nécessaires avant de proposer son application en clinique de fertilité.
Resumo:
La création cinématographique de l’étudiante qui accompagne ce mémoire sous la forme d’un DVD est disponible à la Médiathèque de la Bibliothèque des lettres et sciences humaines sous le titre : A Capella.(http://atrium.umontreal.ca/notice/UM-ALEPH002343644)
Resumo:
Il est essentiel pour chaque organisme d’avoir la possibilité de réguler ses fonctions afin de permettre sa survie et d’améliorer sa capacité de se reproduire en divers habitats. Avec l’information disponible, il semble que les organismes consacrent une partie assez importante de leur matériel génétique à des fonctions de régulation. On peut envisager que certains mécanismes de régulation ont persisté dans le temps parce qu’ils remplissent bien leurs rôles. Les premières études sur les procaryotes ont indiqué qu’il y avait peu de mécanismes de régulation exerçant le contrôle des gènes, mais il a été démontré par la suite qu’une variété de ces mécanismes est utilisée pour la régulation de gènes et d’opérons. En particulier, les opérons bactériens impliqués dans la biosynthèse des acides aminés, l’ARNt synthétase, la dégradation des acides aminés, les protéines ribosomales et l’ARN ribosomal font l’objet d’un contrôle par l’atténuation de la transcription. Ce mécanisme d’atténuation de la transcription diffère d’autres mécanismes pour la génération de deux structures différentes de l’ARNm, où l’une de ces structures réprime le gène en aval, et l’autre permet de continuer la transcription/traduction. Dans le cadre de cette recherche, nous nous sommes intéressé au mécanisme d’atténuation de la transcription chez les procaryotes où aucune molécule ne semble intervenir comme facteur de régulation, en me concentrant sur la régulation des opérons bactériens. Le but principal de ce travail est de présenter une nouvelle méthode de recherche des riborégulateurs qui combine la recherche traditionnelle des riborégulateurs avec la recherche structurale. En incorporant l’étude du repliement de l’ARNm, nous pouvons mieux identifier les atténuateurs répondant à ce type de mécanisme d’atténuation. Ce mémoire est divisé en quatre chapitres. Le premier chapitre présente une revue de la littérature sur l’ARN et un survol sur les mécanismes de régulation de l’expression génétique chez les procaryotes. Les chapitres 2 et 3 sont consacrés à la méthodologie utilisée dans cette recherche et à l’implémentation du logiciel TA-Search. Enfin, le chapitre 4 expose les conclusions et les applications potentielles de la méthode.
Resumo:
Mémoire de maîtrise utilisant les archives trouvées aux Archives Nationales de France ( AN section Paris), aux archives du Ministère des Affaires étrangères de France (AMAE) et celles du fond d'archives Colonna Walewski (ACW).
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines
Resumo:
Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.
Resumo:
Nous proposons une nouvelle méthode pour quantifier la vorticité intracardiaque (vortographie Doppler), basée sur l’imagerie Doppler conventionnelle. Afin de caractériser les vortex, nous utilisons un indice dénommé « Blood Vortex Signature (BVS) » (Signature Tourbillonnaire Sanguine) obtenu par l’application d’un filtre par noyau basé sur la covariance. La validation de l’indice BVS mesuré par vortographie Doppler a été réalisée à partir de champs Doppler issus de simulations et d’expériences in vitro. Des résultats préliminaires obtenus chez des sujets sains et des patients atteints de complications cardiaques sont également présentés dans ce mémoire. Des corrélations significatives ont été observées entre la vorticité estimée par vortographie Doppler et la méthode de référence (in silico: r2 = 0.98, in vitro: r2 = 0.86). Nos résultats suggèrent que la vortographie Doppler est une technique d’échographie cardiaque prometteuse pour quantifier les vortex intracardiaques. Cet outil d’évaluation pourrait être aisément appliqué en routine clinique pour détecter la présence d’une insuffisance ventriculaire et évaluer la fonction diastolique par échocardiographie Doppler.
Resumo:
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
L’attrait des compagnies pharmaceutiques pour des structures cycliques possédant des propriétés biologiques intéressantes par les compagnies pharmaceutiques a orienté les projets décrits dans ce mémoire. La synthèse rapide, efficace, verte et économique de ces structures suscite de plus en plus d’attention dans la littérature en raison des cibles biologiques visées qui deviennent de plus en plus complexes. Ce mémoire se divise en deux projets ciblant la synthèse de deux structures aromatiques importantes dans le monde de la chimie médicinale. Dans un premier temps, l’amélioration de la synthèse de dérivés phénoliques a été réalisée. L’apport de la chimie en flux continu dans le développement de voies synthétiques plus vertes et efficaces sera tout d’abord discuté. Ensuite, une revue des antécédents concernant l’hydroxylation d’halogénure d’aryle sera effectuée. Finalement, le développement d’une nouvelle approche rapide de synthèse des phénols utilisant la chimie en flux continu sera présenté, suivi d’un survol de ses avantages et ses limitations. Dans un deuxième temps, le développement d’une nouvelle méthodologie pour la formation de 3-aminoindazoles a été réalisé. Tout d’abord, un résumé de la littérature sur la synthèse de différents indazoles sera présenté. Ensuite, une présentation de deux méthodes efficaces d’activation de liens sera effectuée, soit l’activation d’amides par l’anhydride triflique et l’activation de liens C–H catalysée par des métaux de transition. Finalement, le développement d’une nouvelle méthodologie pour la synthèse de 3-aminoindazole utilisant ces deux approches sera discuté.