860 resultados para Paramètres polarimétriques
Resumo:
Objectifs: L’objectif principal de ce mémoire consiste à comprendre les caractéristiques des carrières criminelles d’individus connus de la police pour avoir perpétré une infraction de leurre d’enfants sur Internet. Aussi, par une analyse typologique à l’aide des antécédents criminels, il sera possible d’établir une typologie d’individus ayant leurré des enfants sur Internet. Également, il sera question de vérifier s’il y a un lien entre les caractéristiques des antécédents criminels de ces individus sur la perpétration de l’agression sexuelle hors ligne. Méthodologie: Provenant de données officielles de la communauté policière du Québec, l’échantillon comprend les parcours de criminels ayant perpétré une infraction de leurre d’enfants sur Internet. Des analyses descriptives en lien avec les différents paramètres de la carrière criminelle seront effectuées. Ensuite, des tests de moyenne et une analyse de régression Cox permettront de vérifier la présence ou non d’un lien statistique entre les caractéristiques des antécédents criminels des individus connus de la police pour leurre d’enfants sur Internet et le passage à l’acte physique. Résultats: Les analyses ont montré que la majorité des sujets n’avaient aucun antécédent judiciaire. Pour la plupart, le leurre d’enfants est le crime le plus grave perpétré au cours de leur carrière criminelle. Trois catégories d’individus ont été décelées : les amateurs, les spécialistes et les généralistes. Ce sont les individus polymorphes ayant une carrière criminelle plus grave et plus longue qui sont portés à agresser sexuellement avant le leurre. Cependant, ce sont des individus spécialisés ayant une importante proportion de délits sexuels dans leurs antécédents criminels qui ont plus de chance d’agresser sexuellement suite à l’exploitation sexuelle sur Internet.
Resumo:
Objectifs: L’objectif principal de ce mémoire consiste à comprendre les caractéristiques des carrières criminelles d’individus connus de la police pour avoir perpétré une infraction de leurre d’enfants sur Internet. Aussi, par une analyse typologique à l’aide des antécédents criminels, il sera possible d’établir une typologie d’individus ayant leurré des enfants sur Internet. Également, il sera question de vérifier s’il y a un lien entre les caractéristiques des antécédents criminels de ces individus sur la perpétration de l’agression sexuelle hors ligne. Méthodologie: Provenant de données officielles de la communauté policière du Québec, l’échantillon comprend les parcours de criminels ayant perpétré une infraction de leurre d’enfants sur Internet. Des analyses descriptives en lien avec les différents paramètres de la carrière criminelle seront effectuées. Ensuite, des tests de moyenne et une analyse de régression Cox permettront de vérifier la présence ou non d’un lien statistique entre les caractéristiques des antécédents criminels des individus connus de la police pour leurre d’enfants sur Internet et le passage à l’acte physique. Résultats: Les analyses ont montré que la majorité des sujets n’avaient aucun antécédent judiciaire. Pour la plupart, le leurre d’enfants est le crime le plus grave perpétré au cours de leur carrière criminelle. Trois catégories d’individus ont été décelées : les amateurs, les spécialistes et les généralistes. Ce sont les individus polymorphes ayant une carrière criminelle plus grave et plus longue qui sont portés à agresser sexuellement avant le leurre. Cependant, ce sont des individus spécialisés ayant une importante proportion de délits sexuels dans leurs antécédents criminels qui ont plus de chance d’agresser sexuellement suite à l’exploitation sexuelle sur Internet.
Resumo:
L’adiposité est un facteur de risque connu pour le cancer du sein et le gain de poids à l’âge adulte semble l’être également. Au niveau mammaire, le tissu adipeux peut être étudié au travers des mesures de densité. En effet, la zone non-dense reflète le gras mammaire et le pourcentage de densité, l’un des plus importants facteurs de risque pour le cancer du sein, reflète la proportion de tissu fibroglandulaire. Le premier objectif de ce mémoire était d’évaluer, chez 1435 femmes recrutées lors d’une mammographie de dépistage, l’association entre le gain de poids à l’âge adulte et trois paramètres de mesure de densité mammaire : le pourcentage de densité et les zones dense et non-dense en valeurs absolues. Le second objectif était de présenter un texte de synthèse et de discussion portant sur les interrelations entre l’adiposité, la densité mammaire et le risque de cancer du sein.
Resumo:
Cette recherche expérimente une séquence didactique consacrée au texte d’opinion. Elle vise à amener des scripteurs adultes non francophones à produire des textes argumentativement efficaces, c’est-à-dire des textes dont les marques linguistiques, énonciatives et rhétoriques permettent d’obtenir l’assentiment de l’auditoire. Aujourd’hui encore, la prise en compte de l’efficacité d’un texte d’opinion ne constitue pas un aspect essentiel de l’enseignement de textes argumentatifs, largement dominé par une approche structurelle et formelle. Notre recherche développe une approche intégratrice et critique des travaux de didactique du français à propos de l’argumentation discursive; aussi nous situons-nous à l’antipode des conceptions logicisantes de l’argumentation écrite. Opérant une synthèse des courants théoriques qui ont étudié l’argumentation, en particulier la Nouvelle rhétorique, l’analyse de discours dans ses versions française et anglo-saxonne, la pragmadialectique et « l’argumentation dans la langue », nous avons construit le concept d’efficacité argumentative, socle de l’élaboration, de l’expérimentation et de l’analyse de notre séquence didactique. Cette dernière a été construite selon la démarche de recherche de l’ingénierie didactique avec son réseau de concepts et les différentes étapes qui la composent. Un prétest a permis d’évaluer les capacités argumentatives des étudiants. L’évaluation de ces données nous a guidés dans le choix des contenus des ateliers qui portent sur l’inscription des paramètres de la situation de communication, l’étayage de la thèse, la réfutation et la concession, la polyphonie et la contreargumentation. Ce travail a été suivi d’un posttest qui visait à valider l’effet de l’enseignement sur les compétences des étudiants et leur capacité à produire des textes d’opinion argumentativement efficaces. Nous espérons avoir montré que l’efficacité argumentative devrait être le paradigme principal de l’enseignement des genres argumentatifs et qu’il existe des outils didactiques valides pour contribuer à la démocratisation de l’accès à la langue, non pas comme simple code, mais comme un outil pour agir dans la société. L’enjeu dépasse le simple cadre scolaire, puisque la maitrise de l’argumentation est essentielle au développement professionnel et social des individus, mais aussi, osons nous ajouter, pour l’avènement de sociétés réellement démocratiques.
Resumo:
La présente étude avait pour objectif de contribuer à une meilleure compréhension de la granulation des bois feuillus par l’évaluation de la possibilité technique de transformer des bois feuillus de faible vigueur (l’érable à sucre et le bouleau jaune) en granules conventionnels et granules de haute qualité, un type prometteur de transport énergétique. Trois études individuelles ont été réalisées et présentées dans cette thèse. La première étude visait à déterminer s’il y a des changements de teneur en extractibles, cendres, et lignine du bois entre les classes de vigueur des arbres. Les teneurs plus élevées en extractibles et en lignine dans les arbres peu vigoureux ont suggéré que ces derniers sont plus appropriés par rapport aux arbres vigoureux pour la conversion en biocombustibles solides. La deuxième étude visait à optimiser des procédés de granulation des bois feuillus. L’étude a porté sur l’influence des paramètres du procédé (la température et la force de compression) et des caractéristiques de la matière première (la taille des particules et la teneur en humidité) sur les propriétés physiques et mécaniques des granules de bois. Le procédé de granulation doit être effectué à une température d’environ 100 °C pour minimiser la force de friction dans le granulateur et à une teneur en humidité d’environ 11,2% pour maximiser la masse volumique et la résistance mécanique des granules produites. Cette étude a également confirmé que les arbres de faible qualité sont plus appropriés pour la fabrication de granules de bois que les arbres vigoureux. La troisième étude visait l’élaboration de granules de haute qualité. L’eau chaude à température élevée a été utilisée pour modifier les propriétés de la matière première avant granulation. Les caractéristiques de granulation du matériau traité ont été significativement améliorées. Les granules produites ont montré des propriétés améliorées incluant une plus faible teneur en cendres, une plus haute densité énergétique, une meilleure résistance à l’eau, et une meilleure résistance mécanique. Les résultats obtenus de toutes ces études ont démontré la nécessité de bien connaître les fondements de la granulation des bois feuillus et les solutions pratiques pour l’utilisation d’arbres feuillus de faible qualité, le premier peut être applicable pour le développement de procédés de granulation et le dernier peut contribuer à long terme à la restauration des forêts feuillues dégradées en termes de santé des forêts et de leur valeur.
Resumo:
Les biofilms bactériens sont composés d’organismes unicellulaires vivants au sein d’une matrice protectrice, formée de macromolécules naturelles. Des biofilms non désirés peuvent avoir un certain nombre de conséquences néfastes, par exemple la diminution du transfert de chaleur dans les échangeurs de chaleurs, l’obstruction de membranes poreuses, la contamination des surfaces coques de navires, etc. Par ailleurs, les bactéries pathogènes qui prolifèrent dans un biofilm posent également un danger pour la santé s’ils croissent sur des surfaces médicales synthétiques comme des implants biomédicaux, cathéters ou des lentilles de vue. De plus, la croissance sur le tissu naturel par certaines souches des bactéries peut être fatale, comme Pseudomonas aeruginosa dans les poumons. Cependant, la présence de biofilms reste difficile à traiter, car les bactéries sont protégées par une matrice extracellulaire. Pour tenter de remédier à ces problèmes, nous proposons de développer une surface antisalissure (antifouling) qui libère sur demande des agents antimicrobiens. La proximité et la disposition du système de relargage placé sous le biofilm, assureront une utilisation plus efficace des molécules antimicrobiennes et minimiseront les effets secondaires de ces dernières. Pour ce faire, nous envisageons l’utilisation d’une couche de particules de silice mésoporeuses comme agents de livraison d’agents antimicrobiens. Les nanoparticules de silice mésoporeuses (MSNs) ont démontré un fort potentiel pour la livraison ciblée d’agents thérapeutiques et bioactifs. Leur utilisation en nano médecine découle de leurs propriétés de porosité intéressantes, de la taille et de la forme ajustable de ces particules, de la chimie de leur surface et leur biocompatibilité. Ces propriétés offrent une flexibilité pour diverses applications. De plus, il est possible de les charger avec différentes molécules ou biomolécules (de tailles variées, allant de l’ibuprofène à l’ARN) et d’exercer un contrôle précis des paramètres d’adsorption et des cinétiques de relargage (désorption). Mots Clés : biofilms, nanoparticules de silice mésoporeuses, microfluidique, surface antisalissure.
Resumo:
Les zéolithes étant des matériaux cristallins microporeux ont démontré leurs potentiels et leur polyvalence dans un nombre très important d’applications. Les propriétés uniques des zéolithes ont poussé les chercheurs à leur trouver constamment de nouvelles utilités pour tirer le meilleur parti de ces matériaux extraordinaires. Modifier les caractéristiques des zéolithes classiques ou les combiner en synergie avec d’autres matériaux se trouvent être deux approches viables pour trouver encore de nouvelles applications. Dans ce travail de doctorat, ces deux approches ont été utilisées séparément, premièrement avec la modification morphologique de la ZSM-12 et deuxièmement lors de la formation des matériaux de type coeur/coquille (silice mésoporeuses@silicalite-1). La ZSM-12 est une zéolithe à haute teneur en silice qui a récemment attiré beaucoup l’attention par ses performances supérieures dans les domaines de l’adsorption et de la catalyse. Afin de synthétiser la ZSM-12 avec une pureté élevée et une morphologie contrôlée, la cristallisation de la zéolithe ZSM-12 a été étudiée en détail en fonction des différents réactifs chimiques disponibles (agent directeur de structure, types de silicium et source d’aluminium) et des paramètres réactionnels (l’alcalinité, ratio entre Na, Al et eau). Les résultats présentés dans cette étude ont montré que, contrairement à l’utilisation du structurant organique TEAOH, en utilisant un autre structurant, le MTEAOH, ainsi que le Al(o-i-Pr)3, cela a permis la formation de monocristaux ZSM-12 monodisperses dans un temps plus court. L’alcalinité et la teneur en Na jouent également des rôles déterminants lors de ces synthèses. Les structures de types coeur/coquille avec une zéolithe polycristalline silicalite-1 en tant que coquille, entourant un coeur formé par une microsphère de silice mésoporeuse (tailles de particules de 1,5, 3 et 20-45 μm) ont été synthétisés soit sous forme pure ou chargée avec des espèces hôtes métalliques. Des techniques de nucléations de la zéolithe sur le noyau ont été utilisées pour faire croitre la coquille de façon fiable et arriver à former ces matériaux. C’est la qualité des produits finaux en termes de connectivité des réseaux poreux et d’intégrité de la coquille, qui permet d’obtenir une stéréosélectivité. Ceci a été étudié en faisant varier les paramètres de synthèse, par exemple, lors de prétraitements qui comprennent ; la modification de surface, la nucléation, la calcination et le nombre d’étapes secondaires de cristallisation hydrothermale. En fonction de la taille du noyau mésoporeux et des espèces hôtes incorporées, l’efficacité de la nucléation se révèle être influencée par la technique de modification de surface choisie. En effet, les microsphères de silice mésoporeuses contenant des espèces métalliques nécessitent un traitement supplémentaire de fonctionnalisation chimique sur leur surface externe avec des précurseurs tels que le (3-aminopropyl) triéthoxysilane (APTES), plutôt que d’utiliser une modification de surface avec des polymères ioniques. Nous avons également montré que, selon la taille du noyau, de deux à quatre traitements hydrothermaux rapides sont nécessaires pour envelopper totalement le noyau sans aucune agrégation et sans dissoudre le noyau. De tels matériaux avec une enveloppe de tamis moléculaire cristallin peuvent être utilisés dans une grande variété d’applications, en particulier pour de l’adsorption et de la catalyse stéréo-sélective. Ce type de matériaux a été étudié lors d’une série d’expériences sur l’adsorption sélective du glycérol provenant de biodiesel brut avec des compositions différentes et à des températures différentes. Les résultats obtenus ont été comparés à ceux utilisant des adsorbants classiques comme par exemple du gel de sphères de silice mésoporeux, des zéolithes classiques, silicalite-1, Si-BEA et ZSM-5(H+), sous forment de cristaux, ainsi que le mélange physique de ces matériaux références, à savoir un mélange silicalite-1 et le gel de silice sphères. Bien que le gel de sphères de silice mésoporeux ait montré une capacité d’adsorption de glycérol un peu plus élevée, l’étude a révélé que les adsorbants mésoporeux ont tendance à piéger une quantité importante de molécules plus volumineuses, telles que les « fatty acid methyl ester » (FAME), dans leur vaste réseau de pores. Cependant, dans l’adsorbant à porosité hiérarchisée, la fine couche de zéolite silicalite-1 microporeuse joue un rôle de membrane empêchant la diffusion des molécules de FAME dans les mésopores composant le noyau/coeur de l’adsorbant composite, tandis que le volume des mésopores du noyau permet l’adsorption du glycérol sous forme de multicouches. Finalement, cette caractéristique du matériau coeur/coquille a sensiblement amélioré les performances en termes de rendement de purification et de capacité d’adsorption, par rapport à d’autres adsorbants classiques, y compris le gel de silice mésoporeuse et les zéolithes.
Resumo:
Les réponses des sols aux diverses sollicitations qu'ils subissent à l'état naturel sur site sont multiples et dépendent de nombreux facteurs tel que leur nature, le domaine de sollicitation, la présence d'eau et plusieurs autres facteurs (état de contrainte, présence de cavités, etc.). La connaissance du domaine des petites et moyennes déformations pour le dimensionnement de nombreux ouvrages sur des dépôts de sols argileux ou sableux est d'une grande importance. La détermination des propriétés mécaniques des sols dans le domaine des petites déformations est néanmoins importante dans plusieurs applications en géotechnique. Le besoin de déterminer le module de cisaillement des sols à faibles déformations a conduit au développement de différents outils d'investigation.Les outils non intrusifs basés sur la propagation des ondes de surface permettent de s'affranchir des problèmes de remaniement du sol et la détermination des paramètres fondamentaux (G[indice inférieur max]) du sol dans leur vrai état des contraintes. L'étude menée dans ce travail se résume essentiellement en deux volets. Une présentation détaillée, des différentes méthodes et techniques qui déterminent la vitesse d'onde de cisaillement V[indice inférieur s] lors de la caractérisation des sols, est faite en premier stade. On se focalise à décrire le dispositif des bilames piézo-électriques (utilités, avantages et limitations). En second volet, on se consacre sur la caractérisation des sols granulaires au moyen de V[indice inférieur s]. Des simulations numériques illustrées par des essais aux laboratoires sur un modèle simplifié de la cellule oedométrique équipée du dispositif des anneaux piézo-électriques, ont été dirigés. En considérant trois sols pulvérulents de différentes propriétés granulométriques, on a pu voir les difficultés d'interprétation des résultats suivant les méthodes directes dans le domaine temporel. Alors que, des résultats traités dans le domaine fréquentiel se sont avérés plus réalistes.
Resumo:
Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.
Resumo:
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU).
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
L'objectif principal de ce projet était de comprendre et d'identifier les paramètres et conditions influençant la pénétration de microparticules dans la peau afin d'améliorer l'efficacité de l'injecteur sans-aiguille. De toute évidence, les modèles présents dans la littérature ne conviennent pas pour décrire, de façon analytique, les phénomènes qui se produisent lorsque les microparticules pénètrent dans la peau ni même lorsqu'un projectile sphérique est projeté dans un gel. Pour atteindre l'objectif du projet, il a d'abord été nécessaire d'avoir une vue d'ensemble de ce qu'est l'injection sans aiguille et de son fonctionnement ainsi que de connaître les particularités de la peau. Ensuite, l'étude des différents modèles présents dans la littérature, pour l'injection sans aiguille, mais aussi dans le domaine de la balistique a apporté des pistes de réflexion afin de développer le modèle analytique. Face aux imprécisions des paramètres reliés aux microparticules ainsi qu'à la peau et face à l'absence d'outils pour raffiner les paramètres, le modèle a été développé avec un système macroscopique. Ainsi, des projectiles macroscopiques ont été tirés dans des gels transparents afin de visualiser les phénomènes qui se produisent et de suivre la position du projectile dans le gel en temps réel. Ces données ont ensuite été utilisées afin d'établir un système de forces pouvant décrire correctement les forces appliquées sur le projectile et prédire la profondeur maximale atteinte par celui-ci. Des tests d'indentation quasi-statiques et dynamiques ont aussi été effectués sur les gels afin de caractériser leurs propriétés mécaniques et viscoélastiques et d'approfondir la compréhension de leur mécanisme de rupture. Les trois contributions significatives de cette thèse sont le développement d'un modèle analytique de pénétration de projectiles dans des gels, une méthode de caractérisation de la viscosité et de la contrainte ultime à la rupture à de hauts taux de déformation ainsi que l'estimation de la vitesse limite pour qu'un projectile pénètre le gel en fonction des paramètres intrinsèques du projectile et du gel. En ce qui a trait à la peau, le modèle prédit correctement la profondeur finale atteinte par les microparticules ayant un diamètre plus grand ou égal à celui des cellules (pénétration extracellulaire), mais n'est pas valide pour les microparticules ayant un diamètre plus petit que la cellule, car le mécanisme de pénétration est différent (pénétration intracellulaire).
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.