39 resultados para Potentiel magnétique vectoriel
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Les enseignants passent une bonne partie de leur à temps à produire, à adapter et à modifier des ressources pédagogiques, ce qui place ce travail, appelé travail documentaire, au coeur de leur développement professionnel (Gueudet et Trouche, 2008). Dans le cadre d'une recherche collaborative ayant pour but le développement professionnel d'orthopédagogues et d'enseignants, effectuée par des chercheurs de l'Université de Sherbrooke, des ressources pédagogiques visant le développement du potentiel mathématique des élèves en difficulté d'apprentissage ont été conçues, adaptées et modifiées. Nous appuyant sur l'approche documentaire du didactique de Gueudet et Trouche (2008), nous décrivons le processus d'intégration de l'approche de développement du potentiel mathématique dans la pratique d'enseignement d'une enseignante ayant participé à la recherche collaborative. L'analyse de différents types de données recueillies lors des phases préactive, interactive et postactive de l'enseignement nous a permis d'identifier cinq schèmes d'usage (schèmes d'instrumentation et d'instrumentalisation) dans la pratique d'enseignement de notre enseignante. Notre mémoire traite donc de la problématique du développement professionnel des enseignants en considérant, sous un angle didactique, leur travail sur des ressources pédagogiques.
Resumo:
On présente dans ce mémoire la mesure de la statistique de photons des fluctuations électromagnétiques micro-ondes d’une jonction tunnel placée à ultra-basse température. En particulier, on déduit cettedite statistique en mesurant les cumulants des fluctuations de courant générées par une jonction tunnel polarisée en courant continu et photoexcitée par un signal haute fréquence. On utilise un amplificateur paramétrique Josephson en tant que premier maillon de la chaîne d’amplification en raison de son bruit près de la limite quantique. On développe aussi un modèle pour tenir compte de sa saturation, celle-ci étant apparente à des puissances de signal incident très faibles. C’est, à ma connaissance, la première fois qu’un tel amplificateur est utilisé pour étudier la physique au sein du bruit émis par un conducteur mésoscopique. Les résultats mettent en évidence l’apparition d’un excès dans le quatrième cumulant lorsque la photoexcitation s’effectue au double de la fréquence de mesure. Un développement mathématique simple nous permet d’associer cet excès à la statistique de photons, sous la forme d’une augmentation – à nombre de photons fixe – de la variance du nombre moyen de photons contenue dans le signal. C’est en fait une signature de l’émission de paires de photons corrélés par la jonction tunnel photoexcitée. Ces résultats font le pont entre ceux obtenus précédemment par notre groupe de recherche quant aux cumulants d’ordre supérieur du bruit et ceux associées aux parallèles entre l’optique quantique et les fluctuations de courant des dispositifs mésoscopiques. [Gasse et al. PRL 111, 136601 (2013) ; Forgues et al. Scientific Reports 3, 2869 (2013) ; Forgues et al. PRL 113, 043602 (2014)] Ils dressent un portait intéressant du bruit photoexcité en termes normalement associés à l’optique quantique.
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
Résumé : Les aménagements axés sur le transport en commun (transit-oriented development ou TOD) reposent sur la création de développements résidentiels à proximité d’un nœud de transport existant. Dans le cadre de cet essai, on cherche plutôt à identifier les quartiers existants de Montréal possédant déjà les caractéristiques propices à l’aménagement d’un TOD, mais mal desservis par les transports en commun. En s’inspirant d’une étude menée aux Pays-Bas, on a eu recours à une analyse spatiale multicritères afin de concevoir un «indice du potentiel TOD», comportant quatre critères jugés essentiels, soit : la densité d’habitants, la mixité des utilisations du sol, la mixité sociale, ainsi que la distance aux transports. Malgré la difficulté d’intégrer l’ensemble des critères identifiés dans la littérature, les résultats révèlent un fort potentiel TOD sur le Plateau Mont-Royal, dans le Sud-Ouest, Hochelaga-Maisonneuve et plus particulièrement dans Anjou et Saint-Michel. On recommande notamment un secteur situé dans Saint-Michel, dont le potentiel TOD pourrait être enrichi par la création de plus fortes connexions au réseau de transports en commun.
Resumo:
Étant donné l'étroitesse du marché canadien, la compagnie BHF Recherche de Bromptonville envisage d'aborder le plus tôt possible le marché américain. Le but de ce travail était donc de prendre certaines décisions de base et d'établir un cadre de travail théorique et une méthodologie qui permettent d'orienter efficacement la planification et l'exécution de ce projet de vente à l'étranger. Compte tenu de la position géographique de BHF, de ses moyens financiers et de la concentration des populations, le Nord-Est des États-Unis et plus particulièrement le Massachusetts semble être l'état idéal pour débuter les activités américaines. Avant d'attaquer cet état, BHF devra amasser des données lui permettant de mieux cerner la taille du marché, son degré de permissivité aux nouveaux produits et son fonctionnement (processus décisionnel quant à l'achat). Certaines améliorations techniques seraient profitables pour contrer la présence de quatre principaux concurrents, dont le MultiRanger Plus qui domine effrontément le marché. Comme BHF désire concentrer ses efforts sur la recherche et le développement, elle devra confier les tâches de distribution et de promotion à un intermédiaire. Ce dernier devra être sélectionné en tenant compte de sa réputation dans le milieu et du temps qu'il peut consacrer à la vente du Vérificateur. Les barrières tarifaires sont relativement restreintes pour le Vérificateur puisque les douanes américaines ne représentent qu'environ 5% du prix de vente de l'appareil. Ce prix fixé à 5 500$ US permet de dégager une marge bénéficiaire de 71,7%, et ce en excluant la commission de l'intermédiaire et les frais de promotion. Ces derniers sont heureusement partagés avec l'agent-distributeur et seront orientés vers deux pôles: le développement de contacts personnels avec la clientèle par le biais d'évènements spéciaux et la publicité dans les publications spécialisées. L'exportation constituant un projet d'investissement, des sorties de fonds seront nécessaires. Une évaluation primaire permet de chiffrer des besoins annuels variant de 14 000$ à 35 000$ entre 1990 et 1994. Heureusement, le projet pourrait s'autofinancer dès la deuxième année. Quant à la première année, une injection de 15 000$ devrait suffire, ce qui devrait être facilité par une aide gouvernementale au fédéral. Relativement au risque de crédit international habituellement lié à l'exportation, il apparaît que la clientèle des municipalités visées par BHF en soit pratiquement exempte, ce qui évitera le recours au crédit documentaire. Quant à la protection contre le risque de change, sa nécessité ne semble évidente que pour les ventes de plusieurs appareils à la fois, et ce à cause des frais reliés à cette protection.
Resumo:
L'Amérique latine se caractérise comme une région ayant la pire répartition de la richesse et le Mexique n'y fait pas exception. Malgré que la dernière décennie lui ait apporté la stabilisation économique et la libéralisation des échanges commerciaux, l'écart entre les riches et les pauvres continue de croître. Pour certains experts, la cause principale de cette situation réside dans les effets de la mondialisation. Bien qu'ils contribuent à déstabiliser les économies locales, d'autres éléments présents au Mexique menacent autant le développement durable des communautés mexicaines. Notons la fragilité des démocraties, la faiblesse des institutions financières, les histoires de corruption et de trafic de drogue, l'exclusion sociale et la dégradation de l'environnement. Plusieurs programmes de développement socioéconomiques ont été mis en place par différents gouvernements mexicains. Que ce soit, des programmes en matière de santé et d'éducation, des programmes alimentaires et agricoles ou de construction d'infrastructures, ils visent essentiellement à réduire la pauvreté en milieux ruraux. Les problèmes sociaux en zones urbaines ne font pas partie des priorités actuelles de l'agenda politique du gouvernement fédéral. Les communautés urbaines doivent donc se tourner vers d'autres moyens pour assurer leur développement et, la micro-finance est l'une des solutions qui a depuis longtemps fait ses preuves en matière de mobilisation des populations hasardeuses. En effet, elle permet aux populations exclues des systèmes financiers traditionnels d'avoir un plus grand contrôle de leur avenir par l'auto emploi et par le développement endogène de leur communauté. Elle introduit donc une dynamique d'autonomie et vise des changements économiques et sociaux à long terme. Par contre, une des plus grandes erreurs commises est pourtant de prétendre que la micro-finance est le remède de toutes les calamités. Les besoins des populations moins nanties en zones urbaines ne se limitent pas aux besoins de financement. Les pauvres ont également besoin de logements salubres, d'eau potable, d'électricité, de soins de santé, d'écoles et d'infrastructure, ce en quoi tout être humain est en droit de posséder. De plus, le développement durable n'est pas qu'une question de solution aux problèmes de pauvreté, il concerne également tous les citadins. Lorsque l'on parle de qualité de vie, on parle également d'emplois disponibles, de revitalisation de quartiers, d'aménagement d'espaces verts, de construction de centres sportifs et culturels, pour en nommer que quelques-uns. En l'absence de volonté ou de moyens politiques en la matière, la coopérative d'épargne et de crédit peut-elle être un levier de développement local pour une communauté urbaine mexicaine? C'est la question à laquelle je me suis attardée ces derniers mois, en analysant le contexte socio-économique de la ville de Querétaro au Mexique. Pour ce faire, j'ai exécuté d'abord une intervention dans une importante coopérative d'épargne et de crédit et je me suis ensuite documentée à travers des entrevues formelles et informelles, des observations, des conférences diverses et la littérature locale et internationale. Après avoir présenté, dans le premier chapitre, le contexte socio-politico-économique du Mexique et en particulier celui de la municipalité de Querétaro, je décris, au chapitre 2, les différents problèmes que vivent au quotidien les citadins. Le chapitre 3 est consacré à l'environnement et aux ressources qu'offrent les coopératives mexicaines d'épargne et de crédit: leur importance, les principes, la législation, les forces et les faiblesses, les menaces et les opportunités, etc. Le chapitre suivant définit le développement local en zone urbaine, ses principes, le processus qui l'accompagne, les acteurs impliqués et la finalité. Enfin le chapitre 5 nous amène au coeur même de la réflexion, c'est-à-dire évaluer si la coopérative d'épargne et de crédit possède le potentiel nécessaire pour être un acteur important de développement local en zones urbaines mexicaines.
Resumo:
Résumé : L’interaction entre la douleur et le système moteur est bien connue en clinique et en réadaptation. Il est sans surprise que la douleur est un phénomène considérablement invalidant, affectant la qualité de vie de ceux et celles qui en souffrent. Toutefois, les bases neurophysiologiques qui sous-tendent cette interaction demeurent, encore aujourd’hui, mal comprises. Le but de la présente étude était de mieux comprendre les mécanismes corticaux impliqués dans l’interaction entre la douleur et le système moteur. Pour ce faire, une douleur expérimentale a été induite à l’aide d’une crème à base de capsaïcine au niveau de l’avant-bras gauche des participants. L'effet de la douleur sur la force des projections corticospinales ainsi que sur l’activité cérébrale a été mesuré à l’aide de la stimulation magnétique transcrânienne (TMS) et de l’électroencéphalographie (EEG), respectivement. L’analyse des données EEG a permis de révéler qu'en présence de douleur aiguë, il y a une augmentation de l’activité cérébrale au niveau du cuneus central (fréquence têta), du cortex dorsolatéral préfrontal gauche (fréquence alpha) ainsi que du cuneus gauche et de l'insula droite (toutes deux fréquence bêta), lorsque comparée à la condition initiale (sans douleur). Également, les analyses démontrent une augmentation de l'activité du cortex moteur primaire droit en présence de douleur, mais seulement chez les participants qui présentaient simultanément une diminution de leur force de projections corticales (mesurée avec la TMS t=4,45, p<0,05). Ces participants ont également montré une plus grande connectivité entre M1 et le cuneus que les participants dont la douleur n’a pas affecté la force des projections corticospinales (t=3,58, p<0,05). Ces résultats suggèrent qu’une douleur expérimentale induit, chez certains individus, une altération au niveau des forces de projections corticomotrices. Les connexions entre M1 et le cuneus seraient possiblement impliquées dans la survenue de ces changements corticomoteurs.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Résumé : c-Myc est un facteur de transcription (FT) dont les niveaux cellulaires sont dérégulés dans la majorité des cancers chez l’homme. En hétérodimère avec son partenaire obligatoire Max, c-Myc lie préférentiellement les séquences E-Box (CACGTG) et cause l’expression de gènes impliqués dans la biosynthèse des protéines et des ARNs, dans le métabolisme et dans la prolifération cellulaire. Il est maintenant bien connu que c-Myc exerce aussi son potentiel mitogène en liant et inhibant différents FTs impliqués dans l’expression de gènes cytostatiques. Entre autres, c-Myc est en mesure d’inhiber Miz-1, un FT comportant 13 doigts de zinc de type Cys2-His2 (ZFs) impliqué dans l’expression de plusieurs gènes régulateurs du cycle cellulaire comprenant les inhibiteurs de CDK p15[indice supérieur INK4], p21[indice supérieur CIP1] et p57[indice supérieur KIP2]. Plus récemment, il fut démontré qu’en contrepartie, Miz-1 est aussi en mesure de renverser les fonctions activatrices de c-Myc et de prévenir la prolifération de cellules cancéreuses dépendantes de c-Myc. Ces différentes observations ont mené à la suggestion de l’hypothèse intéressante que la balance des niveaux de Miz-1 et c-Myc pourrait dicter le destin de la cellule et a permis d’établir Miz-1 comme nouvelle cible potentielle pour le développement d’agents anti-cancéreux. Malgré le fait que ces deux protéines semblent centrales à la régulation du cycle cellulaire, les mécanismes moléculaires leur permettant de s’inhiber mutuellement ainsi que les déterminants moléculaires permettant leur association spécifique demeurent assez peu documentés pour le moment. De plus, la biologie structurale de Miz-1 demeure à être explorée puisque qu’aucune structure de ses 13 ZFs, essentiels à sa liaison à l’ADN, n’a été déterminée pour l’instant. Les travaux réalisés dans le cadre cette thèse visent la caractérisation structurale et biophysique de Miz-1 dans le contexte de la répression génique causée par le complexe c-Myc/Miz-1. Nous présentons des résultats d’éxpériences in vitro démontrant que Miz-1 interagit avec c-Myc via un domaine contenu entre ses ZFs 12 et 13. De plus, nous démontrons que Miz-1 et Max sont en compétition pour la liaison de c-Myc. Ces résultats suggèrent pour la permière fois que Miz-1 inhibe les activités de c-Myc en prévenant son interaction avec son partenaire obligatoire Max. De plus, ils laissent présager que que Miz-1 pourrait servir de référence pour le développement d’inhibiteurs peptidiques de c-Myc. Finalement, nous avons réalisé la caractérisation structurale et dynamique des ZFs 1 à 4 et 8 à 10 de Miz-1 et avons évalué leur potentiel de liaison à l’ADN. Les résultats obtenus, couplés à des analyses bio-informatiques, nous permettent de suggérer un modèle détaillé pour la liaison spécifique de Miz-1 à son ADN consensus récemment identifié.
Resumo:
La diarrhée post-sevrage causée par Escherichia coli entérotoxigénique présentant le fimbriae F4 (ETEC F4+) cause actuellement des pertes économiques importantes dans l’industrie porcine canadienne. Afin de mieux contrôler cette maladie, et afin d’offrir une alternative à l’utilisation excessive d’antibiotiques, le projet décrit dans ce mémoire évalue la capacité de la sous-unité majeure du fimbriae F4, FaeG, à protéger les porcelets contre ETEC F4+. Trois phases animales ont été réalisées afin de tester séparément et de façon combinée l’effet de FaeG sous forme d’émulsion orale et sous forme d’injection intramusculaire (IM). Les analyses de dosages d’anticorps spécifiques et de proliférations lymphocytaires effectuées sur les échantillons recueillis à chaque phase animale permirent d’évaluer la réponse immunitaire mucosale et systémique. Les résultats finaux obtenus ont démontré un effet des injections IM sur l’activation de la production d’anticorps sanguins ainsi que sur la prolifération de cellules mononucléées sanguines (CMS). L’évaluation de l’expression de différents gènes dans les ganglions mésentériques et dans la muqueuse iléale a permis d’observer une modulation de l’expression de certains gènes (TLR4, NFκBIA, IFNg, CCL20, CXCL2, IL4 et IL17), mais également l’absence de modulation sur plusieurs gènes attendus. Au final, certains effets secondaires observés lors des immunisations de la dernière phase animale, tels que la diarrhée, la difficulté à respirer et la faiblesse, ont nécessité des analyses supplémentaires. Il a ainsi été déterminé que plusieurs porcelets ont subi une réaction de type anaphylactique aux immunisations reçues à la dernière phase animale, bien que la composante exacte causant cette réaction soit inconnue. En conclusion, bien qu’une réponse immunitaire puisse être déclenchée par FaeG, d’autres études seront nécessaires afin de développer un vaccin oral contre ETEC F4+
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.