429 resultados para produit lithique clastique
Resumo:
L‟infection par le VIH-1, chez les patients, affecte principalement le système immunitaire et conduit à une destruction graduelle des lymphocytes T CD4 et, par conséquent, entraîne un état d‟immunodéficience. Cette immunodéficience permet l'établissement d‟infections opportunistes qui sont responsables de manifestations cliniques associées au Sida. Ces patients peuvent aussi développer des lymphomes, lésions du système nerveux central et une atteinte rénale. L'ampleur et la sévérité des conditions associées observées chez les patients infectés par le VIH-1 ne peuvent être imputées seulement au processus infectieux et à la déplétion des cellules T CD4+. Ceci suggère que les produits des gènes de régulation pourraient avoir des effets cytopathogènes. Cependant, les études sur la physiopathogenèse induite par le VIH ou ses différents gènes ont été difficiles à mener en raison de l'absence d'animaux de laboratoire infectés par ce virus. Ceux-ci auraient pu aider à disséquer le rôle des différents composants du génome viral et les mécanismes pathogénétiques impliqués. Pour pallier cette contrainte, nous avons produit le premier modèle de souris transgéniques pour le gène vpu. Vpu code pour une phosphoprotéine membranaire avec plusieurs fonctions connues. Elle participe au relargage des virions à la surface cellulaire, induit la dégradation des CD4, induit la régulation négative des CMH-1, augmente la susceptibilité à la mort cellulaire des lymphocytes T infectés par le VIH et favorise la réplication virale en empêchant les mécanismes antiviraux cellulaires. Dans ce travail, nous avons caractérisé pathologiquement un modèle de souris transgéniques porteuses du gène vpu du VIH-1. Nos résultats démontrent que l‟expression de vpu chez les souris transgéniques induit le développement spontané d‟une hyperplasie lymphoïde pansystémique, une splénomégalie avec une hyperplasie lymphoïde folliculaire évoluant en lésions prémalignes et malignes qui présentent certaines similarités avec la maladie de Castleman et une iv glomérulonéphrite mesangioproliférative qui rappelle certaines altérations de néphropathie associée au VIH chez les patients infectés. L‟ensemble des altérations démontre que les souris Tg/vpu développent une activation chronique et non spécifique du système immunitaire. Dans cette activation immunitaire, une dérégulation de l‟IL-6 et une hyperplasie du réseau de cellules métallophiliques pourraient être impliquées. D‟autres résultats obtenus sur les évaluations du fonctionnement du système immunitaire de la rate et du thymus mettent en évidence une susceptibilité augmentée des lymphocytes des tissus lymphoïdes aux effets apoptotiques de la dexaméthasone et des lipopolysaccharides et un retard dans le repeuplement par les cellules d‟organes lymphoïdes ainsi qu‟une réaction inflammatoire (Schwartzman) exacerbée et des anomalies dans la réaction d‟hypersensibilité retardée expérimentale. Ce modèle transgénique reproduit plusieurs anomalies rencontrées chez les patients infectés par le VIH et ouvre de nouvelles hypothèses sur la pathogenèse de l‟infection par le VIH.
Resumo:
Les virus exploitent la machinerie cellulaire de l’hôte de façon très variée et plusieurs types vont même jusqu’à incorporer certaines protéines cellulaires. Nous avons récemment effectué la première analyse protéomique du virion mature de l’Herpès simplex de type 1 (HSV-1), ce qui nous a permis de déterminer que jusqu’à 49 protéines cellulaires différentes se retrouvaient dans ce virus (Loret, S. et al. (2008). "Comprehensive characterization of extracellular herpes simplex virus type 1 virions." J Virol 82(17): 8605-18.). Afin de déterminer leur importance dans le cycle de réplication d’HSV-1, nous avons mis au point un système de criblage nous permettant de quantifier le virus produit et relâché dans le milieu extracellulaire en utilisant un virus marqué à la GFP ainsi que des petits ARN interférents (pARNi) ciblant spécifiquement ces protéines cellulaires. Cette approche nous a permis de démontrer que 17 des protéines identifiées précédemment jouaient un rôle critique dans la réplication d’HSV-1, suggérant ainsi que leur incorporation dans le virus n’est pas aléatoire. Nous avons ensuite examiné le rôle d’une de ces protéines, DDX3X (DEAD (Asp-Glu-Ala-Asp) box polypeptide 3, X-linked), une protéine multifonctionnelle connue pour son implication dans les cycles de réplication de plusieurs virus humains. À l’aide de pARNi ainsi que de différentes lignées cellulaires, dont une lignée DDX3X thermosensible, nous avons démontré que l’inhibition de DDX3X résultait en une diminution du nombre de capsides intracellulaires et induisait une importante diminution de l’expression des gènes viraux. Nous avons aussi démontré que la fraction de DDX3X incorporée dans le virion contribuait activement au cycle infectieux d’HSV-1. Ces résultats confirment l’intérêt de notre approche afin d’étudier les interactions hôte-pathogène en plus de démontrer la contribution des protéines cellulaires incorporées à HSV-1 dans l’infection virale.
Resumo:
Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.
Resumo:
Le tire-lait est un appareil conçu pour aider les mères durant l’allaitement. Selon la recherche préliminaire effectuée, c’est un thème très peu exploré dans les études; il est donc difficile d’affirmer si le produit répond correctement aux besoins reliés à son usage et à son utilité ou comment il s’intègre dans l’allaitement. Les fondements de l’étude exploratoire ont été bâtis sur ces enjeux dans le but de comprendre l’expérience d’usage du tire-lait. Inspirée de l’approche phénoménologique centrée sur l’usager, l’étude a permis d’amasser des données qualitatives à travers des entrevues semi-dirigées auprès de sept participantes. L’analyse de ces données a permis d’identifier les thèmes importants qui ont mené à des constats, rédigés dans une optique de design. L’étude a trouvé que c’est souvent quand la réalité de l’allaitement au sein rattrape les mères qu’elles vont vouloir se procurer un tire-lait, en s’inspirant des marques utilisées dans les hôpitaux par manque de temps. Le tire-lait devient alors principalement utile pour se désengorger et pour la liberté qu’il procure, s’intégrant dans une routine. Le tire-lait est par contre peu ergonomique; il semble y avoir un décalage entre le concept proposé et les manipulations réelles, notamment au niveau de la mise en marche, des bouteilles et des embouts. Ces résultats de l’étude pourraient être intégrés dans le tire-lait pour mieux représenter la réalité du contexte, de la pratique et de l’usage du produit. Ils pourraient ainsi nourrir le processus de conception dans un projet futur afin d’améliorer le design du tire-lait.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L'éclatement est une transformation jouant un rôle important en géométrie, car il permet de résoudre des singularités, de relier des variétés birationnellement équivalentes, et de construire des variétés possédant des propriétés inédites. Ce mémoire présente d'abord l'éclatement tel que développé en géométrie algébrique classique. Nous l'étudierons pour le cas des variétés affines et (quasi-)projectives, en un point, et le long d'un idéal et d'une sous-variété. Nous poursuivrons en étudiant l'extension de cette construction à la catégorie différentiable, sur les corps réels et complexes, en un point et le long d'une sous-variété. Nous conclurons cette section en explorant un exemple de résolution de singularité. Ensuite nous passerons à la catégorie symplectique, où nous ferons la même chose que pour le cas différentiable complexe, en portant une attention particulière à la forme symplectique définie sur la variété. Nous terminerons en étudiant un théorème dû à François Lalonde, où l'éclatement joue un rôle clé dans la démonstration. Ce théorème affirme que toute 4-variété fibrée par des 2-sphères sur une surface de Riemann, et différente du produit cartésien de deux 2-sphères, peut être équipée d'une 2-forme qui lui confère une structure symplectique réglée par des courbes holomorphes par rapport à sa structure presque complexe, et telle que l'aire symplectique de la base est inférieure à la capacité de la variété. La preuve repose sur l'utilisation de l'éclatement symplectique. En effet, en éclatant symplectiquement une boule contenue dans la 4-variété, il est possible d'obtenir une fibration contenant deux sphères d'auto-intersection -1 distinctes: la pré-image du point où est fait l'éclatement complexe usuel, et la transformation propre de la fibre. Ces dernières sont dites exceptionnelles, et donc il est possible de procéder à l'inverse de l'éclatement - la contraction - sur chacune d'elles. En l'accomplissant sur la deuxième, nous obtenons une variété minimale, et en combinant les informations sur les aires symplectiques de ses classes d'homologies et de celles de la variété originale nous obtenons le résultat.
Resumo:
Ce mémoire décrit la synthèse, la caractérisation spectroscopique et l’étude de la réactivité catalytique d’une nouvelle série de complexes pinceurs de Ni(II) formés à partir du ligand POCOPPh (P,C,P-2,6-{Ph2PO}2C6H4), très peu étudié dans le cas du nickel. Les études décrites dans ce mémoire examinent l’effet des substituants des phosphines sur les propriétés spectroscopiques et électrochimiques ainsi que les activités catalytiques. La synthèse du ligand a été améliorée par rapport à la procédure connue dans la littérature en diminuant le temps de réaction à 30 min et la température jusqu'à température ambiante. Les composés pinceur (P,C,P-2,6-{Ph2PO}2C6H3)NiX ont été obtenus avec des rendements variant entre 60% et 88%. Le premier complexe a été synthétisé en faisant réagir le précurseur NiBr2(NCCH3)x avec le ligand POCOPPh pour donner (POCOPPh)NiBr. Ce dernier réagit par la suite avec les sels d’argent et de potassium pour donner 4 nouveaux complexes soient : (POCOPPh)NiCN, (POCOPPh)NiOTf, (POCOPPh)NiOAc et (POCOPPh)NiONO2 (OTf = triflate et OAc = acetate). Vu la réactivité limitée du dérivé bromure, le dérivé (POCOPPh)NiOTf a été utilisé pour la préparation du composé (POCOPPh)NiCCPh. Le dérivé Ni-OTf a été utilisé également pour la synthèse des complexes (POCOPPh)NiR qui ont été détectés par RMN. Ces complexes (POCOPPh)NiR ont montré une stabilité trop faible et donnent des nouveaux complexes de type (POCOPPh)NiX en échangeant l’halogène avec le Mg ou de type (POCOPPh)NiOH en s’hydrolysant. Les espèces cationiques [(POCOPPh)NiNCR][OTf] (R= Me, CHCH2, CHCHMe, C(Me)CH2, NCCH2CH2N(Ph)H) ont été obtenues facilement et avec des bon rendements à partir du (POCOPPh)NiOTf. Tous les composés obtenus ont été caractérisés par la spectroscopie RMN (1H, 13C{1H}, 31P{1H}, 19F{1H}), la spectroscopie IR et la spectroscopie UV-vis. L’analyse élémentaire et l’analyse par la diffraction des rayons X, dont le but est de résoudre la structure à l’état solide, ont été utilisées pour la plupart des complexes. Des études de voltampérométrie cyclique ont été menées pour déterminer la densité électronique des centres métalliques et l’effet des phosphines sur cette propriété électrochimique. Dans le but de déterminer l’effet des substituants des phosphines sur l’activité catalytique des complexes, nous avons évalué les réactivités catalytiques des deux complexes (POCOPPh)NiOTf et (POCOPi-Pr)NiOTf dans la réaction d’hydroamination des oléfines activés et plus spécifiquement l’acrylonitrile. Après optimisation des conditions expérimentales, on a constaté que la réactivité des deux composés sont similaires mais une grande différence apparaît après l’ajout des additifs. En effet, le complexe (POCOPi-Pr)NiOTf donne une bonne activité catalytique en présence de la triéthylamine, tandis que cette activité diminue considérablement en présence d’eau, contrairement au complexe (POCOPPh)NiOTf qui est plus actif en présence d’eau. Dans le cas du complexe (POCOPPh)NiOTf, on a pu montrer que la base se coordonne au nickel dans le produit formé après la réaction d’hydroamination, ce qui diminue l’activité de ce complexe dans certains cas. Également on a exploré la réaction de l’addition du lien O-H sur l’acrylonitrile, et étonnamment le complexe (POCOPPh)NiOTf est beaucoup plus actif que son homologue (POCOPi-Pr)NiOTf dans le cas des alcools aromatiques. Par contre, les alcools aliphatiques restent un défi majeur pour ce genre de complexe. Le mécanisme de cette réaction qui a été proposé montre que l’alcoolyse passe par les deux intermédiaires (POCOPPh)NiOAr et [(POCOPPh)NiOAr][HOAr] mais l’isolation de ces intermédiaires observés par RMN semble être difficile.
Resumo:
Au croisement de l’anthropologie médicale, de la communication, du design industriel et des nouvelles technologies de l’information, ce mémoire se penche sur les difficultés communicatives rencontrées par le personnel médical et les patients de provenances culturelles variées dans le milieu des urgences hospitalières à Montréal. Dans l’optique d’améliorer l’échange au poste de triage, la réflexion porte principalement sur la pertinence et les caractéristiques d’un support visuel d’appoint. Elle aborde la problématique par l’étude des concepts de perception, de compréhension, d’interprétation et de représentation graphique sous les angles théoriques de la communication visuelle (Benjamin, Berger, Dibi-Huberman), de la sémiologie du discours social (Verón) et du jeu herméneutique (Gadamer). Les systèmes symboliques de cent cinquante images, illustrant sur Internet trois symptômes propres à la gastro-entérite, ont été analysés d’après une méthodologie mixte quantitative et qualitative afin d’identifier leurs sens dénotatifs et connotatifs. Les résultats appuient le recours à des images pour contourner les barrières langagières et révèlent l’existence d’une culture médicale visuelle internationale dont le code iconographique est hybride et pluriculturel. Ces nouvelles informations indiquent des critères de performance et des hypothèses concernant les changements occasionnés par l’ajout d’un support visuel dans la dynamique communicationnelle de l’ETC. La recherche ouvre aussi une piste vers l’étude herméneutique du produit en design industriel.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Dans cette thèse nous démontrons le travail fait sur deux matériaux de cathodes pour les piles lithium-ion. Dans la première partie, nous avons préparé du phosphate de fer lithié (LiFePO4) par deux méthodes de lithiation présentées dans la littérature qui utilisent du phosphate de fer (FePO4) amorphe comme précurseur. Pour les deux méthodes, le produit obtenu à chaque étape de la synthèse a été analysé par la spectroscopie Mössbauer ainsi que par diffraction des rayons X (DRX) pour mieux comprendre le mécanisme de la réaction. Les résultats de ces analyses ont été publiés dans Journal of Power Sources. Le deuxième matériau de cathode qui a été étudié est le silicate de fer lithié (Li2FeSiO4). Une nouvelle méthode de synthèse a été développée pour obtenir le silicate de fer lithié en utilisant des produits chimiques peu couteux ainsi que de l’équipement de laboratoire de base. Le matériau a été obtenu par une synthèse à l’état solide. Les performances électrochimiques ont été obtenues après une étape de broyage et un dépôt d’une couche de carbone. Un essai a été fait pour synthétiser une version substituée du silicate de fer lithié dans le but d’augmenter les performances électrochimiques de ce matériau.
Resumo:
Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.