970 resultados para non conventional instrument transformer
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
L’augmentation de la population âgée dans la société indique que les systèmes de soins de la santé font face à de nouveaux défis. Les hauts niveaux d’incapacité qui en résultent peuvent être réduits par les nouvelles technologies, la promotion de la santé ainsi que des stratégies de prévention. Les écrits scientifiques récents soulignent la supériorité des prothèses dentaires implanto-portées par rapport aux prothèses conventionnelles en termes de satisfaction et de qualité de la vie des patients. Cependant, il n'est toujours pas clair si ces avantages ont des effets positifs à long terme sur la santé orale et générale ainsi que sur la qualité de vie des populations âgées. Objectifs, Hypothèses : Notre but était de mesurer l’impact des prothèses mandibulaires retenues par 2 implants sur la qualité de vie associée à la santé bucco-dentaire et générale ainsi que sur la santé orale et la qualité du sommeil des aînés édentés. Nous avons évalué les hypothèses nulles suivantes : il n'y a aucune différence entre les individus portants des prothèses mandibulaires retenues par 2 implants (IODs) et ceux qui portent des prothèses conventionnelles (CDs), par rapport à la qualité de vie reliée à la santé bucco-dentaire et générale, la santé orale et la qualité du sommeil, un an après avoir reçu leurs nouvelles prothèses. Méthodes : Dans cette étude randomisée contrôlée, 255 aînés ont reçu au hasard IODs ou les CDs, les deux types de prothèses étant opposés à des prothèses maxillaires conventionnelles. La qualité de la vie reliée à la santé bucco-dentaire (OHRQoL) et la santé générale subjective ont été mesurées avec les questionnaires Oral Health Impact Profile (OHIP-20) et Short Form-36 (SF-36) en condition pré-traitement et après un an. La qualité du sommeil et la somnolence diurne ont été mesurées à l’aide du questionnaire Qualité de Sommeil de Pittsburg et de l'Échelle de Somnolence Epworth. La santé orale a été évaluée par un examen clinique. Les variables indépendantes étaient le sens de cohérence et le type de prosthèse, ainsi que des variables socio-démographiques. En utilisant des analyses statistiques bi et multi-factorielles, des comparaisons à l’intérieur d’un même groupe et entre deux groupes ont été effectuées. Résultats : Les différences pré et post traitement pour les cotes OHIP étaient significativement plus grandes pour le groupe IOD que le groupe CD (p<0.05). Le type de traitement et la cote pré-traitement étaient des facteurs significatifs à OHRQoL (p < 0.0001). Dans le groupe CD, il y avait une diminution significative par rapport aux cotes de «Physical Component Scores (PCS)», le fonctionnement physique, le rôle physique et la douleur physique entre les données pré-traitement et un an après le traitement, ce qui indique une diminution au niveau de la santé générale subjective. Dans le groupe IOD, une diminution statistiquement non significative a été remarquée par rapport à toutes les cotes des sous-échelles de SF-36, sauf pour la douleur physique. Le modèle final de régression a démontré qu’après ajustement pour les variables âge, sexe, statut marital et type de traitement, la cote totale finale d’OHIP et les données de bases de PCS prédisaient la cote finale de PCS (p < 0.0001). Aucune corrélation significative entre sens de cohérence et OHRQoL n'a été détectée (r =-0.1; p > 0.05). Les aînés porteurs des prothèses conventionnelles avaient presque 5 fois plus de chance d’avoir une stomatite prothétique que ceux portant des prothèses mandibulaires hybrides retenues par 2 implants (p < 0.0001). Les aînés ayant subjectivement une mauvaise santé générale avaient une qualité de sommeil moins bonne que ceux avec une meilleure santé générale subjective (p < 0.05). Les personnes qui avaient une OHRQoL moins bonne étaient presque 4 fois plus somnolentes pendant le jour que celles avec une meilleure OHRQoL (p=0.003, χ2; OR =3.8 CI 1.5 to 9.8). L'analyse de régression a montré que la santé générale subjective et OHRQoL prévoient la qualité du sommeil (p=0.022 et p=0.001, respectivement) et la somnolence diurne (p=0.017 et p=0.005, respectivement). Conclusions: Les résultats de cette étude suggèrent que, chez les aînés édentés, des prothèses mandibulaires hybrides retenues par deux implants amènent une amélioration significative de la qualité de vie reliée à la santé bucco-dentaire et maintiennent la sensation d’une meilleure santé physique. Des prothèses hybrides implanto-portées peuvent contribuer à la santé orale en réduisant les traumatismes infligés à la muqueuse orale et en contrôlant la stomatite prothétique. Les aînés édentés dont le niveau de qualité de vie reliée à la santé bucco-dentaire est bas, peuvent aussi avoir des troubles de qualité du sommeil.
Resumo:
Les voies de signalisation des MAP kinases (MAPK) conventionnelles jouent des rôles essentiels pendant le développement des lymphocytes T (LT) ainsi que lors de leur activation suite à la reconnaissance antigénique. En raison de ses différences structurelles ainsi que de son mode de régulation, ERK3 fait partie des MAPK dites non-conventionnelles. Encore aujourd’hui, les événements menant à l’activation de ERK3, ses substrats ou partenaires ainsi que sa fonction physiologique demeurent peu caractérisés. Nous avons entrepris dans cette thèse d’étudier le rôle de ERK3 lors du développement et de l’activation des LT en utilisant un modèle de souris déficient pour l’expression de ERK3. Nous avons premièrement établi que ERK3 est exprimée chez les thymocytes. Ensuite, nous avons évalué le développement thymique chez la souris ERK3-déficiente et nous avons observé une diminution significative de la cellularité aux étapes DN1, DP et SP CD4+ du développement des LT. La création de chimères hématopoïétiques ERK3-déficientes nous a permis de démontrer que la diminution du nombre de cellules observée aux étapes DN1 et DP est autonome aux thymocytes alors que le phénotype observé à l’étape SP CD4+ est dépendant de l’abolition simultanée de ERK3 dans l’épithélium thymique et dans les thymocytes. Une étude plus approfondie de l’étape DP nous a permis de démontrer qu’en absence de ERK3, les cellules DP meurent plus abondamment et accumulent des cassures doubles brins (DSB) dans leur ADN. De plus, nous avons démontré que ces cassures dans l’ADN sont réalisées par les enzymes RAG et qu’en absence de ces dernières, la cellularité thymique est presque rétablie chez la souris ERK3-déficiente. Ces résultats suggèrent que ERK3 est impliquée dans un mécanisme essentiel à la régulation des DSB pendant le réarrangement V(D)J de la chaîne du récepteur des cellules T (RCT). Dans le deuxième article présenté dans cette thèse, nous avons montré que ERK3 est exprimé chez les LT périphériques, mais seulement suite à leur activation via le RCT. Une fois activés in vitro les LT ERK3-déficients présentent une diminution marquée de leur prolifération et dans la production de cytokines. De plus, les LT ERK3-déficients survivent de façon équivalente aux LT normaux, mais étonnamment, ils expriment des niveaux plus faibles de la molécule anti-apoptotique Bcl-2. Ces résultats suggèrent que la prolifération réduite des LT ERK3-déficients est la conséquence d’une altération majeure de leur activation. Ainsi, nos résultats établissent que ERK3 est une MAPK qui joue des rôles essentiels et uniques dans le développement thymique et dans l’activation des lymphocytes T périphériques. Grâce à ces travaux, nous attribuons pour la toute première fois une fonction in vivo pour ERK3 au cours de deux différentes étapes de la vie d’un LT.
Resumo:
La responsabilité sociale des entreprises (RSE) est un concept qui fait référence au volontariat, sans définition unique, et visant la prise en compte des intérêts des parties prenantes de l’entreprise. Pour celle-ci, les caractéristiques communes à ces différentes définitions est d’établir des balises allant au-delà de ce que la loi fixe comme règle. Pour mettre en oeuvre la RSE, plusieurs outils sont utilisés, le code de conduite étant le plus répandu. Quant aux multiples parties prenantes de l’organisation, celle des travailleurs ne semble pas invitée à participer aux décisions de l’entreprise en matière de RSE, malgré les intérêts importants que les travailleurs et le syndicat peuvent posséder auprès de cette dernière. Notre recherche porte sur la convention collective en tant qu’outil de responsabilité sociale des entreprises. Nous nous intéressons à savoir si cet outil traditionnel en relations du travail pourrait être utilisé, tout comme un code de conduite, pour stimuler la participation des syndicale aux décisions de l’entreprise. À l’aide du Portrait statistique des conventions collectives analysées au Québec en 2006, nous avons validé la fréquence, le sujet ainsi que le niveau de participation syndicale dans les comités conjoints conventionnés en comparant les entreprises dites RSE et non RSE. Il s’est avéré qu’il n’y a pas plus de participation syndicale indiquée dans les conventions collectives d’entreprises RSE que dans celles non RSE. Cependant, notre analyse précise que deux outils RSE autres que le code de conduite adoptés par l’entreprise coïncident avec la participation syndicale, soit la signature d’un accord-cadre international et la participation au Pacte Mondial de l’ONU.
Resumo:
L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Une première partie de ce mémoire portera sur l’analyse des états fondamentaux ma- gnétiques de deux composés isolants et magnétiquement frustrés SrDy2O4 et SrHo2O4. Une étude de la chaleur spécifique à basse température sous l’effet de champs magné- tiques de ces échantillons a été menée afin de détecter la présence de transitions de phases. L’utilisation d’un composé isotructurel non magnétique, le SrLu2O4, a permis l’isolement de la composante magnétique à la chaleur spécifique. Les comportements observés sont non conformes avec les transitions magnétiques conventionnelles. De plus, le calcul de l’entropie magnétique ne montre qu’un recouvrement partiel de l’entropie associée à un système d’ions magnétiques. En second lieu, une analyse des oscillations quantiques de Haas-van Alphen a été effectuée dans le LuCoIn5, composé apparenté au supraconducteur à fermions lourds CeCoIn5. Les résultats obtenus montrent une topologie de la surface de Fermi très différente comparativement aux CeCoIn5 et LaCoIn5, ayant un comportement beaucoup plus tridimensionnel sans les cylindres caractéristiques présents chez les autres membres de cette famille. Finalement, le montage d’un système de détection PIXE a permis l’analyse nucléaire d’échantillons afin de déterminer la concentration de chacun des éléments les constituant. L’analyse a été effectuée sur une série d’échantillons YbxCe1−xCoIn5 dont le changement de concentration a des effets importants sur les propriétés du système.
Resumo:
Pendant la grossesse, les hormones stéroïdes jouent un rôle indispensable dans la régulation des principales manifestations physiologiques telles que la reconnaissance maternelle de la gestation, la réceptivité de l'endomètre, le début du développement embryonnaire ainsi que le maintien de la gestation. Cependant, on sait très peu sur la production de ces hormones et les principaux facteurs des voies intracellulaires impliqués dans le processus de stéroïdogenèse dans le placenta bovin pendant les stades initiaux et plus avancés de la gestation. Par ailleurs, certaines anomalies du placenta chez les bovins suite à une mauvaise production de stéroïdes n'ont pas encore été démontrées. Les objectifs de cette thèse étaient donc de : 1) déterminer la présence et la localisation des principales protéines stéroïdiennes dans le placenta de bovins provenant de gestations de 50 à 120 jours, 2) comparer l'expression placentaire d'une série de gènes et de protéines stéroïdiennes entre une gestation impliquant un transfert de noyaux de cellules somatiques (SCNT) et une gestation non-clonale; 3) étudier l'impact des hormones trophiques et des seconds messagers sur la stéroïdogenèse dans le placenta bovin à 140 +10 jours de gestation. L’utilisation de techniques d’immunohistochimie, d’immunobuvardage et de PCR quantitatif nous a permis d’évaluer la présence d'un large éventail de gènes stéroïdiens (STAR, CYP11A1, HSD3B1, CYP17A1 et SCARB1) qui participent au transport du cholestérol et dans la production de différents types de stéroïdes. Dans cette thèse, nous avons démontré la capacité du placenta bovin d’initier la stéroïdogenèse au début de la gestation et nous avons également déterminé les principales cellules impliquées dans ce processus. Nous avons constaté que les tissus maternels expriment les principaux marqueurs de stéroïdogenèse suggérant une plus grande capacité stéroïdogénique que les tissus fœtaux. En outre, un modèle d'expression des protéines complémentaires stéroïdogéniques entre la caroncule et le cotylédon a été observé, indiquant que la stéroïdogenèse placentaire exige une communication cellule à cellule entre les cellules de la mère et du fœtus. Après avoir démontré les principales cellules impliquées dans la synthèse des hormones stéroïdiennes dans le placenta bovin en début de gestation, nous avons ensuite étudié les modifications possibles de la stéroïdogenèse dans les tissus SCNT cotylédonaires à 40 jours de gestation. Nous avons identifié d'importantes modifications dans l'expression des gènes STAR, CYP11A1, HSD3B1, CYP17A1, et SULT1E1. Conséquemment, nous postulons que l'expression réduite des gènes stéroïdiens peut provoquer une insuffisance de la biosynthèse des hormones stéroïdiennes, ce qui pourrait contribuer à un développement anormal du placenta et du fœtus dans les gestations SCNT à court ou long terme. Finalement, nous avons développé un modèle efficace de culture d’explants de placentome qui nous a permis d'explorer les mécanismes sous-jacents spécifiques à la stéroïdogenèse placentaire. Nous avons exploré l'effet stimulant des hormones trophiques et différents messagers secondaires sur l'expression de différentes protéines stéroïdogéniques ainsi que le taux de progestérone (P4) dans les explants de placentome. En utilisant les techniques de RIA et de PCR quantitatif, nous avons constaté que même si les analogues de l'hormone lutéinisante (hCG) ont un effet stimulant sur plusieurs gènes stéroïdiens, le calcium ionophore est le principal modulateur dans la synthèse de la P4. Ces résultats suggèrent que dans le placenta bovin, la synthèse de la P4 est modulée principalement par l'afflux de calcium intracellulaire, et apparemment les nucléotides cycliques ne semblent pas contrôler ce processus. En conclusion, cette étude contribue de manière significative à une meilleure compréhension des mécanismes d'entraînement de la synthèse des stéroïdes placentaires au début de la gestation et permet aussi d’apporter de nouveaux éclairages sur l'importance des stéroïdes placentaires dans la régulation du développement du placenta et du fœtus.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Il est proposé que la pléthysmographie pénienne puisse faire l’objet d’améliorations par la combinaison de la pléthysmographie pénienne et de la vidéo-oculographie lors de la présentation de stimuli générés par ordinateur (SGO). L’application de cette combinaison n’a fait l’objet d’aucune étude auprès d’agresseurs sexuels d’enfants. Cette thèse comporte trois articles empiriques qui visent respectivement à soutenir le développement d’un instrument d’évaluation basé sur l’utilisation combinée des réponses oculaires et érectiles lors de la présentation de SGO afin d’évaluer les intérêts sexuels d'agresseurs sexuels d’enfants. Pour ce faire, des hommes ayant eu (n = 26) ou non (n = 36) des comportements sexuels envers des enfants sont recrutés afin de constituer des groupes de comparaison. Le premier article représente une exploration préliminaire des données issues de caractéristiques sociodémographiques, sexuelles et criminologiques ainsi que des réponses oculaires et péniennes lors de présentations de SGO et de bandes sonores conventionnelles. Il permet d’orienter les décisions entourant la poursuite de la recherche. Le second article porte sur la comparaison des profils des réponses péniennes issues de présentations de SGO et de bandes sonores conventionnelles ainsi que sur leur capacité respective à classifier les individus selon la présence d’antécédents de comportements sexuels sur des enfants. Il permet d’établir la validité discriminante de l’utilisation de SGO et d’établir des normes d’utilisation clinique. Le troisième article vise à circonscrire une dynamique oculaire associée à l’intérêt sexuel envers l’âge d’un objet et à soutenir la contribution de la combinaison des réponses oculaires et péniennes lors de la présentation de SGO. En somme, les résultats issus de cette thèse soutiennent l’utilisation clinique de la pléthysmographie pénienne lors de la présentation de SGO. Ils permettent d’identifier la présence d’une signature oculaire spécifique aux agresseurs sexuels lors de la présentation de SGO. Ils démontrent la contribution de la combinaison des réponses oculaires et péniennes par rapport à une mesure reposant uniquement sur les réponses péniennes. Ces résultats ouvrent la voie à l’utilisation clinique de la vidéo-oculographie et de SGO et offrent non seulement des possibilités intéressantes dans le domaine de la délinquance sexuelle, mais également de la sexualité en général.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Problématique : Les connaissances théoriques et pratiques au sujet de la mise en charge immédiate d’implants non jumelés chez les édentés sont limitées. Objectifs : Cette étude avait pour but de : (1) déterminer le taux de survie implantaire de 2 implants non jumelés supportant une prothèse totale mandibulaire suite à une mise en charge immédiate, (2) évaluer les changements des niveaux osseux et de stabilité implantaire survenus sur ces 2 implants durant une période de 4 mois et les comparer à un implant témoin, et (3) décrire les complications cliniques associées à ce mode de mise en charge. Méthodologie : Chez 18 individus édentés (âge moyen de 62±7 ans), cette étude de phase I avec un design pré/post a évalué les résultats cliniques suivant la mise en charge immédiate (<48 heures) de 2 implants non jumelés par une prothèse totale mandibulaire. À l’aide de radiographies périapicales, de sondages osseux et d’analyses de la fréquence en résonnance, les niveaux osseux péri-implantaires (en mm) et les niveaux de stabilité implantairte (en ISQ) de ces 2 implants insérés dans la région parasymphysaire ont été évalués à la chirurgie (T0) et au suivi de 4 mois (T1). Un implant non submergé et sans mise en charge inséré dans la région de la symphyse mandibulaire a été utilisé comme témoin. Les données ont été analysées avec des modèles mixtes linéaires, la méthode de Tukey ajustée, l’analyse de variance de Friedman et des tests de rang signés de Wilcoxon. Résultats : De T0 à T1, 3 implants mis en charge immédiatement ont échoué chez 2 patients. Le taux de survie implantaire obtenu était donc de 91,7% (33/36) et, par patient, de 88,9% (16/18). Aucun implant témoin n’a échoué. Les changements osseux documentés radiologiquement et par sondage autour des implants mis en charge immédiatement étaient, respectivement, de -0,2 ± 0,3 mm et de -0,5 ± 0,6 mm. Les pertes d’os de support implantaire n’ont pas été démontrées statistiquement différentes entre les implants avec mise en charge immédiate et les témoins. Les niveaux moyens de stabilité implantaire ont augmenté de 5 ISQ indépendamment de la mise en charge. Les niveaux moyens d’ISQ n’ont pas été démontrés statistiquement différents entre les implants avec mise en charge immédiate et les témoins à T0 ou T1. Cinq des 18 patients n’ont expérimenté aucune complication clinique, alors que 9 en ont eu au moins deux. Hormis les échecs implantaires, aucune de ces complications n’a entraîné de changements au protocole. Conclusion : Les résultats à court terme suggèrent que : (1) le taux de survie implantaire suite au protocole immédiat est similaire à ceux rapportés lors d’un protocole de mise en charge conventionnel (2) les changements d’os de support implantaire et de stabilité ne sont pas différents comparativement à ceux d’un implant témoin, (3) un niveau élevé d’expérience clinique et chirurgicale est requis pour effectuer les procédures et pour gérer les complications associées. Ces résultats préliminaires devraient être confirmés dans une étude clinique de phase II.
Resumo:
Problématique : La majorité des études publiées sur la réhabilitation par mise en charge immédiate de deux implants non jumelés avec une prothèse totale mandibulaire de recouvrement n’ont rapporté que des mesures cliniques objectives et très peu ont évalué les mesures centrées sur le patient, et ce, avec des erreurs de mesure. Aucune étude n’a évalué les attentes des patients vis-à-vis d'un tel protocole. Objectifs : Évaluer les attentes, le niveau de satisfaction ainsi que la qualité de vie reliée à la santé bucco-dentaire des édentés complets suite à un protocole de mise en charge immédiate. Méthodologie : Cet essai clinique de phase 1 utilise un design pré-post afin d’évaluer les mesures centrées sur le patient. Dix-huit individus, complètement édentés et âgés en moyenne de 62,39 ± 7,65 ans, ont reçu une prothèse totale mandibulaire de recouvrement sur deux implants non jumelés suite à un protocole de mise en charge immédiate, conjointement à une prothèse totale conventionnelle maxillaire. Un instrument adapté pour mesurer leurs attentes à l’aide d’échelles visuelles analogues, le questionnaire « McGill Denture Satisfaction Instrument » ainsi que le questionnaire OHIP-20 ont été remis aux patients avant de procéder aux traitements (T0), ainsi qu’aux rendez-vous de suivi à 2 semaines (T1), 1 mois (T2) et 4 mois (T3). De plus, l’inventaire de personnalité révisé (NÉO PI-R) ainsi qu’un questionnaire sociodémographique ont été remplis par les participants. Les « change scores » ont été calculés puis des tests non paramétriques et des analyses de variances en mesures répétées suivies de comparaisons par paires ont été utilisés afin d’analyser les données recueillies. La taille d’effet a été estimée. Résultats : Les participants avaient différentes attentes par rapport à la mise en charge immédiate. Certains s’attendaient à un effet positif à court terme par rapport à leur apparence esthétique (83,3 %) et à leur vie sociale (55,7 %), alors que d’autres avaient des craintes envers leur confort (5,6 %), leur habileté à mastiquer (11,1 %) et à nettoyer leur prothèse inférieure (11,1 %). À 4 mois, le protocole de mise en charge immédiate avait rencontré la majorité des attentes des patients par rapport à l’esthétique (94.4 %), la mastication (83.3 %), la phonétique (61.1 %), le confort (94.4 %), l’hygiène (88.9 %) et leur vie sociale (88.9 %). Une amélioration statistiquement significative de la satisfaction en générale, du confort, de l’esthétique, de la stabilité de la prothèse inférieure et de l’habileté à mastiquer a été notée à 2 semaines (p<0,001). Également, les comparaisons par paires ont révélé une diminution statistiquement significative du score total de l’OHIP-20 (p < 0,001) de même que la majorité des domaines de l’OHIP (p < 0.01), sauf pour l’handicap social qui n’a diminué significativement qu’après 1 mois (p = 0.01). Ces changements (pour la satisfaction et la qualité de vie) sont restés stables au cours des suivis subséquents. Indépendamment des traits de personnalité et des variables sociodémographiques, le protocole immédiat a satisfait 94,4 % des participants et a amélioré leur qualité de vie avec une large magnitude d’effet (d = 1.9; p < 0.001). Bien que deux patients aient perdu des implants au cours du traitement, 100 % des participants étaient d’accord pour recommander cette procédure à leurs pairs. Conclusions: Le protocole de mise en charge immédiate semble satisfaire les patients quelles que soient leurs attentes. Le protocole MCI peut améliorer, à court terme, la qualité de vie des patients totalement édentés. Les résultats prometteurs de la phase 1 devraient être corroborés lors de la 2e phase de cette étude.
Resumo:
Peut-on donner d’une clause et reprendre de l’autre? Si deux siècles de décisions et de commentaires contradictoires empêchent de répondre à cette question avec la certitude et l’assurance auxquelles nous a habitué la doctrine civiliste, il est tout de même possible d’affirmer que le droit civil prohibe la clause qui permet à un contractant de se dédire totalement de son engagement. Privant l’engagement de son cocontractant de toute raison, et le contrat dans lequel elle se trouve de toute fonction, cette clause contracticide se heurte en effet à une notion fondamentale du droit commun des contrats : la cause. C’est pour éviter que ne soient validés les contrats qui ne présentent aucun intérêt pour l’une ou l’autre des parties que le législateur québécois a choisi d’importer – et de conserver, dans son article introductif du Livre des obligations, cette notion que l’on dit la plus symbolique du droit français des obligations. En effet, bien que son rôle soit fréquemment assumé par d’autres mécanismes, la cause demeure la gardienne des fonctions du contrat synallagmatique. À ce titre, elle permet non seulement d’annuler les contrats qui ne codifient aucun échange, mais également, et surtout, de contrôler ceux dont le contenu ne permet pas de matérialiser les avantages négociés. Octroyant au juge le pouvoir d’assurer que le contrat contienne les outils nécessaires et adaptés à la réalisation de l’opération qu’il a pour fonction de mettre en œuvre, la cause lui offre donc le moyen de garantir l’adéquation entre la fin et ses moyens, bref de contrôler la cohérence matérielle du contrat.