47 resultados para Unified Lending


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans Creep show, un narrateur présente ses creeps, les malades de son entourage, des schizophrènes inadéquatement nommés, afin de les ramener à la vie par ses mots. En se souvenant de certains moments où la folie se manifestait à lui, il veut déterrer ses ensevelis, les faire parler en leur prêtant son écriture. Dans un récit morcelé pouvant évoquer une galerie de portraits en mouvement, les protagonistes sont présentés comme des monstres, des rêveurs ou des sources d’inspiration selon le moment relaté par un narrateur affecté qui se replonge littéralement dans un passé s’échelonnant entre l’enfance et l’âge de dix-huit ans. Portant autant sur la maladie mentale que sur la honte et la peur des mots, Creep show est un texte sur le silence et l’impuissance, sur l’incapacité de nommer adéquatement la folie ; il s’agit d’un court récit de dix-sept scènes encadrées par un prologue et un épilogue où l’écriture d’un traumatisme se vit comme une histoire d’amour. L’essai intitulé “Je est des autres.” De l’esthétique borderline chez Marie-Sissi Labrèche décrit la genèse d’une esthétique « borderline ». Dans une approche à la fois psychanalytique et narratologique, fondée sur les concepts de la mélancolie, du kitsch et de la crypte, l’analyse tente de montrer quel type de construction thématique et formelle soutient cette esthétique. À partir d’éléments représentatifs de l’univers de Marie-Sissi Labrèche (la question de la limite, la pulsion de mort, le rapport au corps et l’instabilité), l’essai s’intéresse à la façon dont la narratrice de Borderline (2000) donne à lire une identité sédimentaire, un autoportrait masqué-fêlé, où « Je est [des] autre[s] ». En regard de ces éléments, l’hypothèse d’une machine textuelle fonctionnant – thématiquement et formellement – dans et par l’instabilité et l’altérité oriente la réflexion vers l’idée d’une écriture du trauma qui pourrait représenter une tentative de réappropriation identitaire passant par l’esthétique dite « borderline ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuropathie humaine sensitive et autonome de type 2 (NHSA 2) est une pathologie héréditaire rare caractérisée par une apparition précoce des symptômes et une absence d’affectation motrice. Cette pathologie entraîne la perte de perception de la douleur, de la chaleur et du froid ainsi que de la pression (toucher) dans les membres supérieurs et inférieurs et est due à des mutations autosomales récessives confinées à l’exon HSN2 de la protéine kinase à sérine/thréonine WNK1 (with-no-lysine protein kinase 1). Cet exon spécifique permettrait de conférer une spécificité au système nerveux à l’isoforme protéique WNK1/HSN2. La kinase WNK1 est étudiée en détails, en particulier au niveau du rein, mais son rôle au sein du système nerveux demeure inconnu. Considérant le début précoce de la neuropathie et le manque d’innervation sensorielle révélé par des biopsies chez les patients NHSA2, notre hypothèse de recherche est que les mutations tronquantes menant à la NHSA de type 2 causent une perte de fonction de l’isoforme WNK1/HSN2 spécifique au système nerveux entraînant un défaut dans le développement du système nerveux sensoriel périphérique. Chez l’embryon du poisson zèbre, WNK1/HSN2 est exprimé au niveau des neuromastes de la ligne latérale postérieure, un système mécanosensoriel périphérique. Nous avons obtenu des embryons knockdown pour WNK1/HSN2 par usage d’oligonucléotides morpholino antisens (AMO). Nos trois approches AMO ont révélé des embryons présentant des défauts d’établissement au niveau de la ligne latérale postérieure. Afin de déterminer la voie pathogène impliquant l’isoforme WNK1/HSN2, nous nous sommes intéressés à l’interaction rapportée entre la kinase WNK1 et le co-transporteur neuronal KCC2. Ce dernier est une cible de phosphorylation de WNK1 et son rôle dans la promotion de la neurogenèse est bien connu. Nous avons détecté l’expression de KCC2 au niveau de neuromastes de la ligne latérale postérieure et observé une expression accrue de KCC2 chez les embryons knockdown pour WNK1/HSN2 à l’aide de RT-PCR semi-quantitative. De plus, une sur-expression d’ARN humain de KCC2 chez des embryons a produit des défauts dans la ligne latérale postérieure, phénocopiant le knockdown de WNK1/HSN2. Ces résultats furent validés par un double knockdown, produisant des embryons n’exprimant ni KCC2, ni WNK1/HSN2, dont le phénotype fut atténué. Ces résultats nous mènent à suggérer une voie de signalisation où WNK1/HSN2 est en amont de KCC2, régulant son activation, et possiblement son expression. Nous proposons donc que la perte de fonction de l’isoforme spécifique cause un débalancement dans les niveaux de KCC2 activée, menant à une prolifération et une différenciation réduites des progéniteurs neuronaux du système nerveux périphérique. Les défauts associés à la NHSA de type 2 seraient donc de nature développementale et non neurodégénérative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique du design industriel dans la province canadienne de l’Alberta est en pleine croissance. Ses activités sont principalement concentrées à Edmonton et à Calgary, qui sont les plus grandes villes de la province. On y trouve des studios de design de renom, des communautés de design complexes et des programmes universitaires de design bien établis. Cependant, la pratique du design industriel albertaine est sous-développée en comparaison avec celle du reste du Canada et il y a peu de recherches et de documentation sur le design industriel en Alberta. Dans ce projet de mémoire, la pratique du design industriel en Alberta a été explorée depuis une approche historique. Pour pallier le manque de documentation, la collecte de données a été faite par une recherche qualitative, des entretiens narratifs et une recherche quantitative statistique. Une base d’information historique sur le design industriel albertain a été établie puis située par rapport au développement de la pratique du design industriel ailleurs au Canada. Les facteurs, événements et tendances dans l’histoire de la pratique du design industriel en Alberta ont été identifiés. De plus, le développement de la pratique du design industriel de l’Alberta a été comparé à celui du Québec et de l’Ontario. Les retombées de cette étude indiquent que la pratique du design industriel en Alberta présente quatre domaines de spécialisations distincts se développant depuis les années 1980. La pratique du design industriel en Alberta est sous-développée en comparaison à celui du Québec et de l’Ontario, mais elle peut devenir plus compétitive, au niveau canadien, avec plus de soutien gouvernemental, de meilleures relations avec l’industrie manufacturière et les institutions académiques, une communauté de design plus unifiée et en portant une plus grande attention aux domaines les plus prometteurs de l’industrie. Ces informations supportent une meilleure compréhension de la pratique du design industriel en Alberta et pourront informer les praticiens, enseignants et administrateurs du domaine du design industriel dans la province. Finalement, le mémoire servira de base à d’autres projets de recherche sur les changements potentiels dans la pratique du design industriel en Alberta et l’étude du design canadien et des industries de design régionales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La partie création de ce mémoire se veut soutenue par une tension narrative reliée à la curiosité suscitée par le personnage principal, de prime abord énigmatique, qui se dévoile de façon capricieuse par un changement constant de focalisation et de temporalité. Nathan vit à une ère où l’humanité a frôlé l’extinction, et où tout est à repenser après l’annihilation du virus ramenant les morts à la vie. N’ayant pas été témoin de ces horreurs, ses plus grandes préoccupations concernent son cheminement vers l’authenticité. Saltimbanque de métier, il voyage de communauté en communauté, où chacune a fait ses choix pour recréer le monde. Sa volonté de prôner l’art dans un processus de reconstruction sociale et sa poursuite d’une image perdue le pousseront toujours plus loin dans ses pérégrinations; vers des réalités qui le conduiront à redéfinir son univers. La partie essai s’interroge sur les procédés formant la tension narrative des romans d’Émile Ajar, pseudonyme laissant deviner la plume expérimentée de Romain Gary qui se réinvente dans l’anonymat. L’attention est centrée sur les jeux de narration, le rôle actanciel des personnages et l’orchestration formelle des récits, à savoir s’ils sont assez similaires pour lier les opus et les constituer en une série unifiée. Cette réflexion à la recherche de l’essence de l’oeuvre ajarienne, touchante par ses antihéros souvent démunis dans leur quête existentielle, a été une inspiration pour la rédaction de Le jour où la Terre en avait vu d’autres. Les rêves de Nathan sont racontés à la première personne, rejoignant certaines modalités ajariennes où la psyché des protagonistes se révèle par une narration au “je”. Les questionnements sur la tension narrative ont été déclencheurs de cette première démarche d’écriture romanesque, même si elle est située dans un cadre complètement autre et use d’une plume bien différente de celle d’Ajar.