464 resultados para Incertitude expérimentale
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Essai doctoral à la Faculté de Psychologie en vue de l’obtention du grade de Doctorat en Psychologie option clinique
Resumo:
Thèse réalisée en collaboration avec le Département de neurosciences et pharmacologie de l'Université de Copenhague, Danemark.
Resumo:
Problématique. L'utilisation d'un chien d'assistance à la mobilité (CAM) représente une option novatrice pour préserver l’intégrité des membres supérieurs (MSs) chez les utilisateurs de fauteuil roulant manuel (FRM). Aucune étude biomécanique n’a quantifié les effets du CAM sur les efforts aux MSs lors de la montée d’un plan incliné. Objectif. Cette étude quasi-expérimentale vise à comparer les efforts aux MSs lors de la montée d’un plan incliné avec et sans l’assistance d’un CAM. Méthodologie. Dix participants avec une lésion de la moelle épinière (LME) qui utilisent un FRM et possèdent un CAM ont monté un plan incliné à trois reprises avec et sans l’assistance du CAM. Les forces appliquées sur les cerceaux, mesurées avec des roues instrumentées, et les mouvements du FRM et des MSs, enregistrés avec un système d'analyse du mouvement, ont permis de mesurer les efforts mécaniques aux MSs. Simultanément, l'activité électromyographique (EMG) des muscles grand pectoral, deltoïde antérieur, biceps et triceps a été enregistrée et normalisée avec sa valeur maximale pour mesurer les efforts musculaires aux MSs. Résultats. En général, le CAM réduit significativement les valeurs moyennes et maximales de la force totale appliquée aux cerceaux et de sa composante tangentielle, des moments nets de flexion, de rotation interne et d’adduction aux épaules et des taux d’utilisation musculaire du deltoïde antérieur, du biceps et du triceps. Conclusion. L’assistance d’un CAM réduit les efforts aux MSs lors de la montée d’un plan incliné chez les utilisateurs d’un FRM ayant une LME.
Resumo:
Mon projet de thèse démontre comment le genre de la bande dessinée peut être mobilisé de façon à déstabiliser les idéologies identitaires dominantes dans un contexte autobiographique. À partir de théories contemporaines de récits de vie et de leurs emphase sur la construction du sujet au travers du processus autobiographique, j’explore les façons par lesquelles les propriétés formelles de la bande dessinée permettent aux artistes féminines et minoritaires d’affirmer leurs subjectivités et de s’opposer aux idéaux hégémoniques reliés à la représentation du genre, du traumatisme, de la sexualité, de l’ethnicité, et du handicap, en s’auto-incarnant à même la page de bande dessinée. Par une analyse visuelle formelle, ma thèse prouve que les esthétiques hyper-personnelles du dessin à la main découlant d’une forme ancrée dans l’instabilité générique et le (re)mixage continu des codes verbaux et visuels permettent aux artistes de déstabiliser les régimes de représentation conventionnels dans une danse complexe d’appropriation et de resignification qui demeure toujours ouverte à la création de nouveaux sens. Suite à l’introduction, mon second chapitre explique la résistance de Julie Doucet par rapport aux plaisirs visuels découlant de la contemplation des femmes dans la bande dessinée par son utilisation du concept originairement misogyne de la matérialité féminine grotesque comme principe génératif à partir duquel elle articule une critique de la forme et du contenu des représentations normatives et restrictives du corps féminin. Le troisième chapitre considère la capacité de la bande dessinée à représenter le traumatisme, et se penche sur les efforts de Phoebe Gloeckner visant à faire face aux abus sexuels de son enfance par l’entremise d’un retour récursif sur des souvenirs visuels fondamentaux. Le chapitre suivant maintient que la nature sérielle de la bande dessinée, sa multimodalité et son association à la culture zine, fournissent à Ariel Schrag les outils nécessaires pour expérimenter sur les codes visuels et verbaux de façon à décrire et à affirmer le sens identitaire en flux de l’adolescent queer dans sa quadrilogie expérimentale Künstlerroman. Le cinquième chapitre suggère que l’artiste de provenance Libanaise Toufic El Rassi utilise la forme visuelle pour dénoncer les mécanismes générateurs de préjugés anti-Arabes, et qu’il affirme son identité grâce au pouvoir de rhétorique temporaire que lui procure l’incarnation d’un stéréotype connu. Mon dernier chapitre démontre comment Al Davison emploie la bande dessinée pour mettre en scène des rencontres d’observations dynamiques avec le spectateur implicite pouvant potentiellement aider l’auteur à éviter le regard objectivant généralement associé à la perception du handicap.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.
Resumo:
Aux soins intensifs néonataux, les professionnels et les parents évaluent le pronostic du développement et de la qualité de vie (QdV). Le but de cette thèse est de comprendre comment les parents prédisent la QdV future de leurs enfants. Cette étude qualitative basée sur la théorisation ancrée comprend dix entrevues avec des parents. Les résultats indiquent que le pronostic développemental influence les prédictions parentales de QdV, mais il n’est pas suffisant, car la QdV est multidimensionnelle. Les parents utilisent des mécanismes d’adaptation pour gérer la maladie et l’hospitalisation de leur enfant. Ceux qui pensent qu’ils, et leur enfant, seront capables de s’adapter à un mauvais état développemental, prévoient une QdV réévaluée. Le pronostic neuro-développemental et la QdV future ne sont pas facilement estimés et les professionnels doivent en être conscients. Aider les parents à identifier des mécanismes d’adaptation peut les amener à estimer un meilleur pronostic de la QdV.
Resumo:
Le processus de vieillissement humain est un processus complexe qui varie grandement d’une personne à l’autre. Malgré l’ampleur des recherches faites sur le sujet, il reste encore beaucoup à explorer et à comprendre. Cette thèse propose trois expériences qui nous permettent d’améliorer notre compréhension des changements qui s’opèrent dans la mémoire de travail visuelle et l’attention visuospatiale avec la prise en âge. La première expérience propose d’examiner les changements dans les capacités de mémoire de travail visuelle entre des jeunes adultes, des adultes âgés sains et des personnes atteintes de trouble cognitif léger (TCL). De plus, grâce à un suivi fait avec les personnes ayant un TCL, nous avons pu examiner si des différences existaient au niveau comportemental entre les âgés qui ont déclinés vers un type de démence et ceux dont l’état est resté stable. Plusieurs techniques peuvent être utilisées pour étudier les effets du vieillissement sur le cerveau. Les tests neuropsychologiques et les tâches comportementales présentées dans la première expérience en sont un exemple. La neuroimagerie peut aussi s’avérer particulièrement utile. En effet, certaines mesures électrophysiologiques, aussi appelées potentiels reliés aux évènements (PRE), sont associées à des fonctions cognitives précises. Ces composantes nous permettent de suivre ces processus et d’observer les modulations causées par les caractéristiques des stimuli ou l’âge par exemple. C’est le cas de la N2pc (négativité 2 postérieure controlatérale) et de la SPCN (sustained posterior contralateral negativity), des composantes électrophysiologiques liées respectivement à l’attention visuospatiale et la mémoire de travail visuelle. On connait bien ces deux composantes ainsi que les facteurs qui les modulent, or elles sont peu utilisées pour les changements qui occurrent dans l’attention et la mémoire de travail visuelle dans le cadre du processus de vieillissement. Les deuxième et troisième expériences proposent d’utiliser une tâche de recherche visuelle (nombre d’items de couleur et identification d’une relation spatiale entre deux items de couleur) afin d’explorer les changements observables sur ces composantes électrophysiologiques. La deuxième expérience examine l’efficacité d’un paradigme à présentations multiples (‘multiple frame’) afin de mesurer la N2pc et la SPCN chez de jeunes adultes. La troisième expérience a pour but d’examiner les effets du vieillissement normal sur l’amplitude et la latence de la N2pc et la SPCN en utilisant le même type de tâche de recherche visuelle.
Resumo:
La musique aujourd’hui est régulièrement accompagnée d’environnements visuels. Depuis les propositions en provenance du vidéoclip jusqu’aux œuvres installatives en passant par l’art web ou le cinéma, l’audiovisuel occupe une place considérable dans notre monde médiatisé et constitue un foyer important du développement des pratiques musicales. L’alliage entre son et image est souvent rattachée à l’histoire du cinéma mais les prémisses entourant l’audiovisuel remontent en réalité à l’Antiquité. Les correspondances entre sons et couleurs ont pris racine en premier chez les Pythagoriciens et cet intérêt se poursuit encore aujourd’hui. L’avènement de différentes technologies est venu reformuler au fil des siècles cette recherche qui retourne du décloisonnement artistique. L’arrivée de l’électricité permet au XIXe siècle le développement d’une lutherie expérimentale avec entre autres l’orgue à couleur d’Alexander Rimington. Ces instruments audiovisuels donnent naissance plus tard au Lumia, un art de la couleur et du mouvement se voulant proche de la musique et qui ne donne pourtant rien à entendre. Parallèlement à ces nouvelles propositions artistiques, il se développe dès les tout début du XXe siècle au sein des avant-gardes cinématographiques un corpus d’œuvres qui sera ensuite appelé musique visuelle. Les possibilités offertes par le support filmique vient offrir de nouvelles possibilités quant à l’organisation de la couleur et du mouvement. La pratique de cet art hybride est ensuite reformulée par les artistes associés à l’art vidéo avant de connaitre une vaste phase de démocratisation avec l’avènement des ordinateurs domestiques depuis les années 1990. Je retrace le parcours historique de ces pratiques audiovisuelles qui s’inscrivent résolument sur le terrain du musical. Un parcours appuyé essentiellement sur des œuvres et des ouvrages théoriques tout en étant parsemé de réflexions personnelles. Je traite des enjeux théoriques associés à ces propositions artistiques en les différenciant d’un autre format audiovisuel majeur soit le cinéma. Cet exposé permet de préparer le terrain afin de présenter et contextualiser mon travail de création. Je traite de deux œuvres, Trombe (2011) et Lungta (2012), des propositions qui héritent à la fois des musiques visuelles, de l’art interactif et de l’art cinétique.
Resumo:
Lorsque les ouragans entrent en contact avec l'environnement bâti et naturel, les autorités publiques n'ont parfois d'autre choix que de déclarer l'évacuation obligatoire de la population située en zone à risque. En raison de l'imprévisibilité du déroulement d'une catastrophe et des comportements humains, les opérations d'évacuation sont confrontées à une incertitude significative. Les expériences passées ont montré que les technologies de l'information et des communications (TIC) ont le potentiel d'améliorer l'état de l'art en gestion des évacuations. Malgré cette reconnaissance, les recherches empiriques sur ce sujet sont à ce jour limitées. La présente étude de cas de la ville de New York explore comment l'intégration des TIC dans la planification opérationnelle des organisations ayant des responsabilités en matière de transport peut améliorer leurs réponses aux événements et influencer le succès global du système de gestion des catastrophes. L'analyse est basée sur les informations recueillies au moyen d'entretiens semi-dirigés avec les organisations de transport et de gestion des catastrophes de la ville de New York ainsi qu’avec des experts du milieu universitaire. Les résultats mettent en lumière le potentiel des TIC pour la prise de décision en interne. Même s’il est largement reconnu que les TIC sont des moyens efficaces d'échanger de l'information en interne et entre les organisations, ces usages sont confrontés à certaines contraintes technologique, organisationnelle, structurelle et systémique. Cette observation a permis d'identifier les contraintes vécues dans les pratiques usuelles de gestion des systèmes urbains.
Resumo:
Des études antérieures ont indiqué que l’IL-27 supprime le développement de l’encéphalomyélite auto-immune expérimentale (EAE), un modèle murin de la sclérose en plaques (SEP). L’expression en ARNm d’IL-27 est maximale au pic du développement de l’EAE. Cependant, sa contribution dans la pathogenèse de la SEP demeure irrésolue. Nous avons investigué si l’IL-27 contribue à moduler les réponses immunes dans le système nerveux central (SNC) de patients SEP. Nos résultats d’immunohistochimie sur échantillons post-mortem de cerveaux humains ont révélé que la production des deux sous-unités d’IL-27 (EBI-3 et p28) est plus élevée chez des patients comparés à des contrôles. De plus, les astrocytes (GFAP) et les microglies/macrophages (Iba1) représentent des sources biologiques importantes de l’IL-27 dans les lésions. Les lymphocytes T CD4 et CD8 qui infiltrent le SNC des patients expriment d’ailleurs le récepteur de l’IL-27 composé des chaînes gp130 et TCCR, supportant le concept que ces cellules pourraient répondre aux sources locales d’IL-27. Nous avons également démontré que des combinaisons de cytokines pro-inflammatoires (IFNγ, IL-1β et TNF) augmentent l’expression in vitro d’IL-27 par les astrocytes et macrophages humains, et que les microglies/macrophages de phénotype M1 produisent l’IL-27. Enfin, nous avons démontré que les astrocytes humains expriment aussi le récepteur à l’IL-27 et répondent à l’IL-27 par la phosphorylation de STAT1, mais pas de STAT3. Une telle signalisation dans ces cellules mène à l’augmentation d’expression de la molécule de co-inhibition PD-L1 et de la sécrétion de la chimiokine CXCL10.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Évaluation de l'acquisition de la résistance à la colistine chez Escherichia coli O149 chez le porc.
Resumo:
La diarrhée post-sevrage est une maladie d’importance dans l’industrie porcine et est principalement causée Escherichia coli O149. Le traitement habituellement utilisé est la néomycine. Cependant, en raison de l’antibiorésistance, les vétérinaires se tournent vers la colistine sulfate (CS). La CS lie les lipopolysaccharides (LPS) et provoque un déplacement des cations divalents causant la formation de pores entrainant la mort cellulaire. Le système à deux composantes PmrA/PmrB est le plus incriminé dans la résistance à la colistine en ajoutant un groupement 4-amino-4-déoxy-L-arabinose (L-Ara4N) au lipide A des LPS, augmentant ainsi la charge du LPS et diminuant son affinité pour la CS. L’objectif principal est d’évaluer l’acquisition de la résistance à la CS d’E. coli in vitro et dans un modèle in vivo. Nous avons utilisé des souches associées à des cas cliniques d’E. coli O149 et avons créé 22 mutants résistants à la CS. La concentration minimale inhibitrice (CMI) a été mesurée par une méthode de double dilution et comparée au seuil de résistance. Suite au séquençage des gènes pmrA/pmrB, nous avons identifié sept nouveaux polymorphismes, trois dans PmrA : A80V, N128I, S144G et quatre dans PmrB : V87E, D148Y, D148V et T156M. Pour l’essai in vivo, nous avons suivi une souche expérimentale ETEC:F4 (E. coli O149) et isolé des E. coli de la flore commensale. Le séquençage des gènes pmrA et pmrB de ces isolats a montré un polymorphisme spécifique, G15R et T156M respectivement. Cependant, plusieurs souches récoltées possédaient une résistance à la CS, mais sans polymorphisme de PmrA/PmrB, suggérant d’autre(s) mécanisme(s) de résistance.
Resumo:
Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.
Resumo:
Les facteurs climatiques ainsi bien que les facteurs non-climatiques doivent être pris en considération dans le processus d'adaptation de l'agriculture aux changements et à la variabilité climatiques (CVC). Ce changement de paradigme met l'agent humain au centre du processus d'adaptation, ce qui peut conduire à une maladaptation. Suite aux débats sur les changements climatiques qui ont attiré l'attention scientifique et publique dans les années 1980 et 1990, l'agriculture canadienne est devenue un des points focaux de plusieurs études pionnières sur les CVC, un phénomène principalement dû à l’effet anthropique. Pour faire face aux CVC, ce n’est pas seulement la mitigation qui est importante mais aussi l’adaptation. Quand il s'agit de l'adaptation, c'est plutôt la variabilité climatique qui nous intéresse que simplement les augmentations moyennes des températures. L'objectif général de ce mémoire de maîtrise est d'améliorer la compréhension des processus d'adaptation et de construction de la capacité d'adaptation ai niveau de la ferme et de la communauté agricole à travers un processus ascendant, c’est-à-dire en utilisant l'approche de co-construction (qui peut également être considéré comme une stratégie d'adaptation en soi), pour développer une gestion et des outils de planification appropriés aux parties prenantes pour accroître ainsi la capacité d'adaptation de la communauté agricole. Pour y arriver, l'approche grounded theory est utilisée. Les résultats consistent de cinq catégories interdépendantes de codes élargis, conceptuellement distinctes et avec un plus grand niveau d'abstraction. La MRC du Haut-Richelieu a été choisie comme étude de cas en raison de plusieurs de ses dimensions agricoles, à part de ses conditions biophysiques favorables. 15 entrevues ont été menées avec les agriculteurs. Les résultats montrent que si certains agriculteurs ont reconnu les côtés positifs et négatifs des CVC, d’autres sont très optimistes à ce sujet comme se ils ne voient que le côté positif; d'où la nécessité de voir les deux côtés des CVC. Aussi, il y a encore une certaine incertitude liée aux CVC, qui vient de la désinformation et la désensibilisation des agriculteurs principalement en ce qui concerne les causes des CVC ainsi que la nature des événements climatiques. En outre, et compte tenu du fait que l'adaptation a plusieurs caractéristiques et types, il existe de nombreux types d'adaptation qui impliquent à la fois l'acteur privé et le gouvernement. De plus, les stratégies d'adaptation doivent être élaborées conjointement par les agriculteurs en concert avec d'autres acteurs, à commencer par les agronomes, car ils servent en tant que relais important entre les agriculteurs et d'autres parties prenantes telles que les institutions publiques et les entreprises privées.