194 resultados para PCR quantitatif en temps réel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Loi modifiant le Code civil et d'autres dispositions législatives relativement à la publicité des droits personnels et réels mobiliers et à la constitution d'hypothèques mobilières sans dépossession, L.Q. 1998, ch. 5 a assujetti à la publicité pour fins d'opposabilité aux tiers la fiducie à titre onéreux constituée pour garantir l'exécution d'une obligation, les droits du crédit-bailleur et, dans certains cas, les droits des vendeurs à tempérament et avec faculté de rachat et du locateur à long terme. L'interprétation de certaines de ces dispositions législatives a suscité une vive controverse jurisprudentielle portant sur la requalification des contrats et l'effet de la publicité dans le contexte où le vendeur à tempérament et le locateur à long terme ont fait défaut de publier leurs droits en temps utile et avant la faillite de leur débiteur. Le présent mémoire étudie cette problématique en procédant à l'analyse des jugements pertinents, et plus particulièrement des arrêts de la Cour suprême dans Lefebvre (Syndic de); Tremblay (Syndic de), [2004] 3 R.C.S. 326 et Ouellet (Syndic de), [2004] 3 R.C.S. 348. Également, ce mémoire traite de l'amendement apporté par le législateur à la définition de « créancier garanti» de la Loi sur la faillite et l'insolvabilité, qui a tenté, sans succès, d'harmoniser cette notion avec celle du Code civil. Ainsi, il sera démontré que la situation juridique des contrats conclus à des fins de garantie s'est complexifiée au fil des ans.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This dissertation focuses on military cooperation between the United States and its special allies. It argues that alliance expectations determine the level of military cooperation, while two intervening variables - the level of government cohesion and military capabilities - determine its implementation. This study also shows how secondary states deploy strategies to overcome power asymmetries through bilateral concessions, international organizations and by appealing to principle. The focus of the research is on special allies, as they have the most to gain or lose by going along with American plans. My contention is that secondary allies can rarely influence the dominant ally decisively, but they can act autonomously and resist to pressures exerted by the stronger alliance partner. The argument builds on three central claims. First, power asymmetries between allies translate into different assessments of international threats. Second, when disagreements over threats arise, the outcome of intra-alliance bargaining is not necessarily dictated by the preferences of the stronger power. Third, secondary states, as opposed to the dominant partner, face unique constraints when facing major foreign policy decisions, i.e. they face a trade-off between establishing a credible reputation as an alliance partner in a politically feasible way while minimizing domestic audience costs. To examine the theoretical puzzle presented by asymmetric military cooperation, I introduce a causal explanation that builds on neoclassical realism, to zone in on the interaction between systemic and domestic variables. My research makes a contribution to alliance theory and foreign policy decision-making by studying how special allies respond to American decisions in times of threat and how systemic constraints are channeled through state-level variables. To investigate the causal link between threat perception, alliance expectations and domestic constraints, this study relies on the method of structured focused comparison with three detailed case studies. The focus is on the initial decision made by special allies regarding whether or not to participle in joint mobilization with the United States. The decision-making process is presented from the perspective of secondary allied states and measures the explanatory factors that motivated the decision on military cooperation. The case studies are the UK, Canada and Australia’s response to the war in Afghanistan and the war in Iraq during the period of 2001 to 2003.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le développement hématopoïétique est régulé par l’action combinée de facteurs de transcription lignée spécifiques et de la machinerie transcriptionnelle de base, permettant ainsi l’expression de gènes en temps et lieu appropriés. Les travaux présentés dans cette thèse portent sur l’étude structurale et fonctionnelle d’interactions décisives pour la régulation de l’expression de gènes et impliquant des domaines de transactivation (TAD). En effet, les interactions faisant intervenir les TAD d’activateurs permettent de réguler l’activation de la transcription de façon spécifique. La première étude présentée dans cette thèse relate l'identification et la caractérisation d'une nouvelle interaction entre deux facteurs de transcription : le facteur hématopoïétique GATA-1 et la protéine suppresseur de tumeur p53. En combinant des études in vitro par titrage calorimétrique en condition isotherme (ITC) et par spectroscopie RMN et des études in vivo, nous avons identifié et caractérisé cette nouvelle interaction. Il s'avère que le TAD de p53 et le domaine de liaison à l’ADN de GATA-1 sont les domaines minimaux requis pour la formation de ce complexe. L'inhibition de la voie p53 par GATA-1 s’est avérée être la conséquence majeure de cette interaction, permettant ainsi le maintien en vie des précurseurs érythrocytaires via l’inhibition de l’apoptose. Un deuxième type d’interaction a fait l’objet d’études : l’interaction entre divers TAD et la machinerie transcriptionnelle de base, plus spécifiquement avec le Facteur général de Transcription IIH (TFIIH). La structure des complexes constitués par la sous-unité Tfb1/p62 du facteur TFIIH en interaction avec le TAD viral de VP16 d’une part, et avec le TAD humain du facteur érythrocytaire « Erythroid Krüppel-like factor» (EKLF) d’autre part, ont été résolues par spectroscopie RMN. La structure du complexe Tfb1/VP16 a révélée que le mode de liaison de VP16 à Tfb1 est similaire au mode de liaison du TAD de p53 avec le même partenaire. En effet, les TAD de VP16 et de p53 forment tous deux une hélice α de 9 résidus en interaction avec Tfb1. En dépit de partager avec p53 et VP16 le même site de liaison sur Tfb1/p62, la structure RMN du complexe EKLF/Tfb1 démontre que le mode d’interaction de ce TAD se distingue du mode de liaison canonique des activeurs transcriptionnels. Etonnamment, EKLF adopte un mécanisme de liaison semblable au mécanisme de liaison du facteur général de transcription TFIIEα avec p62, leurs conformations demeurent étendues en interaction avec Tfb1/p62. En se basant sur nos données structurales, nous avons identifié un résidu dans le TAD d'EKLF décisif pour la formation du complexe EKLF/p62 : le Trp73. La mutation de cet acide aminé perturbe son interaction avec Tfb1PH/p62PH et réduit significativement l'activité transcriptionnelle d'EKLF dans les érythrocytes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse sur l’oeuvre de Christian Bobin (1951-) porte aussi et avant tout sur le lyrisme et le désenchantement contemporains. En posant pour horizon ces deux objets de discours, j’interprète le discours éthique et poétique sur l’« enchantement simple » chez l’auteur français. Dans une perspective herméneutique, il s'agit d'éprouver l'hypothèse selon laquelle les oeuvres de Bobin véhiculent un discours poétique « répliquant » (Ricoeur) à un certain discours intellectuel dominant, s'énonçant contre lui, mais aussi en réitérant plusieurs de ses credo. La première partie annonce la posture théorique et la méthode (comparatiste), puis définit le lyrisme et le désenchantement comme horizon d’interprétation. La seconde partie, qui interroge l’identité « poéthique » (Pinson) de l’auteur (entendu comme catégorie du texte), dévoile la manière dont l’auteur prend acte du désenchantement et du nihilisme : en masculinisant le désenchantement, le reliant au logos, et en féminisant l’enchantement, l’associant au muthos. Le parti pris du temps authentique est soutenu par la valorisation de conduites et d’attitudes temporelles relevant de l’éthique de l’authenticité (Rousseau), alors que le parti pris du féminin correspond à la valorisation d’attitudes relevant de l’éthique de la bonté (Levinas). Puisque la première éthique mise sur le temps du sujet et que la seconde favorise le temps de l’autre, un premier paradoxe émerge au coeur des messages spéculatifs véhiculés, dont on prend la mesure grâce au discours de l’auteur sur le temps, les hommes, les femmes et la bonté. Dans la troisième partie, je mets au jour le grand projet éthique dont l’auteur investit son oeuvre : écrire pour prendre soin, soigner. Après avoir défini ce que j’appelle « l’écriture du care » chez Bobin, je m’attarde aux figures féminines fondatrices de l’oeuvre et constate que l’ambition est triple chez l’auteur : premièrement, prendre soin du présent, deuxièmement, protéger les femmes de la misogynie et troisièmement, revaloriser les attitudes care qui leur sont traditionnellement reconnues et comprendre, dédramatiser, esthétiser leur « folie ». Apparaît alors un second paradoxe : la valorisation simultanée de figures charnelles inscrites dans la temporalité (maternité) et de figures atemporelles, hors temps (extase). Enfin, un regard sur les « femmes à venir » bobiniennes montrera trois figures promises à la pratique du soin promue par l’auteur. Au final, c’est non seulement la poéthique bobinienne qui est mise en lumière, mais aussi des postures éthiques et poétiques centrales en Occident, que plusieurs poètes lyriques adoptent « en temps de détresse » (Hölderlin).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une préoccupation grandissante face aux risques biologiques reliés aux maladies infectieuses est palpable tant au niveau international que national ou provincial. Des maladies émergentes telles que le SRAS ou la grippe A/H1N1 ont amené une prise en charge des risques pandémiques et à l’élaboration de mesures d’urgence pour maîtriser ces risques : développer une culture de sécurité est devenu une priorité de recherche de l’OMS. Malgré tout, peu d’écrits existent face à cette volonté de sécuriser la santé et le bien-être par toute une série de dispositifs au sein desquels les discours occupent une place importante en matière de culture de sécurité face aux risques biologiques. Une réflexion sociopolitique était nécessaire pour les infirmières qui sont aux premières loges en dispensant des soins à la population dans une perspective de prévention et de contrôle des infections (PCI) dans laquelle elles se spécialisent. Dès lors, ce projet avait pour buts d’explorer la perception du risque et de la sécurité face aux maladies infectieuses auprès des infirmières cliniciennes et gestionnaires québécoises; d’explorer plus spécifiquement l'existence ou l'absence de culture de sécurité dans un centre de santé et de services sociaux québécois (CSSS); et d’explorer les discours en présence dans le CSSS en matière de sécurité et de risques biologiques face aux maladies infectieuses et comment ces discours de sécurité face aux risques biologiques se traduisent dans le quotidien des infirmières. Les risques biologiques sont perçus comme identifiables, mesurables et évitables dans la mesure où les infirmières appliquent les mesures de préventions et contrôle des infections, ce qui s’inscrit dans une perspective positiviste du risque (Lupton, 1999). La gestion de ces risques se décline au travers de rituels de purification et de protection afin de se protéger de toute maladie infectieuse. Face à ces risques, une culture de sécurité unique est en émergence dans le CSSS dans une perspective de prévention de la maladie. Toutefois, cette culture de sécurité désirée est confrontée à une mosaïque de cultures qui couvrent différentes façons d’appliquer ou non les mesures de PCI selon les participants. La contribution de cette recherche est pertinente dans ce nouveau domaine de spécialité que constituent la prévention et le contrôle des infections pour les infirmières québécoises. Une analyse critique des relations de pouvoir tel qu’entendu par Foucault a permis de soulever les questions de surveillance infirmière, de politique de l’aveu valorisée, de punition de tout écart à l’application rigoureuse des normes de PCI, de contrôle de la part des cadres infirmiers et d’assujettissement des corps relevant des mécanismes disciplinaires. Elle a permis également de documenter la présence de dispositifs de sécurité en lien avec la tenue de statistiques sur les patients qui sont répertoriés en tant que cas infectieux, mais également en termes de circulation des personnes au sein de l’établissement. La présence d’un pouvoir pastoral est perceptible dans la traduction du rôle d’infirmière gestionnaire qui doit s’assurer que ses équipes agissent de la bonne façon et appliquent les normes de PCI privilégiées au sein du CSSS afin de réguler les taux d’infections nosocomiales présents dans l’établissement. En cas de non-respect des mesures de PCI touchant à l’hygiène des mains ou à la vaccination, l’infirmière s’expose à des mesures disciplinaires passant de l’avertissement, la relocalisation, l’exclusion ou la suspension de l’emploi. Une culture du blâme a été décrite par la recherche d’un coupable au sein de l’institution, particulièrement en temps de pandémie. Au CSSS, l’Autre est perçu comme étant à l’origine de la contamination, tandis que le Soi est perçu comme à l’abri de tout risque à partir du moment où l’infirmière respecte les normes d’hygiène de vie en termes de saines habitudes alimentaires et d’activité physique. Par ailleurs, les infirmières se doivent de respecter des normes de PCI qu’elles connaissent peu, puisque les participantes à la recherche ont souligné le manque de formation académique et continue quant aux maladies infectieuses, aux risques biologiques et à la culture de sécurité qu’elles considèrent pourtant comme des sujets priorisés par leur établissement de santé. Le pouvoir produit des effets sur les corps en les modifiant. Cette étude ethnographique critique a permis de soulever les enjeux sociopolitiques reliés aux discours en présence et de mettre en lumière ce que Foucault a appelé le gouvernement des corps et ses effets qui se capillarisent dans le quotidien des infirmières. Des recherches ultérieures sont nécessaires afin d’approfondir ce champ de spécialité de notre discipline infirmière et de mieux arrimer la formation académique et continue aux réalités infectieuses cliniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur les mécanismes de relaxation et de fuite des excitons dans des systèmes de boîtes quantiques(BQs) d’InAs/InP. Les systèmes sont composés d’un sub- strat volumique d’InP, appelé matrice (M), d’un puits quantique d’InAs, nommé couche de mouillage (CM), et des familles de BQs d’InAs. La distinction entre les familles est faite par le nombre de monocouche d’épaisseur des boîtes qui sont beaucoup plus larges que hautes. Une revue de littérature retrace les principaux mécanismes de relaxation et de fuite des excitons dans les systèmes. Ensuite, différents modèles portant sur la fuite thermique des excitons des BQs sont comparés. Les types de caractérisations déjà produites et les spécifications des croissances des échantillons sont présentés. L’approche adoptée pour ce mémoire a été de caractériser temporellement la dynamique des BQs avec des mesures d’absorbtion transitoire et de photoluminescence résolue en temps (PLRT) par addition de fréquences. L’expérience d’absorption transitoire n’a pas fait ressortir de résultats très probants, mais elle est expliquée en détails. Les mesures de PLRT ont permis de suivre en température le temps de vie effectif des excitons dans des familles de BQs. Ensuite, avec un modèle de bilan détaillé, qui a été bien explicité, il a été possible d’identifier le rôle de la M et de la CM dans la relaxation et la fuite des excitons dans les BQs. Les ajustements montrent plus précisément que la fuite de porteurs dans les BQs se fait sous la forme de paires d’électrons-trous corrélées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.