100 resultados para Liste électorale
Resumo:
Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.
Resumo:
La sclérose systémique (ScS) est une maladie auto-immune dont l’un des principaux auto-anticorps, dirigé contre la protéine centromérique B (CENP-B), est fortement associé à l’hypertension artérielle pulmonaire, l’une des causes majeures de décès dû à la ScS. L’hypertension résulte de l’occlusion progressive des vaisseaux suite à une hyperactivation des cellules musculaires lisses (CML) de la paroi vasculaire. Cependant, les facteurs responsables de ce remodelage vasculaire restent inconnus. Plusieurs études récentes ont démontré que certains auto-antigènes possèdent des fonctions biologiques additionnelles lorsqu'ils se retrouvent dans le milieu extracellulaire. En effet, une fois libérés par nécrose ou apoptose, ces auto-antigènes adoptent une activité biologique qui s'apparente à celles des cytokines et peuvent ainsi participer aux processus normaux de réparation de blessure et/ou acquérir une activité pathogène qui contribue au développement de certaines maladies auto-immunes. Nos résultats suggèrent que la CENP-B peut être ajoutée à cette liste de molécules bifonctionnelles. À l'aide des techniques d'immunofluorescence, d'ELISA cellulaire et de cytométrie en flux, nous avons démontré que la CENP-B se liait spécifiquement à la surface des CML vasculaire de l’artère pulmonaire avec une plus grande affinité pour le phénotype contractile que synthétique. Cette liaison provoquait la migration des cellules ainsi que la sécrétion de cytokines pro-inflammatoires telles que l’interleukine 6 et 8. Les mécanismes par lesquels la protéine exerçait ces effets impliquaient la phosphorylation de FAK et Src ainsi que la voie des MAP kinases, avec ERK1/2 et p38. Des études de signalisation intracellulaire effectuées à l’aide de plusieurs inhibiteurs spécifiques ainsi que des études de désensibilisation nous ont permis d’identifier le récepteur de la CENP-B en plus d’identifier les mécanismes complets de sa signalisation membranaire. Nous avons démontré que la CENP-B se liait de manière spécifique aux CML vasculaire via le récepteur de chémokine 3 (CCR3) pour ensuite transactiver le récepteur EGF, selon un mécanisme métalloprotéase-dépendant qui implique le relargage du HB-EGF. Cette transactivation est un processus important dans l’activation de la voie des MAP kinases ainsi que dans la sécrétion d’IL-8 induite par la CENP-B. Finalement, nous avons démontré que les auto-anticorps anti-CENP-B pouvaient abolir cette cascade de signalisation, empêchant ainsi la CENP-B d’exercer son rôle de cytokine. L’identification de la CENP-B comme ligand du CCR3 ouvre donc plusieurs perspectives quant à l’étude du rôle pathogène des auto-anticorps anti-CENP-B dans la ScS.
Resumo:
Avec le web, les moteurs de recherche, les blogues et les wikis, la relation à l’information s’est transformée au point où les repères habituels s’émoussent et doivent être redéfinis de fond en comble. Du coup, le travail des archivistes et des bibliothécaires doit l’être tout autant. Riches d’une solide tradition et conscientes des défis posés par la modernité la plus radicale, les sciences de l’information se sont élargies. Mais il ne s’agit plus seulement de conserver et de diffuser le savoir, il s’agit d’en repenser le traitement et l’accès. Conçu par l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, cet ouvrage se situe au carrefour de deux grandes traditions, américaine et française, et a pour ambition de fournir les clés du monde des sciences de l’information en se fondant sur des savoirs pratiques et concrets. Les auteurs présentent ici un savoir à la fine pointe des sciences de l’information pour répondre à la complexité des enjeux actuels et futurs. Introduction, bibliographie, index et table des matières de l’ouvrage.
Resumo:
Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Depuis la rentrée scolaire de septembre 2002, les écoles primaires québécoises doivent composer avec une nouvelle organisation des programmes ainsi qu’avec de nouveaux contenus. Au premier cycle, en univers social, la compétence visée est « Construire sa représentation de l’espace, du temps et de la société » (MEQ, 2001). Or, nous savons que, pour bâtir un enseignement qui a pour but de guider un individu dans la construction de sa représentation, il est nécessaire d’avoir conscience de ses représentations initiales de l’objet. Mais, quelles sont les représentations du temps des élèves de maternelle et de premier cycle du primaire au Québec? C’est la question que nous nous posons dans cette thèse. Pour y répondre, nous avons cherché à circonscrire le temps dont il est question en proposant une réflexion théorique sur son essence et en analysant les sens qu’il prend dans le programme. Puis, nous avons mis en place une méthodologie et les outils lui étant nécessaires pour dégager les dimensions de représentations présentes dans les discours de 164 sujets de maternelle, de première et de deuxième année, répartis sur 13 classes d’écoles de la grande région montréalaise. À l’issue de cette recherche, nous pouvons proposer aux chercheurs et aux enseignants une nouvelle liste de dimensions de représentations du temps adaptée au contexte québécois actuel. Cette liste nous permet de dépeindre le paysage des représentations du temps des élèves des classes que nous avons visitées. Enfin, riche de nos résultats, nous pouvons émettre quelques remarques et principes pour l’enseignement du temps en classe.
Resumo:
Résumé La ribonucléase P (RNase P) est une ribonucléoprotéine omniprésente dans tous les règnes du vivant, elle est responsable de la maturation en 5’ des précurseurs des ARNs de transfert (ARNts) et quelques autres petits ARNs. L’enzyme est composée d'une sous unité catalytique d'ARN (ARN-P) et d'une ou de plusieurs protéines selon les espèces. Chez les eucaryotes, l’activité de la RNase P cytoplasmique est distincte de celles des organelles (mitochondrie et chloroplaste). Chez la plupart des espèces, les ARN-P sont constituées de plusieurs éléments structuraux secondaires critiques conservés au cours de l’évolution. En revanche, au niveau de la structure, une réduction forte été observé dans la plupart des mtARN-Ps. Le nombre de protéines composant la RNase P est extrêmement variable : une chez les bactéries, environ quatre chez les archéobactéries, et dix chez la forme cytoplasmique des eucaryotes. Cet aspect est peu connu pour les formes mitochondriales. Dans la plupart des cas, l’identification de la mtRNase P est le résultat de longues procédures de purification comprenant plusieurs étapes dans le but de réduire au minimum le nombre de protéines requises pour l’activité (exemple de la levure et A. nidulans). Cela mène régulièrement à la perte de l’activité et de l’intégrité des complexes ribonucléo-protéiques natifs. Dans ce travail, par l’utilisation de la technique de BN-PAGE, nous avons développé une procédure d’enrichissement de l’activité RNase P mitochondriale native, donnant un rendement raisonnable. Les fractions enrichies capables de cette activité enzymatique ont été analysées par LC/MS/MS et les résultats montrent que l’holoenzyme de la RNase P de chacune des fractions contient un nombre de protéines beaucoup plus grand que ce qui était connue. Nous suggérons une liste de protéines (principalement hypothétiques) qui accompagnent l’activité de la RNase P. IV De plus, la question de la localisation de la mtRNase P de A. nidulans a été étudiée, selon nos résultats, la majorité de la mtRNase P est attachée á la membrane interne de la mitochondrie. Sa solubilisation se fait par l’utilisation de différents types de détergent. Ces derniers permettent l’obtention d’un spectre de complexes de la RNase P de différentes tailles.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
Ce mémoire est composé de trois articles qui s’unissent sous le thème de la recommandation musicale à grande échelle. Nous présentons d’abord une méthode pour effectuer des recommandations musicales en récoltant des étiquettes (tags) décrivant les items et en utilisant cette aura textuelle pour déterminer leur similarité. En plus d’effectuer des recommandations qui sont transparentes et personnalisables, notre méthode, basée sur le contenu, n’est pas victime des problèmes dont souffrent les systèmes de filtrage collaboratif, comme le problème du démarrage à froid (cold start problem). Nous présentons ensuite un algorithme d’apprentissage automatique qui applique des étiquettes à des chansons à partir d’attributs extraits de leur fichier audio. L’ensemble de données que nous utilisons est construit à partir d’une très grande quantité de données sociales provenant du site Last.fm. Nous présentons finalement un algorithme de génération automatique de liste d’écoute personnalisable qui apprend un espace de similarité musical à partir d’attributs audio extraits de chansons jouées dans des listes d’écoute de stations de radio commerciale. En plus d’utiliser cet espace de similarité, notre système prend aussi en compte un nuage d’étiquettes que l’utilisateur est en mesure de manipuler, ce qui lui permet de décrire de manière abstraite la sorte de musique qu’il désire écouter.
Resumo:
Les tumeurs du cortex surrénalien sont variées et fréquentes dans la population. Bien que des mutations aient été identifiées dans certains syndromes familiaux, les causes génétiques menant à la formation de tumeur du cortex surrénalien ne sont encore que peu connues. Un sous-type de ces tumeurs incluent les hyperplasies macronodulaires et sont pressenties comme la voie d’entrée de la tumorigenèse du cortex surrénalien. L’événement génétique le plus fréquemment observé dans ces tumeurs est l’expression aberrante d’un ou plusieurs récepteurs couplés aux protéines G qui contrôle la production de stéroïdes ainsi que la prolifération cellulaire. L’événement génétique menant à l’expression aberrante de ces récepteurs est encore inconnu. En utilisant le récepteur au peptide insulinotropique dépendant du glucose (GIP) comme modèle, cette étude se propose d’identifier les mécanismes moléculaires impliqués dans l’expression aberrante du récepteur au GIP (GIPR) dans les tumeurs du cortex surrénalien. Une partie clinique de cette étude se penchera sur l’identification de nouveaux cas de tumeurs surrénaliennes exprimant le GIPR de façon aberrante. Les patients étudiés seront soumis à un protocole d’investigation in vivo complet et les tumeurs prélevées seront étudiées extensivement in vitro par RT-PCR en temps réel, culture primaire des tumeurs, immunohistochimie et biopuces. Le lien entre le GIP et la physiologie normal sera également étudiée de cette façon. Une autre partie de l’étude utilisera les nouvelles techniques d’investigation à grande échelle en identifiant le transcriptome de différents cas de tumeurs exprimant le GIPR de façon aberrante. L’importance fonctionnelle des gènes identifiée par ces techniques sera confirmée dans des modèles cellulaires. Cette étude présente pour la première des cas de tumeurs productrices d’aldostérone présentant des réponses aberrantes, auparavant confinées aux tumeurs productrice de cortisol ou d’androgènes surrénaliens. Le cas probant présenté avait une production d’aldostérone sensible au GIP, le GIPR était surexprimé au niveau de l’ARNm et un fort marquage a été identifié dans la tumeur spécifiquement. Dans les surrénales normales, cette étude démontre que le GIP est impliqué dans le contrôle de la production d’aldostérone. Ces résultats ont été confirmés in vitro. Finalement, le profilage à grande échelle des niveaux d’expression de tous les gènes du génome a permis d’isoler une liste de gènes spécifiquement liés à la présence du GIPR dans des hyperplasies du cortex surrénalien. Cette liste inclus la périlipine, une protéine de stockage des lipides dans les adipocytes et la glande surrénale, dont l’expression est fortement réprimée dans les cas GIP-dépendant. Des études dans un modèle cellulaire démontrent que la répression de ce gène par siRNA est suffisante pour induire l’expression du récepteur au GIP et que cette protéine est impliquée dans la stimulation de la stéroïdogénèse par le GIP. En alliant des méthodes d’investigation in vivo de pointe à des techniques in vitro avancée, cette étude offre de nouveaux regards sur les liens entre le GIP et la physiologie de la glande surrénale, que ce soit dans des conditions normales ou pathologiques.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.
Resumo:
L'objectif général de cette thèse est d'examiner le lien entre les traits de personnalité évalués selon l'approche des cinq facteurs et les résultats des traitements psychosociaux auprès de jeunes adultes présentant un premier épisode psychotique. Afin d'atteindre cet objectif, 129 personnes ont été recrutées à participer à une étude expérimentale randomisée. Les participants ont été assignés soit à un groupe de thérapie cognitive-comportementale, soit à un groupe d'entraînement aux habiletés sociales visant la gestion des symptômes, soit à une liste d'attente. Les participants ont complété pré- et post-traitement le Questionnaire bref de personnalité NEO Révisé (Costa & McCrae, 1992), l'Échelle abrégée d'évaluation psychiatrique (Lukoff et al., 1986; Ventura et al., 1993) et l'Échelle d'adaptation cybernétique (Edwards & Baglioni, 1993). Dans le premier article, les profils de personnalité et la stabilité temporelle des traits de personnalité des jeunes adultes présentant un premier épisode psychotique ont été étudiés. Les résultats révèlent différents profils de personnalité et une stabilité des traits de personnalité. Dans le second article, les profils de personnalité et la valeur prédictive des traits de personnalité ou des profils sur les résultats thérapeutiques ont été investigués. Les résultats révèlent aussi différents profils de personnalité, aucun spécifiquement lié aux symptômes. Aucun lien n'a pu être rapporté entre les traits de personnalité et l'amélioration symptomatologique. Toutefois, les traits de personnalité et les profils sont liés à l'amélioration des stratégies actives d'adaptation. Dans le dernier article, la valeur prédictive des traits de personnalité sur les résultats thérapeutiques selon le groupe de traitement spécifique a été étudiée. Les résultats démontrent un lien entre les traits de personnalité et l'amélioration symptomatologique et des stratégies d'adaptation selon le traitement. Les traits de personnalité sont particulièrement liés aux résultats thérapeutiques des stratégies actives d'adaptation. Cette thèse contribue à l'avancement des connaissances en se penchant sur l'importance des traits de personnalité dans le traitement psychosocial des jeunes adultes présentant un premier épisode psychotique et en soulignant la nécessité d'étudier davantage les différences individuelles de la personnalité de cette clientèle. Les implications cliniques des résultats et les recommandations pour la recherche sont présentées.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.