998 resultados para 800
Resumo:
Cette recherche étudie l'évolution de l'appui à la souveraineté du Québec entre 1976 et aujourd'hui, en considérant les diverses formulations de la question utilisées par les acteurs politiques et par les sondeurs. Cette question est abordée en faisant une analyse longitudinale multiniveaux de plus de 800 sondages. Une telle approche suggère que les caractéristiques des sondages sont nichées à l'intérieur d'unités contextuelles plus larges, des unités de temps. Cela permet d'une part d'observer quels sont les facteurs liés à la mesure qui influencent l'appui à la souveraineté du Québec et ensuite de voir comment ces mêmes effets varient à travers le temps et comment ils sont influencés par certains événements jugés importants. Il ressort de ces analyses que les propositions séparation, indépendance, souveraineté et souveraineté-association/partenariat entraînent généralement des appuis moyens significativement différents les uns des autres. Il apparaît aussi que certains événements ont eu une influence significative sur l'évolution de l'appui à ces diverses propositions. Enfin, il a été tenté de voir si les appuis propres à ces diverses propositions évoluaient de manière parallèle, s'ils réagissaient similairement aux différents événements considérés dans les analyses ou si au contraire ces appuis pouvaient parfois évoluer de manière différente. Les résultats à cet égard sont intéressants mais non concluants.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
La grande majorité des causes tranchées par la Cour fédérale relève du droit de l’immigration. Environ 80% des causes plaidées devant la Cour fédérale sont en matière d’immigration. La plupart des causes qui se rendent à la Cour fédérale aboutissent au renvoi de la personne concernée. La requête en sursis est généralement le dernier recours que la personne peut exercer afin d’éviter ou à tout le moins retarder son renvoi du Canada. Près de 800 de ces requêtes en sursis ont été décidées par la Cour fédérale en 2008. Malgré un si grand nombre de causes et malgré le rôle important que ces requêtes peuvent jouer dans la vie d’une personne, aucun auteur n’a organisé et présenté les règles législatives et jurisprudentielles qui s’appliquent à ces procédures. Aucun livre, article ou commentaire n’a été rédigé sur ce sujet. De même, il n’existe aucun cours d’université ni de formations professionnelles sur les requêtes en sursis. Le droit des sursis consiste exclusivement de la jurisprudence des cours fédérales. Ainsi, on s’attend à ce qu’un avocat prépare une requête en sursis intuitivement. Toutefois, à cause de la nature urgente de cette procédure, il est pratiquement impossible pour un avocat inexpérimenté de se préparer adéquatement et de bien représenter les intérêts de son client. Beaucoup de causes ayant un fort potentiel sont perdues par manque d’expérience de l’avocat ou à cause d’une préparation inadéquate. La jurisprudence émanant de la Cour fédérale relativement aux sursis semble être incohérente et parfois même contradictoire. Ce livre organise, présente et explique de façon claire et concise le droit des sursis. Plus particulièrement, nous examinerons en détail les trois types de sursis – les sursis législatifs, administratifs et judiciaires. Tant les juges que les plaideurs trouveront cet ouvrage de référence utile dans la préparation et l’adjudication des causes.
Resumo:
Ce mémoire consiste en une analyse zooarchéologique d’un assemblage faunique provenant d’un site Dorsétien des Îles Nuvuk dans l’Arctique canadien. Les données fauniques ont été analysées statistiquement en appliquant des indices d’utilité économique et des indices de densité des os. Une étude concernant le niveau de conservation de l’assemblage a révélé peu d’évidence de modification taphonomique des spécimens. Les analyses fauniques ont permis d’identifier une stratégie de subsistance de type généraliste et basée sur l’exploitation de mammifères marins, surtout des phoques annelés, pratiquée par les occupants du site de KcFs-2. Une prédominance d’individus immatures (phoques annelés) dans l’assemblage indique une abondance de ressources marines dans les régions du nord de la Baie d’Hudson et du détroit d’Hudson au moment de l’occupation, ce qui est aussi manifeste dans des études antérieures concernant les économies des peuples du Paléoesquimau tardif pour la période donnée. L’occupation du site de KcFs-2 s’est produite durant la période du Dorsétien récent au Nunavik (1500-800 B.P.), et la séquence est définie comme ayant été multi-saisonnière (de l’hiver à l’été). L’analyse des produits de l’industrie osseuse (têtes de harpons et sculptures en ivoire) a permis de confirmer l’affiliation culturelle des occupants.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.