874 resultados para Ultimate frisbee
Resumo:
Ce travail concerne la valorisation des résultats de la recherche universitaire. Il s'agit d'une terminologie qui concerne le processus ainsi que l'infrastructure - les bureaux de valorisation - permettant à un chercheur académique de commercialiser les résultats de sa recherche. Une étude de cas comparant la Belgique et le Québec dans ce domaine se trouvera au centre des réflexions. L'accent sera tout d'abord mis sur le cadre théorique permettant de comprendre l'origine et le sens de l'activité de valorisation. Différents concepts comme l'innovation et l'économie du savoir devront alors être introduits, notamment dans une perspective historique et normative. De plus, différents modèles théoriques se succèderont ; ce qui permettra au lecteur d'acquérir une vision complète du domaine étudié. La problématique qui anime ensuite la recherche est centrée sur les relations qui existent entre les bureaux de valorisation et les chercheurs universitaires qui font appel à leurs services et à l'impact de ces relations sur le processus de valorisation. Les différentes hypothèses proposées suggèrent l'importance des politiques universitaires de propriété intellectuelle ainsi que celle de la culture universitaire de la recherche académique. Ces différents points sont analysés au regard des entretiens semi-directifs effectués. Le but final de ce mémoire est la proposition de recommandations sur certaines bonnes pratiques dans le domaine de la valorisation. Ces dernières concernent d'une part la position organisationnelle des bureaux de valorisation au sein du processus de valorisation et, d'autre part, l'importance de la communication dans ce même processus.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.
Resumo:
La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.
Resumo:
Le rire est un comportement humain indiscutablement universel. Abondamment traité par la psychologie et les neurosciences, il demeure néanmoins le laissé-pour-compte de l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien le caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent évacuée. Or, toute tentative sérieuse de comprendre ce comportement requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une analyse de cinq hypothèses ultimes sur le rire et l’humour, desquelles sont extraites des prédictions qui sont confrontées à des données empiriques provenant de disciplines diverses. En guise de conclusion, il est tenté de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.
Resumo:
Les travaux antérieurs du laboratoire ont démontré le rôle du CD47 dans la fonction des cellules dendritiques ainsi que dans l’induction des lymphocytes T régulateurs (Tregs) chez l’humain in vitro. Notre premier objectif était de déterminer le rôle de CD47 sur la fonction des DCs in vivo. Nos travaux démontrent que le CD47 contrôle sélectivement la migration des DCs au travers des vaisseaux lymphatiques et des barrières cellulaires endothéliales in vivo sans interférer avec celle des lymphocytes T et B. Des expériences de migration compétitive et d’ immunisation active avec des DCs myéloïdes démontrent que la migration des DCs est dépendante de l’expression du CD47 sur les DCs et non sur les cellules endothéliales. Ce défaut de migration est corrélé avec l’absence de DCs spléniques dans la zone marginale chez nos souris CD47-/-. Notre second objectif était de déterminer le rôle de CD47 dans l’homéostasie et la fonction des Tregs. Nous démontrons que l’expression du CD47 contrôle sélectivement l’homéostasie d’une sous-population de Tregs CD103+ à l’état de base. La proportion de cellules activées/mémoires (CD44hi CD62Llo ) Foxp3+ CD103+ augmente rapidement au cours du vieillissement chez nos souris CD47-/- comparée aux souris CD47+/+ du même âge, tandis que le pourcentage de cellules (CD44loCD62Lhi) Foxp3+ CD103- reste comparable entre les deux souches de souris. En conclusion, le CD47 inhibe la prolifération excessive des Tregs CD103+ empêchant ainsi l’accumulation de ces cellules en absence d’inflammation. Les DCs et les Tregs sont étroitement régulées de manière reciproque. Cette régulation croisée contribue au maintien d’un équilibre entre l’immunité protectrice et la tolérance. La perspective de nos travaux est d’approfondir nos connaissances sur le rôle du CD47 et de ses ligands dans la régulation des DCs par les Tregs et vice et versa. Les DCs et les Tregs étant impliqués dans la pathogenèse de multiples maladies telles que le cancer, les maladies infectieuses et les maladies auto-immunes. Par conséquent, nos études pourraient ouvrir des portes à de nouvelles stratégies thérapeutiques.
Resumo:
Contexte: Les facteurs de risque comportementaux, notamment l’inactivité physique, le comportement sédentaire, le tabagisme, la consommation d’alcool et le surpoids sont les principales causes modifiables de maladies chroniques telles que le cancer, les maladies cardiovasculaires et le diabète. Ces facteurs de risque se manifestent également de façon concomitante chez l’individu et entraînent des risques accrus de morbidité et de mortalité. Bien que les facteurs de risque comportementaux aient été largement étudiés, la distribution, les patrons d’agrégation et les déterminants de multiples facteurs de risque comportementaux sont peu connus, surtout chez les enfants et les adolescents. Objectifs: Cette thèse vise 1) à décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux des maladies chroniques chez les enfants et adolescents canadiens; 2) à explorer les corrélats individuels, sociaux et scolaires de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens; et 3) à évaluer, selon le modèle conceptuel de l’étude, l’influence longitudinale d’un ensemble de variables distales (c’est-à-dire des variables situées à une distance intermédiaire des comportements à risque) de type individuel (estime de soi, sentiment de réussite), social (relations sociales, comportements des parents/pairs) et scolaire (engagement collectif à la réussite, compréhension des règles), ainsi que de variables ultimes (c’est-à-dire des variables situées à une distance éloignée des comportements à risque) de type individuel (traits de personnalité, caractéristiques démographiques), social (caractéristiques socio-économiques des parents) et scolaire (type d’école, environnement favorable, climat disciplinaire) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens. Méthodes: Des données transversales (n = 4724) à partir du cycle 4 (2000-2001) de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) ont été utilisées pour décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-17 ans. L’agrégation des facteurs de risque a été examinée en utilisant une méthode du ratio de cas observés sur les cas attendus. La régression logistique ordinale a été utilisée pour explorer les corrélats de multiples facteurs de risque comportementaux dans un échantillon transversal (n = 1747) de jeunes canadiens âgés de 10-15 ans du cycle 4 (2000-2001) de l’ELNEJ. Des données prospectives (n = 1135) à partir des cycle 4 (2000-2001), cycle 5 (2002-2003) et cycle 6 (2004-2005) de l’ELNEJ ont été utilisées pour évaluer l’influence longitudinale des variables distales et ultimes (tel que décrit ci-haut dans les objectifs) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-15 ans; cette analyse a été effectuée à l’aide des modèles de Poisson longitudinaux. Résultats: Soixante-cinq pour cent des jeunes canadiens ont rapporté avoir deux ou plus de facteurs de risque comportementaux, comparativement à seulement 10% des jeunes avec aucun facteur de risque. Les facteurs de risque comportementaux se sont agrégés en de multiples combinaisons. Plus précisément, l’occurrence simultanée des cinq facteurs de risque était 120% plus élevée chez les garçons (ratio observé/attendu (O/E) = 2.20, intervalle de confiance (IC) 95%: 1.31-3.09) et 94% plus élevée chez les filles (ratio O/E = 1.94, IC 95%: 1.24-2.64) qu’attendu. L’âge (rapport de cotes (RC) = 1.95, IC 95%: 1.21-3.13), ayant un parent fumeur (RC = 1.49, IC 95%: 1.09-2.03), ayant rapporté que la majorité/tous de ses pairs consommaient du tabac (RC = 7.31, IC 95%: 4.00-13.35) ou buvaient de l’alcool (RC = 3.77, IC 95%: 2.18-6.53), et vivant dans une famille monoparentale (RC = 1.94, IC 95%: 1.31-2.88) ont été positivement associés aux multiples comportements à risque. Les jeunes ayant une forte estime de soi (RC = 0.92, IC 95%: 0.85-0.99) ainsi que les jeunes dont un des parents avait un niveau d’éducation postsecondaire (RC = 0.58, IC 95%: 0.41-0.82) étaient moins susceptibles d’avoir de multiples facteurs de risque comportementaux. Enfin, les variables de type social distal (tabagisme des parents et des pairs, consommation d’alcool par les pairs) (Log du rapport de vraisemblance (LLR) = 187.86, degrés de liberté = 8, P < 0,001) et individuel distal (estime de soi) (LLR = 76.94, degrés de liberté = 4, P < 0,001) ont significativement influencé le taux d’occurrence de multiples facteurs de risque comportementaux. Les variables de type individuel ultime (âge, sexe, anxiété) et social ultime (niveau d’éducation du parent, revenu du ménage, structure de la famille) ont eu une influence moins prononcée sur le taux de cooccurrence des facteurs de risque comportementaux chez les jeunes. Conclusion: Les résultats suggèrent que les interventions de santé publique devraient principalement cibler les déterminants de type individuel distal (tel que l’estime de soi) ainsi que social distal (tels que le tabagisme des parents et des pairs et la consommation d’alcool par les pairs) pour prévenir et/ou réduire l’occurrence de multiples facteurs de risque comportementaux chez les enfants et les adolescents. Cependant, puisque les variables de type distal (telles que les caractéristiques psychosociales des jeunes et comportements des parents/pairs) peuvent être influencées par des variables de type ultime (telles que les caractéristiques démographiques et socioéconomiques), les programmes et politiques de prévention devraient également viser à améliorer les conditions socioéconomiques des jeunes, particulièrement celles des enfants et des adolescents des familles les plus démunies.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.
Resumo:
En vue de saisir la pensée kantienne dans toute sa virulence, on ne peut jamais faire abstraction de la place éminente de Jean-Jacques Rousseau dans cette philosophie qui ne cesse pas à marquer, à définir et à poser des jalons de la pensée moderne. À cet égard, si le Genevois communique les grandes leçons de sa théorie de l’homme sous la guise d’une éducation, il s’agit ici non pas d’une philosophie de l’éducation mais bien plus d’une philosophie comme éducation. C’est effectivement cette thèse que Kant reprend, suit et enrichie d’une manière sui generis pour renverser l’ordre théorique mais surtout pratique de religion-moralité-devoir et libérer une fois pour toutes la morale des dogmes théologiques et finalement pour édifier une philosophie pratique comme l’éducation de l’espèce humaine. Le but de cette étude est de jeter quelques lumières sur la place sans pareille de Jean-Jacques Rousseau dans la philosophie kantienne de l’éducation.
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
Ce mémoire analyse les trajectoires de sortie de communautés juives ultraorthodoxes. Plus précisément, il cherche à mettre en lumière le processus par lequel certains juifs hassidiques parviennent à s’affranchir de leur communauté d’origine. Dans une recherche alliant entrevues, notes de terrain et observation,notre étude montre comment malgré la présence d’un fort contrôle social au sein de ces communautés ultra-religieuses certains de leurs membres le déjouent. Ce mémoire vise à repérer et à analyser les stratégies d’adaptation et les ruses mises en place par les hassidim pour échapper au contrôle et ainsi enclencher le processus de sortie. À la lumière de la théorie goffmanienne nous montrons comment dans un environnement contrôlant,les individus réussissent à s’aménager des marges de manoeuvre. C’est en se créant des espaces de liberté durant le processus de sortie qu’ils parviennent à avoir les coudées franches pour s’en affranchir définitivement.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Dans ce mémoire, nous traiterons du théorème de Lebesgue, un des plus frappants et des plus importants de l'analyse mathématique ; à savoir qu'une fonction à variation bornée est dérivable presque partout. Le but de ce travail est de fournir, à part la démonstration souvent proposée dans les cours de la théorie de la mesure, d'autres démonstrations élaborées avec des outils mathématiques plus simples. Ma contribution a consisté essentiellement à détailler et à compléter ces démonstrations, puis à inclure la plupart des figures pour une meilleure lisibilité. Nous allons maintenant, pour ce théorème qui se présente sous d'autres variantes, en proposer l'historique et trois démonstrations différentes.
Resumo:
Les gouvernants d'État qui émergent de conflits politiques - guerre civile, dictature - sont confrontés à des demandes que inconciliables que les auteurs estiment pourtant indispensables. Ils font face à l'exigence de justice pénale formulées par les victimes et la revendication d'impunité émanant des auteurs de crimes, très souvent, constitués par les anciens responsables de l'État. Le châtiment, en effet, ne permet ni la pacification ni la démocratisation.Il devient, dès lors, explicite que la sortie de crise peut prendre des voies autres que celle de la sanction pénale. La justice réparatrice apparaît ainsi comme un type de justice susceptible de faire droit aux demandes des offenseurs et des offensés en favorisant la paix et la démocratisation. On lui adresse pourtant des critiques ayant trait à la déresponsabilisation des individus ou à l'incrimination de tout le monde dans l'exécution des crimes perpétrés. L'objectif ultime est de favoriser la délibération, entre les offenseurs et les offensés, sur les crimes. Il faut cependant prémunir un tel dialogue contre les risques d'instrumentalisation. Dans les Commissions Vérité le discours tourne autour essentiellement des thématiques des droits de l'homme, des excuses, du pardon et de l'amnistie. Toutefois, l'usage de ces notions ne fait pas disparaître comme enchantement la haine de certaines victimes.