699 resultados para Domaine Numérique
Resumo:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
Resumo:
On note de nos jours une intensification, aux États-Unis, de l’usage de la race en santé publique, une idée qui est parfois rejetée dans la mesure où elle est associée à des pratiques controversées. Les races sont vues, dans ce contexte, comme le produit du racisme, une technologie du pouvoir de l’État moderne qui a consisté à fragmenter l’humanité pour permettre les colonisations. C'est ainsi que la race a été prise en charge par le discours pour marquer la différence, discours qui est constitué d'un ensemble hétérogène de dispositifs, des institutions, des énoncés scientifiques, des normes et des règles. Le racisme s’est développé en parallèle avec l'affirmation d'un pouvoir sur la vie visant à assurer la gestion des corps et des populations, notamment par le biais des pratiques de santé publique. Cette thèse s'appuie sur une étude ethnographique réalisée sur un corpus de documents de la santé publique parus aux États-Unis et issus de bureaux fédéraux et d’une importante revue spécialisée dans le domaine sanitaire, et qui ont été publiés entre 2001 et 2009. Cette étude a analysé la manière dont la race est représentée, produite comme objet de connaissance, et régulée par les pratiques discursives dans ces documents. Les résultats confirment que le discours sur la race varie au cours du temps. Toutefois, les résultats indiquent la relative permanence en santé publique d'un régime racialisé de représentation qui consiste à identifier, à situer et à opposer les sujets et les groupes à partir de labels standardisés. Ce régime est composé d'un ensemble de pratiques représentationnelles qui, couplées aux techniques disciplinaires et à l’idée de culture, aboutissent à la caractérisation et à la formation d’objets racialisés et à des stéréotypes. De plus, cet ensemble d’opérations qui fabrique la racialisation, a tendance, avec la sanitarisation et la culturalisation, à naturaliser la différence, à reproduire l’ordre symbolique et à constituer les identités raciales. Par ailleurs, la racialisation apparaît tiraillée entre un pouvoir sur la vie et un pouvoir sur la mort. Enfin, cette étude propose une alternative postraciale qui envisage la constitution des groupes humains de manière fluide et déterritorialisée.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
La majorité des auteurs qui s’intéressent à la surqualification la comprennent et l’analysent habituellement comme une situation de suréducation ou de déclassement scolaire. Ce mémoire fait l’hypothèse que le sens qu’accordent les individus au fait d’être surqualifié est beaucoup plus large. Même s’il est raisonnable de croire que la majorité des diplômés espèrent pouvoir obtenir un emploi à la hauteur de leur diplôme, le fait de définir le sentiment de surqualification de façon substantialiste, en ne considérant que le niveau de diplôme obtenu par le travailleur et exigé par l’employeur, semble quelque peu réducteur. Le sentiment de surqualification naît d’un jugement social : il est empirique, contextualisé et dynamique. À la croisée des mesures objectives et subjectives, nous explorons ainsi les facteurs explicatifs du sentiment de surqualification chez les diplômés canadiens à partir d’une analyse statistique des déterminants de ce sentiment dans les premières années qui suivent l’obtention de leur diplôme d’études postsecondaires. Nous montrons d’abord que l’utilisation de compétences en emploi et le lien entre le diplôme obtenu et l’emploi expliquent bien plus le sentiment de surqualification que la suréducation objective. Nous montrons aussi que l’impact du niveau d’utilisation d’une compétence donnée sur le sentiment de surqualification varie substantiellement selon le domaine d’études du diplômé et la nature de cette compétence.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Le regroupement des neurones de propriétés similaires est à l’origine de modules permettant d’optimiser l’analyse de l’information. La conséquence est la présence de cartes fonctionnelles dans le cortex visuel primaire de certains mammifères pour de nombreux paramètres tels que l’orientation, la direction du mouvement ou la position des stimuli (visuotopie). Le premier volet de cette thèse est consacré à caractériser l’organisation modulaire dans le cortex visuel primaire pour un paramètre fondamental, la suppression centre / pourtour et au delà du cortex visuel primaire (dans l’aire 21a), pour l’orientation et la direction. Toutes les études ont été effectuées à l’aide de l’imagerie optique des signaux intrinsèques sur le cortex visuel du chat anesthésié. La quantification de la modulation par la taille des stimuli à permis de révéler la présence de modules de forte et de faible suppression par le pourtour dans le cortex visuel primaire (aires 17 et 18). Ce type d’organisation n’avait été observé jusqu’ici que dans une aire de plus haut niveau hiérarchique chez le primate. Une organisation modulaire pour l’orientation, similaire à celle observée dans le cortex visuel primaire a été révélée dans l’aire 21a. Par contre, contrairement à l’aire 18, l’aire 21a ne semblait pas être organisée en domaine de direction. L’ensemble de ces résultats pourront permettre d’alimenter les connaissances sur l’organisation anatomo-fonctionnelle du cortex visuel du chat mais également de mieux comprendre les facteurs qui déterminent la présence d’une organisation modulaire. Le deuxième volet abordé dans cette thèse s’est intéressé à l’amélioration de l’aspect quantitatif apporté par l’analyse temporelle en imagerie optique des signaux intrinsèques. Cette nouvelle approche, basée sur l’analyse de Fourier a permis d’augmenter considérablement le rapport signal / bruit des enregistrements. Toutefois, cette analyse ne s’est basée jusqu’ici que sur la quantification d’une seule harmonique ce qui a limité son emploi à la cartographie de l’orientation et de rétinotopie uniquement. En exploitant les plus hautes harmoniques, un modèle a été proposé afin d’estimer la taille des champs récepteurs et la sélectivité à la direction. Ce modèle a par la suite été validé par des approches conventionnelles dans le cortex visuel primaire.
Resumo:
Au Québec, depuis les 25 dernières années, l’enjeu de la privatisation dans le secteur de la santé revient constamment dans le débat public. Déjà dans les années 1980, lorsque le secteur de la santé a commencé à subir d’importantes pressions, faire participer davantage le privé était présenté comme une voie envisageable. Plus récemment, avec l’adoption de la loi 33 par le gouvernement libéral de Jean Charest, plusieurs groupes ont dénoncé la privatisation en santé. Ce qui frappe lorsque l’on s’intéresse à la privatisation en santé, c’est que plusieurs textes abordant cette question ne définissent pas clairement le concept. En se penchant plus particulièrement sur le cas du Québec, cette recherche vise dans un premier temps à rappeler comment a émergé et progressé l’idée de privatisation en santé. Cette idée est apparue dans les années 1980 alors que les programmes publics de soins de santé ont commencé à exercer d’importantes pressions sur les finances publiques des États ébranlés par la crise économique et qu’au même moment, l’idéologie néolibérale, qui remet en question le rôle de l’État dans la couverture sociale, éclipsait tranquillement le keynésianisme. Une nouvelle manière de gérer les programmes publics de soins de santé s’imposait comme étant la voie à adopter. Le nouveau management public et les techniques qu’il propose, dont la privatisation, sont apparus comme étant une solution à considérer. Ensuite, par le biais d’une revue de la littérature, cette recherche fait une analyse du concept de privatisation, tant sur le plan de la protection sociale en général que sur celui de la santé. Ce faisant, elle contribue à combler le flou conceptuel entourant la privatisation et à la définir de manière systématique. Ainsi, la privatisation dans le secteur de la santé transfère des responsabilités du public vers le privé dans certaines activités soit sur le plan: 1) de la gestion et de l’administration, 2) du financement, 3) de la provision et 4) de la propriété. De plus, la privatisation est un processus de changement et peut être initiée de manière active ou passive. La dernière partie de cette recherche se concentre sur le cas québécois et montre comment la privatisation a progressé dans le domaine de la santé au Québec et comment certains éléments du contexte institutionnel canadien ont influencé le processus de privatisation en santé dans le contexte québécois. Suite à une diminution dans le financement en matière de santé de la part du gouvernement fédéral à partir des années 1980, le gouvernement québécois a privatisé activement des services de santé complémentaires en les désassurant, mais a aussi mis en place la politique du virage ambulatoire qui a entraîné une privatisation passive du système de santé. Par cette politique, une nouvelle tendance dans la provision des soins, consistant à retourner plus rapidement les patients dans leur milieu de vie, s’est dessinée. La Loi canadienne sur la santé qui a déjà freiné la privatisation des soins ne représente pas un obstacle suffisant pour arrêter ce type de privatisation. Finalement, avec l’adoption de la loi 33, suite à l’affaire Chaoulli, le gouvernement du Québec a activement fait une plus grande place au privé dans trois activités du programme public de soins de santé soit dans : l’administration et la gestion, la provision et le financement.
Resumo:
Les différents acteurs impliqués dans la formation pratique en milieu scolaire doivent composer avec les réalités culturelles et territoriales des régions du Québec. Les étudiants issus des régions éloignées des universités souhaitent retourner dans leur milieu d’origine afin d’y réaliser un de leur stage. L’omniprésence des technologies de l’information et des communications (TIC) dans les milieux scolaires et universitaires et l’exigence du Ministère de l’Éducation du Québec (MEQ) (2001) à développer une compétence professionnelle qui vise à intégrer les TIC aux fins de préparation, de pilotage et de gestion de l’enseignement concourent à mettre en place un modèle de supervision qui puisse répondre aux exigences liées au domaine de la formation pratique. Les enjeux sont de taille et méritent que l’on s’y attarde. Prenant en considération le fait que l’observation et la communication entre les différents partenaires de la supervision du stagiaire sont à la base d’une formation efficiente qui puisse répondre aux besoins des étudiants, la présente étude propose un modèle de supervision pouvant accroître la présence des universités dans les milieux plus éloignés et ainsi assurer un accompagnement optimal des stagiaires sur l’ensemble du territoire québécois. Cette recherche a pour objectif de mieux comprendre les avantages et les limites d’un modèle de supervision en distanciel faisant appel aux TIC lors des stages réalisés dans les milieux scolaires éloignés de leur université. Plus précisément, l’étude répond à trois objectifs en identifiant (1) les avantages et (2) les limites liés à la supervision des stages lorsqu’ils se déroulent par l’entremise des TIC et en contribuant à (3) comprendre l’efficience d’un modèle de supervision en distanciel appuyé par les TIC sur l’accompagnement des stagiaires dans le développement de leurs compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle. Afin de saisir les enjeux d’un tel modèle, une étude qualitative descriptive s’avère être le choix qui s’impose. Une rigoureuse collecte de données menée auprès de quatre stagiaires, leur enseignant associé respectif et leur superviseur à l’aide de grilles d’observation, d’enregistrements vidéo, de journaux de bord et d’entrevues semi-dirigées permet de répondre à quatre questions de recherche. Ces dernières s’interrogent sur l’efficience d’un modèle de supervision en distanciel au plan de l’encadrement du stagiaire avant, pendant et après sa prestation, au plan du développement des compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle et au plan de la communication entre les partenaires de la supervision. Les données recueillies à partir des différents outils permettent la présentation d’une description de chaque étape et des avantages et des limites de chacune d’elles : l’accueil, l’observation, les échanges-partenaires et la rétroaction. L’étude permet également de mieux comprendre les avantages et les limites d’une supervision en distanciel appuyé par les TIC lors des stages se déroulant dans les milieux scolaires éloignés de leur université. Ainsi, l’étude fait ressortir que chaque étape du modèle de supervision en distanciel proposé contribue, à différents égards, à rendre la supervision efficiente sur le plan de l’accompagnement au développement des compétences professionnelles. Des recommandations et des pistes de recherches sont proposées afin de maximiser le potentiel du modèle.
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2010 dans le cadre des cours SCI6112 L’évaluation des archives sous la direction du professeur Yvon Lemay et SCI6314 Gestion avancée des services d'information sous la direction de Carole Brouillette.
Resumo:
Les MAP kinases sont des enzymes essentielles impliquées dans 7 voies de signalisation distinctes qui permettent à la cellule de répondre de manière adéquate aux stimuli extra-cellulaires. Chez les mammifères, les MAP kinases les mieux caractérisées sont Erk1/2, Jnk, p38 et Erk5. Ces enzymes jouent un rôle important dans l’embryogenèse, la prolifération et la différenciation cellulaire ainsi que dans la réponse au stress. Erk4 est un membre atypique de la famille MAP kinase. D’une part, la boucle d’activation de Erk4 possède un motif SEG au lieu du motif TXY, très conservé chez les MAP kinases. D’autre part, Erk4 possède une extension en C-terminal du domaine kinase qui n’est pas présente chez les MAP kinases classiques. Jusqu’à présent aucune fonction n’a été attribuée à Erk4. De plus, la voie de signalisation ainsi que le mode de régulation conduisant à l’activation de Erk4 ne sont pas connus. Le seul substrat de Erk4 identifié jusqu’à maintenant est la MAPKAP kinase MK5. L’impact fonctionnel de cette interaction n’est également pas connu. Afin d’en apprendre davantage sur la MAP kinase atypique Erk4, nous avons étudié le mécanisme d’activation de cette kinase ainsi que sa fonction physiologique par une approche de délétion génique chez la souris. En ce qui concerne l’activation de Erk4, nous avons montré que la boucle d’activation de Erk4 (S186EG) est constitutivement phosphorylée in vivo et que cette phosphorylation n’est pas modulée par les stimuli classiques des MAP kinases dont le sérum et le sorbitol. Cependant, nous avons observé que la phosphorylation de la S186 augmente en présence de MK5 et que cette augmentation est indépendante de l’activité kinase de l’une ou l’autre de ces kinases. De plus, nous avons établi que la phosphorylation de la boucle d’activation de Erk4 est requise pour l’interaction stable entre Erk4 et MK5 ainsi que pour l’activation, et la relocalisation cytoplasmique de MK5. Ainsi, notre étude a permis de révéler que Erk4 est régulée de manière différente des MAP kinases classiques et que la phosphorylation de la boucle d’activation de Erk4 joue un rôle essentiel dans la régulation de l’activité de MK5. Parallèlement, nos résultats mettent en évidence l’existence d’une “Erk4 kinase”, dont le recrutement et/ou l’activation semble être facilité par MK5. Afin identifier la fonction physiologique de Erk4, nous avons généré des souris Erk4-déficientes. L’inactivation génique de Erk4 est viable et les souris ne présentent aucune anomalie apparente. Dans le but d’expliquer l’absence de phénotype, nous avons regardé si l’expression de Erk3, le paralogue de Erk4, pouvait compenser la perte de Erk4. Notre analyse a révélé que l’expression de Erk3 dans les souris Erk4-/- n’augmente pas au cours du développement embryonnaire ou dans les tissus adultes afin de compenser pour la perte de Erk4. Par la suite, nous avons adressé la question de redondance entre Erk4 et Erk3. Dans notre laboratoire, les souris Erk3-déficientes ont également été générées et le phénotype de ces souris a récemment été analysé. Cette étude a révélé que l’inactivation génique de Erk3 entraîne un retard de croissance intra-utérin, un défaut de maturation pulmonaire et la mort néo-natale des souriceaux. Nous avons donc regardé la contribution de Erk4 dans ces phénotypes. L’analyse des souris Erk4-/- a révélé que l’inactivation de Erk4 n’entraîne pas de retard de croissance ou de maturation du poumon. De plus, nous avons montré que l’inactivation additionnelle de Erk4 dans les souris Erk3-/- n’accentue pas le phénotype des souris Erk3-déficientes. Ainsi, notre étude a révélé que contrairement à Erk3, Erk4 n’est pas essentielle au développement murin dans des conditions physiologiques. Parallèlement, nous avons montré que Erk4 et Erk3 possèdent des fonctions non-redondantes in vivo.
Resumo:
Dans cette thèse, nous construisons un modèle épidémiologique de la dissémina- tion de normes juridiques. L’objectif est d’expliquer la transmission de normes juridiques américaines régissant les tests de dépistages pour drogues au travail vers le Canada ainsi que la propagation subséquente de ces normes à travers la jurisprudence canadienne. La propagation des normes régissant les tests de dépistages pour drogues au travail sert donc à la fois de point de départ pour une réflexion théorique sur la transmission de normes juridiques et pour une étude de cas empirique. Nous partons de la prémisse que les explications du changement juridique, telles celle de la transplantation et celle de l’harmonisation, sont essentiellement métaphoriques. Ces métaphores explicatives fonctionnent en invitant des comparaisons entre les domaines connus et inconnus. Quand ce processus de comparaison est systématisé, la métaphore devient un modèle. Dans la thèse, nous appliquons cette procédure de systématisation afin de transformer la métaphore de la propagation virale en modèle épidémiologique. Après une revue de la littérature sur les épidémies sociales, nous décrivons les éléments pertinents de la théorie épidémiologique pour, ensuite, les transposer au domaine juridique. Le modèle est alors opérationnalisé en l’appliquant à une base de données composée de la jurisprudence pertinente (n=187). Les résultats soutiennent les hypothèses du modèle. 90 % des décisions qui citent les sources américaines sont infectées selon les critères du modèle, alors que seulement 64 % des décisions qui ne citent pas de sources américaines sont infectées. Cela soutient l’hypothèse d’une épidémie dite de « réservoir commun ». Nous avons également démontré une corrélation positive entre la référence à ces décisions et l’état d’infection! : 87 % des décisions qui citent des décisions qui réfèrent aux sources américaines sont infectées, alors que le taux d’infection parmi la population restante est de seulement 53 %. Les résultats semblables ont été obtenus pour les décisions de troisième génération. Cela soutient l’hypothèse selon laquelle il y a eu propagation à travers la jurisprudence suite aux contacts initiaux avec le réservoir commun. Des corrélations positives ont aussi été démontrées entre l’état d’infection et l’appartenance à l’une ou l’autre de sous-populations particulières qui seraient, par hypothèse, des points d’infection. En conclusion de la thèse, nous avançons que c’est seulement après avoir construit un modèle et d’avoir constaté ses limites que nous pouvons vraiment comprendre le rôle des métaphores et des modèles dans l’explication de phénomènes juridiques.
Resumo:
Le génie tissulaire est un domaine interdisciplinaire qui applique les principes du génie et des sciences de la vie (notamment la science des cellules souches) dans le but de régénérer et réparer les tissus et organes lésés. En d'autres mots, plutôt que de remplacer les tissus et les organes, on les répare. La recherche en génie tissulaire est considérable et les ambitions sont grandes, notamment celle de mettre fm aux listes d'attente de dons d'organes. Le génie tissulaire a déjà commencé à livrer des produits thérapeutiques pour des applications simples, notamment la peau et le cartilage. Les questions sur la façon de réglementer les produits thérapeutiques qui sont issus du génie tissulaire sont soulevées à chaque nouveau produit. À ce jour, ces questions ont reçu peu d'attention comparativement aux questions éthiques associées aux recherches avec les cellules souches et les risques qu'engendrent les produits biologiques. Il est donc important d'examiner si le cadre normatif qui entoure la mise en marché des produits issus du génie tissulaire est approprié puisque de tels produits sont déjà disponibles sur le marché et plusieurs autres sont en voie de l'être. Notre analyse révèle que le cadre canadien actuel n'est pas approprié et le moment d'une reforme est arrivé. Les États-Unis et l'Union européenne ont chacun des approches particulières qui sont instructives. Nous avons entrepris une revue des textes réglementaires qui encadrent la mise en marché des produits issus du génie tissulaire au Canada, aux États-Unis et dans l'Union européenne et formulons quelques suggestions de réforme.
Resumo:
L'Accord sur le commerce intérieur est un accord de libre-échange pancanadien visant l'abaissement des barrières non tarifiaires au commerce interprovincial. La notion de barrières au commerce interprovincial, en soi, suscite maintes controverses. Aucun consensus n'existe à savoir quelles sont les barrières au commerce, quelles en sont leurs coûts, mais surtout, s'il faut les abaisser. La grande majorité des experts concoivent que beaucoup de ces barrières non tarifaires au commerce se retrouvent dans le secteur des produits agroalimentaires. À ce titre, ce domaine est, depuis plusieurs décennies, traditionnellement protectionniste et constitue donc un marché des plus difficiles à intégrer. Cette réalité prévaut tant au niveau international qu'interprovincial. Au Canada, l'outil privilégié après des années de négociations constitutionnelles infructueuses fut l'Accord sur le commerce intérieur. Cet accord, aux allures de traité international, vise l'intégration graduelle du marché interne canadien. La volonté de devenir un marché intégré et compétitif au niveau mondial se heurte à la détermination des provinces de protéger leur souveraineté législative. Ainsi, l'outil d'ouverture du marché que constitue l'Accord sur le commerce intérieur, qui navigue entre ces positions antagonistes, fut rédigé de manière assez complexe et peu accessible. Le contexte politique et constitutionnel particulier dans lequel se sont inscrites les négociations de cet accord a ainsi teinté le texte de l'accord et sa rédaction. En plus de sa simplification, plusieurs solutions intervenant sous plusieurs facettes de l'Accord sur le commerce intérieur permettraient à ce dernier de se voir plus efficace dans sa mission d'intégration du marché interprovincial canadien, en plus d'augmenter sa notoriété, sa crédibilité et de permettre une meilleure mise en œuvre.
Resumo:
L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.