856 resultados para quil a


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche consiste en l’étude de la réactivité et de la sélectivité de nouveaux catalyseurs de métathèse d’oléfines à base de ruthénium lors de réaction de fermeture de cycle par métathèse d’oléfines (RCM). L’emphase de cette étude repose sur l’évaluation de nouveaux catalyseurs possédant un ligand NHC (carbène N-hétérocyclique) C1-symétrique développés par le laboratoire Collins pour des réactions de désymétrisations asymétriques de méso-triènes par ARCM. Le projet a été séparé en deux sections distinctes. La première section concerne la formation d’oléfines trisubstituées par ARCM de méso-triènes. La seconde section consiste en la formation d’oléfines tétrasubstituées par le biais de la RCM de diènes et de la ARCM de méso-triènes. Il est à noter qu’il n’y a aucun précédent dans la littérature concernant la formation d’oléfines tétrasubstituées suite à une désymétrisation par ARCM. Lors de l’étude concernant la formation d’oléfines trisubstituées, une étude de cinétique a été entreprise dans le but de mieux comprendre la réactivité des différents catalyseurs. Il a été possible d’observer que le groupement N-alkyle a une grande influence sur la réactivité du catalyseur. Une étude de sélectivité a ensuite été entreprise pour déterminer si le groupement N-alkyle génère aussi un effet sur la sélectivité des catalyseurs. Cette étude a été effectuée par l’entremise de réactions de désymétrisation d’une variété de méso-triènes. En ce qui a trait à la formation d’oléfines tétrasubstituées, une étude de la réactivité des différents catalyseurs a été effectuée par l’intermédiaire de malonates de diéthyldiméthallyle. Il a encore une fois a été possible d’observer que le groupement N-alkyle possède un effet important sur la réactivité du catalyseur. Une étude de sélectivité a ensuite été entreprise pour déterminer si le groupement iv N-alkyle génère aussi un effet sur la sélectivité des catalyseurs. Cette étude a été effectuée par l’entremise de réactions de désymétrisation de différents mésotriènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article étudie deux contextes français dans lesquels les voiles musulmans sont devenus hypervisibles: le débat public qui a mené à la loi française de 2004 interdisant les signes religieux ostensibles dans les écoles publiques, et le projet colonial français de dévoiler les femmes algériennes. Je montre comment le concept de « l’oppression de genre » s’est naturalisé au voile musulman d’une telle manière qu’il justifie les normes de féminités occidentales et cache le mécanisme par lequel les femmes musulmanes sont racialisées. C’est ainsi que le voile devient le point de mire d’un racisme culturel qui se présente comme libérant les femmes musulmanes, un racisme qui semble poser un dilemme au féminisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although some are excited about the possibility of using current scientific research into the biological causes of sexual orientation to ground rights claims, I argue that basing rights claims on this research is unwise because this research, specifically the hormonal, genetic, and structural research, is organized around the inversion assumption, a conceptual scheme within which some aspect of the biology of gay men and lesbians is thought to be inverted along sex lines.While there are many reasons to worry about the use of the inversion assumption, I focus on problems that arise from a further set of claims that must be assumed in order to make the use of the inversion assumption coherent. This further set of assumptions includes the claims (1) that heterosexuality is the standard state and that (2) this standard state is sexually-dimorphic and (3) deterministic. I argue that this set of assumptions is problematic because it results in ideological consequences that are both sexist and heterosexist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Under the circumstances of pluralism people often claim that the state ought to be neutral towards its citizens’ conceptions of the good life. However, what it means for the state to be neutral is often unclear. This is partly because there are different conceptions of neutrality and partly because what neutrality entails depends largely on the context in which neutrality is demanded. This paper discusses three different conceptions of neutrality – neutrality of impact, neutrality as equality of opportunity and justificatory neutrality – and analyses the strengths and weaknesses of the different conceptions in different contexts. It suggests that there are two common elements of neutrality in all its exemplifications: a) an element of “hands-off” and b) an element of equal treatment. It therefore argues that while justificatory neutrality is necessary for the state to be neutral it is not sufficient and claims that while conceptions of the good must not enter thejustificationof state regulations, they must be taken into consideration when deliberating theimplementation of these regulations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étiologie de l’obésité infantile est multifactorielle et complexe. Le patrimoine génétique tout comme l’environnement d’un enfant peuvent favoriser l’apparition d’un surplus de poids. C’est pourquoi plusieurs études se sont penchées sur le lien entre l’environnement familial et en particulier le rôle de la mère et le risque d’obésité chez l’enfant. L’objectif est de mieux comprendre quels sont les facteurs de risque maternels spécifiques à chaque population afin de mieux prévenir ce fléau. Ce projet a donc cherché à identifier quelles sont les relations entre les facteurs de risque maternels et l’indice de masse corporelle d’enfants québécois avec surcharge pondérale. Parmi les facteurs de risque étudiés, on note des liens entre le niveau de scolarité de la mère, son statut familial et son niveau d’insécurité alimentaire. Sur le plan cognitif et comportemental, le lien entre l’indice de masse corporelle (IMC) de l’enfant et la perception maternelle du poids de son enfant ainsi que le niveau de restriction alimentaire maternel ont également été analysés. Au total, 47 entrevues ont été complétées par téléphone auprès des mères d’enfants obèses ou en embonpoint grâce à un large questionnaire destiné à décrire le profil des familles consultant les cliniques externes du CHU Ste Justine. Les tests de Fisher pour les variables catégorielles, le test de T de comparaison des moyennes du Z-score de l’IMC des enfants ont permis d’effectuer les analyses statistiques. Les résultats obtenus démontrent qu’un lien existe entre le niveau de scolarité maternel et la présence d’insécurité alimentaire. De même, il a été possible de constater que les enfants avec une mère restrictive des apports alimentaires de leur enfant avaient un Z-score de l’IMC significativement plus élevé. Ces résultats suggèrent qu’il existe des liens entre le profil socio-économique et comportemental de la mère et le surplus de poids de l’enfant. Des tests auprès d’un plus large échantillon seront nécessaires afin de confirmer ces résultats, l’objectif étant, entre autres, de mieux cibler les enfants à risque d’embonpoint ou d’obésité et de mieux outiller les professionnels de la santé en contact avec ces familles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1853 et 1870, de multiples quartiers de la ville sont éventrés pour permettre la mise en place de nouveaux boulevards par le baron Haussmann, préfet de Paris sous Napoléon III. Ces travaux majeurs ont frappé l’imaginaire social et constitué un objet de fascination pour la littérature. Le mémoire se situe sur le terrain de la sociocritique. La chercheuse cherche à comprendre comment des textes de Verne, Hugo et Zola lisent la nouvelle configuration urbaine parisienne. Dans Paris au XXe siècle (1863), Jules Verne projette la destruction dans le futur et, en retour, imagine les rémanences d’un passé étrangement constructif. Bien qu’il soit en exil, Victor Hugo est très au courant des changements urbains et sociaux en cours. Dans Paris (1867), son écriture travaille à rendre compatibles les idées de ruine et de progrès. Émile Zola, avec Paris (1898), exprime les contradictions accompagnant le changement urbain par le biais de métaphores médicales et organiques proches de « l’esprit de décadence » qui caractérise la fin du siècle. En conformité avec les visées de l’approche sociocritique, c’est à partir d’une lecture interne des oeuvres, mettant à profit les ressources de l’analyse de texte, de la poétique et de la narratologie, que la recherche se développe. L’étude mobilise également les ressources des travaux consacrés aux relations de la littérature et de la ville, ainsi que celles des ouvrages de synthèse produits dans les champs de l’histoire générale et de l’histoire de l’urbanisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des philosophes s’entendent aujourd’hui pour affirmer qu’il y a une crise de sens en Occident. J.-F. Mattéi l’a démontré sans équivoque dans son ouvrage intitulé La crise de sens (2006). Selon lui, la crise se traduirait par cinq aspects: crise spirituelle, crise religieuse, crise de l’art, crise économique et finalement, crise de la culture. À notre avis, cela est exact, mais incomplet, car Mattéi néglige d’évoquer la crise la plus importante : la crise écologique. L’argument qui nous amène à en postuler la plus haute importance est simple : s’il n’y a plus d’environnement favorable au maintien de la vie humaine, c’est la fin de l’humanité. L’aspect environnemental de la crise ne peut donc pas être occulté de la réflexion concernant son ensemble, car pour nous, elle est l’occasion d’un questionnement philosophique appelé à répondre à cette crise. Dans un livre intitulé Écologie, éthique et création (1994), Dominique Jacquemin nous oriente en ce sens en y posant les trois questions suivantes : 1. Est-il possible de qualifier éthiquement ce à quoi nous convie aujourd’hui la préoccupation écologique? 2. Quel rapport au monde et à l’avenir la préoccupation écologique est-elle à même d’instaurer? 3. Quelles sont les possibilités pour que la démarche écologique devienne un lieu éthique à même d’instaurer un rapport homme-nature dans le présent et l’avenir? Ainsi, le questionnement que soulève la crise écologique amène à réfléchir sur le sens et la finalité de la vie humaine et sur la conception même de l’être humain dans son rapport au monde. Le propos de ce mémoire est de répondre à ces dernières questions en nous inspirant des principes éthiques mis en avant dans Le Principe Responsabilité (1990) de Hans Jonas, et cela, dans le but d’en faire ressortir sa pertinence face au défi environnemental actuel. En d’autres termes, nous tâcherons de répondre à la question suivante : Pour la société actuelle et son prolongement, quels sont les aspects les plus pertinents de la thèse de Hans Jonas (1903 – 1993) dans son Principe Responsabilité (1990) concernant la résolution de la crise de sens? À cette fin, le mémoire comporte deux chapitres dont le premier, qui forme le cœur du mémoire, comporte trois parties principales liées aux trois questions posées précédemment. Le deuxième et dernier chapitre comporte premièrement une analyse critique du Principe responsabilité et par la suite son appréciation critique. Méthodologiquement, nous entendons éclairer la nécessité de la responsabilité éthique face à la crise écologique en mettant l’accent sur les thèmes de l’altérité et de la solidarité. C’est de cette manière que nous espérons montrer que la crise écologique actuelle ouvre des avenues possibles à la résolution, au moins partielle, de la crise de sens à laquelle nous sommes actuellement confrontés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire tente de présenter la politique allemande de François Mitterrand de 1981 à 1991 à travers le discours public du président français. À cette fin, il présente la position du chef d’État socialiste sur le rôle de l’Allemagne dans la construction de l’unité européenne et dans la politique de défense et de sécurité française, ainsi que sur la question de la réunification allemande. Il tente ensuite de situer la politique allemande de François Mitterrand par rapport à celle du général de Gaulle, et de juger de la valeur du discours public du président français comme source primaire. L’hypothèse principale que nous soutenons est que le président socialiste tente, de 1981 à 1991, de s’appuyer sur la République fédérale d’Allemagne pour atteindre les objectifs de grandeur et d’indépendance fixés pour la France par de Gaulle dans les années 1960. Nous croyons qu’il souhaite d’abord se rapprocher de la RFA pour que celle-ci l’aide à unifier politiquement, économiquement et militairement l’Europe autour du couple franco-allemand. Nous croyons également que Mitterrand veut s’assurer, au début des années 1980, que la RFA restera ancrée solidement au camp occidental et qu’elle ne glissera pas vers le neutralisme, ce qui doit, selon le président français, permettre à la France d’augmenter son niveau de protection face à l’URSS et accroître son indépendance face aux États-Unis. Enfin, nous croyons que le président socialiste ne tente pas d’empêcher la réunification de l’Allemagne, mais qu’il tente d’en ralentir le processus afin de pouvoir mettre en place l’unité européenne au sein de laquelle il souhaite exercer une influence sur l’Allemagne réunifiée, et à partir de laquelle il prévoit développer sa politique d’après-guerre froide. Ces initiatives doivent permettre à la France d’absorber les contrecoups de la réunification allemande et de sauvegarder ses intérêts nationaux. Dans l’ensemble, la politique allemande de François Mitterrand est en continuité avec la politique allemande développée par le général de Gaulle de 1958 à 1964. Les deux hommes cherchent ainsi à s’appuyer sur la RFA pour créer l’unité européenne afin que celle-ci serve de tremplin à la France pour qu’elle atteigne ses objectifs de grandeur et d’indépendance. Enfin, nous croyons que le discours public du président socialiste peut être utilisé comme source primaire car il renferme une quantité importante d’information, mais son utilisation doit se faire avec précaution car comme tous les discours politiques, il vise d’abord et avant tout à convaincre l’opinion publique du bien fondé des politiques avancées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'eugénol (2-methoxy-4-(2-propenyl) phénol), produit dérivé du clou de girofle (Eugenia aromatica), fut tout d’abord utilisé en application topique à des fins d’analgésie dentaire. Il produit également une anesthésie chirurgicale lorsque administré en immersion chez les poissons. L’eugénol agit sur les récepteurs vanilloïdes, sensibles à la chaleur, aux protons et à certaines molécules lipidiques. Ces récepteurs jouent un rôle important dans le mécanisme de l’inflammation et de l’hyperalgésie. L’eugénol pourrait également produire ses effets par antagonisme des récepteurs glutamaergiques (NMDA) et par son activation des récepteurs GABAergiques. Considérant que l’eugénol produit des effets analgésiques et anesthésiques, des études de pharmacocinétique et de pharmacodynamie furent réalisées chez la grenouille (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus). Les résultats démontrent que l’eugénol administré par immersion à une dose efficace permet d’atteindre une anesthésie chirurgicale chez les grenouilles (350 mg/L) et les poissons (75 mg/L). Suite à des analyses plasmatiques par LC/MS/MS, la pharmacocinétique des grenouilles, des poissons et des rats montre que la drogue est éliminée et qu’il pourrait y avoir une recirculation entérohépathique plus importante chez la grenouille et le rat. La longue demi-vie chez le rat suggère aussi une accumulation dans les tissus après des administrations répétées. Suite à l’administration intraveineuse d’une dose de 20 mg/kg chez le rat, l’eugénol induit une anesthésie chirurgicale pour une très courte période de temps variant autour de 167 s. Les résultats de sensibilité thermique confirment l’efficacité de l’eugénol pour réduire l’hyperalgésie induite chez des rats neuropathiques. L’effet pharmacologique de l’eugénol a démontré une augmentation progressive constante de l’analgésie sur une période de cinq jours de traitements journaliers. En conclusion, l’eugénol possède des propriétés analgésiques et anesthésiques chez la grenouille africaine à griffes (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les technologies de l’information entraînent de profondes transformations dans nos façons d’apprendre et de socialiser ; de lire et d’écrire. Ces changements ne sont pas sans conséquence sur de nombreuses institutions, juridiques ou non. Créées au fil du temps et adaptées à une réalité qu’elles avaient internalisée, elles doivent aujourd’hui comprendre et s’adapter au changement. L’écrit est une de ces institutions. Sa place dans le droit civil est le fruit de centaines d’années de cohabitation et le droit y a vu un allié stable. Mais autrefois facilitateur, l’écrit devient obstacle alors que les technologies de l’information, affranchies du papier, sont utilisées dans des situations juridiques. Comment adapter la notion d’écrit – et celles de l’original et de la signature – alors qu’il n’est question que de données abstraites sous forme numérique ? C’est là l’objet de ce mémoire. Suite à une étude de la notion d’écrit dans le temps, de son affirmation à son bouleversement, nous étudierons les outils juridiques (traditionnels ou récents, comme les principes de neutralité technologique et d’équivalence fonctionnelle) à la disposition du droit civil pour constamment s’adapter à des situations changeantes. Enfin, dans une perspective plus pratique, nous verrons le traitement qu’ont fait divers législateurs, de l’écrit électronique. Nous terminerons par une analyse plus précise des dispositions québécoises relatives à l’écrit électronique. Les principes étudiés dans ce mémoire sont susceptibles de s’appliquer à d’autres situations similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mesures de contrôle de la contamination croisée sont principalement concentrées dans la salle opératoire dentaire alors que les articles transférés entre la clinique et le laboratoire dentaire et les instruments de laboratoire ont reçu peu d’attention. Cette étude vise à documenter l’application des mesures d’asepsie sur ces articles par les professionnels du domaine dentaire ainsi que leurs perceptions entourant ces mesures. Un questionnaire autoadministré et anonyme a été envoyé à un échantillon aléatoire des dentistes, denturologistes et directeurs de laboratoire dentaire qui étaient inscrits aux listes des ordres professionnels en juin 2008 dans la province de Québec. Des 1100 questionnaires envoyés, 376 ont été retournés remplis. Presque trois quarts (72,1 %) des répondants affirment faire l’asepsie des instruments de laboratoire et 74,9 %, la désinfection des articles transférés mais avec des pourcentages variables selon le groupe d’articles (empreintes, prothèses, etc.). Seulement 9,1 % de professionnels identifient de façon générale les articles désinfectés avant l’envoi. Plus de la moitié des professionnels (51,4 %) trouvent qu’ils n’ont pas assez d’information sur l’asepsie des articles transférés et 62,4 %, qu’elle est difficile à appliquer. Cette étude est la première réalisée auprès des trois groupes de professionnels et la première à étudier leurs perceptions entourant l’asepsie des articles transférés et de l’instrumentation de laboratoire. Nous avons démontré que l’application des mesures d’asepsie à ces articles par les professionnels du domaine dentaire n’est pas toujours conforme aux normes proposées et qu’il existe un besoin de renforcer leur application, surtout en ce qui a trait aux articles transférés.